Passer au contenu

L’intelligence artificielle d’Anthropic prend le contrôle des ordinateurs

Claude AI, l’intelligence artificielle d’Anthropic, est maintenant capable d’interagir avec les ordinateurs, de la même manière qu’un utilisateur humain ! Une idée qui a ses avantages… et ses inconvénients.

Seriez-vous prêt à donner le contrôle de votre ordinateur à une IA ? C’est la proposition d’Anthropic, qui a annoncé la sortie de Claude 3.5 Sonnet, un modèle d’intelligence artificielle qui repousse les limites de l’assistant virtuel classique. Claude ne se contente plus de répondre à des questions ou d’effectuer des tâches dans un chatbox : il peut interagir directement avec les logiciels installés sur un ordinateur, en simulant des clics de souris, des frappes de clavier et d’autres actions réalisées habituellement par un utilisateur humain.

Une IA aux commandes de votre PC

« Nous entrons dans une nouvelle ère où une IA peut utiliser tous les outils qu’un être humain emploie pour accomplir ses tâches », explique Jared Kaplan, directeur scientifique d’Anthropic. Cette innovation est un pas vers la création d’« agents intelligents », capables d’agir de manière autonome dans les logiciels et pour de nombreux usages.

Claude peut ainsi être utilisé à toutes sortes de tâches, qui vont de la programmation à l’organisation de voyages. Par exemple, dans une démonstration, l’IA a été chargée de planifier une visite du Golden Gate Bridge au lever du soleil. Après avoir ouvert un navigateur, Claude a cherché les informations nécessaires et ajouté l’événement à un calendrier. Néanmoins, l’IA a omis des détails importants comme les indications pour s’y rendre. Oups !

Si les capacités de Claude 3.5 Sonnet sont impressionnantes, elles ne sont pas sans risques. La sécurité des utilisateurs est au cœur des préoccupations, car permettre à une IA d’accéder à l’ensemble des logiciels et fichiers d’un ordinateur pourrait ouvrir la porte à des abus ou des erreurs imprévues. Anthropic reconnaît ce danger et a déclaré travailler sur des mesures de protection. « Nous pensons qu’il est préférable de donner l’accès aux ordinateurs à des modèles d’IA plus limités et relativement plus sûrs», a affirmé l’entreprise, qui souligne l’importance de surveiller les éventuels problèmes dès maintenant.

Les attaques de type « prompt injection » figurent parmi les menaces identifiées. Ce type de cyberattaque consiste à insérer des instructions malveillantes dans un flux de commande destiné à l’IA, la poussant à réaliser des actions non prévues par l’utilisateur. Même si Claude n’est pas connecté à internet durant ses phases d’entraînement, ses capacités à interpréter des captures d’écran en temps réel le rendent vulnérable à ce type d’attaque.

En plus des risques involontaires, l’utilisation malveillante de Claude est également un sujet de préoccupation. Avec la perspective des élections américaines à venir, Anthropic a mis en place des systèmes pour empêcher l’IA de s’engager dans des activités nuisibles comme la création de contenu pour les réseaux sociaux ou l’interaction avec des sites gouvernementaux.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode