Passer au contenu

Microsoft s’excuse pour son intelligence artificielle nazie et misogyne

Le pauvre robot Tay a été débranché par Microsoft. En 24 heures, cette intelligence artificielle mis en ligne sur Twitter est devenue un monstre raciste, nazi…

Le pauvre robot Tay a été débranché par Microsoft. En 24 heures, cette intelligence artificielle mis en ligne sur Twitter est devenue un monstre raciste, nazi et misogyne. Le pire d’internet en quelque sorte, mais il faut dire que Twitter est le paradis des trolls.

Cependant, tout n’est pas perdu. Microsoft va étudier les leçons de cette expérience ; en attendant, Peter Lee le vice-président du labo Microsoft Research, assume la responsabilité des dérapages du chatbot, qui s’est laissé aller à publier des « mots et images inappropriés et répréhensibles ».

Il donne aussi une explication à la mauvaise tournure prise par les événements : des utilisateurs humains ont utilisé une « vulnérabilité » dans la cuirasse du robot qui l’a transformé en la créature haineuse en moins d’une journée. Lee ne donne pas beaucoup plus de précision sur cette faille, mais il semble qu’un groupe de 4chan ait abusé de la fonction « répète après moi » de Tay pour l’abreuver de propos dépassant la ligne rouge.

Si l’équipe en charge du développement de Tay a multiplié les scénarios et les stress-tests, elle ne s’est rendue compte de cette faille que lorsque le robot était en ligne. Espérons que cette expérience malheureuse serve à quelque chose.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Source

6 commentaires
  1. Non mais j’HALLUCINE !!! Les mecs taillent des grosses équipes d’ingénieurs sortis des meilleures écoles, ils développent un soft, le test, le valide pendant des semaines voire des mois ! … et il est démonté en moins de 24h ?
    Rassurez moi, ils n’ont rien testé du tout et ont grille le budget validation en stage de team-spirit à Hawaï hein ?

    Ah ! Mais je lis que…
    Ah ouais, c’est Microsoft… Ok, c’est bon… j’avais pas vu. Désolé.

  2. Elle à subi de la mauvaise influence… comme aurait pu le subir un être humain, c’est intéressant ^^

  3. A mon humble avis, on peut résumer en considérant que cette AI n’avait que peu d’éducation, et se trouvait fortement influençable 🙂

  4. Je plussoi hobo
    Je trouve que c’était un bon test : C’était comme lâcher une brebis dans la cage aux c… loups ! Désormais ils savent l’ampleur du merdier pour une “IA” ayant pour parents les chiottes du web 🙂
    Les pires spécimens en terme d’esprit déplacé du web on été encore une fois les plus réac. Ce n’est certes pas la majorité du web heureusement mais bon quand il s’agit de vomir sa haine et débiter un flux de conneries ininterrompues… 🙂

  5. Eh oui, une “intelligence” artificielle ne porte pas de jugement objectif sur les idées qu’elle côtoie. A-t-elle accepté comme des vérités l’opinion la plus répandue dans l’environnement glauque dans lequel on l’a plongée? N’aurait-elle pas dù être dotée par ses créateurs d’une “conscience artificielle” basée sur les garde-fous universellement reconnus (mais guère respectés) : tu ne tueras point, tu ne haïras point, etc. ?
    Ils auraient peut-être dû lire Asimov ; les trois lois de la robotique n’auraient pas été de trop…

Les commentaires sont fermés.

Mode