Passer au contenu

OpenAI a un outil capable de détecter les contenus IA, mais ne veut pas l’utiliser

Tricher grâce à ChatGPT pourrait devenir de plus en plus difficile.

Selon un rapport du Wall Street Journal, OpenAI aurait mis sur pied ou outil capable de détecter efficacement les contenus générés par intelligence artificielle. La nouvelle a des airs de révolution, à l’heure où la détection de contenus (textuel, image ou vidéo) générés par l’IA cristallise les tensions. D’autant plus que si elle ne concerne pour l’instant que les textes écrits par ChatGPT, son fonctionnement est assez générique.

Concrètement, l’outil d’OpenAI fonctionne en transformant la manière dont ChatGPT génère du texte. Lorsqu’il est activé, le chatbot laisse une sorte de filigrane numérique sur les productions qu’il génère. Le tout est totalement invisible à l’œil nu, mais il peut être détecté par le système anti-triche de la marque. Il pourrait ainsi devenir le pire cauchemar des élèves, et même des professeurs, ayant pris l’habitude d’utiliser les services de l’IA dans leur travail au quotidien.

Un outil potentiellement révolutionnaire

Fiable à 99,99% selon le Wall Street Journal, qui cite des études internes à OpenAI, le dispositif de détection de l’IA a fondamentalement tout d’une bonne idée. D’autant plus qu’il pourrait être utilisé dans d’autres domaines que la génération textuelle. Si OpenAI est capable de détecter les tricheurs, il pourrait aussi s’attaquer aux images et aux vidéos, en ciblant notamment le deepfakes générées par l’intelligence artificielle. Le sujet est autrement plus sensible, notamment lorsqu’il est question de revenge porn ou de fake news créées de toutes pièces, à l’image de cette séquence largement diffusée au début du conflit russo-ukrainien, dans laquelle on pouvait voir le Président Volodymyr Zelensky appeler au retrait des troupes ukrainiennes face à l’invasion de Vladimir Poutine.

 

Du coup, pourquoi OpenAI ne veut pas de cet outil ?

Reste que dans un billet de blog publié en mai dernier, OpenAI s’interroge. L’entreprise admet avoir trouvé une solution fiable pour lutter contre l’abus de l’IA, mais elle rechigne à la déployer à grande échelle. Officiellement, le géant de l’IA craint que l’utilisation d’un tel système de détection “affecte de manière disproportionnée” notre usage de l’IA.

En réalité, rapporte le Wall Street Journal, la réticence d’OpenAI à déployer son outil anti-triche résulterait d’un constat beaucoup plus pragmatique : une enquête d’avril 2023 publiée aux États-Unis révèle que 30 % des utilisateurs de ChatGPT ont déclaré qu’ils cesseraient d’utiliser l’IA générative si le traçage numérique était déployé. Car déployé un tel dispositif anti-fake s’accompagnerait forcément de quelques concessions en matière d’anonymat. Ainsi, le débat interne sur la publication de l’outil ferait rage depuis deux ans chez OpenAI, sans que la firme ait réussi à statuer définitivement.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode