Contrairement à ChatGPT, qui fait déjà le bonheur des internautes avec ses approximations, Google préfère jouer la prudence avec son IA conversationnelle Bard. Le moteur de recherche sait qu’il a encore des progrès à faire, et veut prendre son temps.
Bard a encore des progrès à faire
Dans un mail interne de l’entreprise dévoilé par Business Insider, Google aurait ainsi demandé à tous ses employés américains de prendre “deux à quatre heures” sur leur temps de travail pour tester Bard, le robot conversationnel du GAFAM. Signée par le PDG de Google Sundar Pichai, la note encourage ainsi son personnel à “contribuer de manière plus approfondie” au projet.
Il faut dire que si la nouvelle IA de Google a été dévoilée le 6 février dernier — sans doute pour couper l’herbe sous le pied de Microsoft, qui vient d’annoncer l’intégration de ChatGPT à son moteur de recherche Bing — elle est aussi prometteuse qu’inachevée à l’heure actuelle. L’intelligence artificielle profite déjà de “milliers” des testeurs externes et internes. Une phase baptisée “dogfooding”, qui s’avère primordiale pour repousser les limites de la machine, tout en évitant les erreurs et les éventuelles dérives éthiques.
Rappelons tout de même que si l’IA conversationnelle de Google n’est pas encore accessible au grand public, elle a déjà commis quelques bourdes, notamment à l’occasion d’une présentation officielle de l’entreprise, durant laquelle la technologie basée sur LAMDA avait affirmé que le télescope James Webb avait réalisé “les toutes premières images d’une planète en dehors de notre propre système solaire”. Information rapidement contredite par la NASA, puisque le tout premier cliché de la sorte remonterait à 2004, par le VLT (Very Large Telescope) du Paranal Observatory, située dans le désert d’Atacama, au Chili.
Toujours plus de modération
Qu’il s’agisse de ChatGPT ou de Bard, les IA sont encore à un stade balbutiant. L’intelligence artificielle de Google sait qu’elle va devoir miser gros sur la modération et le fact-checking pour imposer son outil auprès du grand public. D’autant plus que contrairement à la technologie d’Open AI, qui se base sur une base de données privée, LaMDA utilise l’ensemble des données accessibles sur le web, avec tous les risques que cela implique en termes de désinformation et de haine en ligne.
La modération massive — et surtout humaine — semble donc s’imposer comme l’une des solutions les plus fiables pour l’IA. Reste qu’Open AI n’aurait pas hésité à entraîner son robot grâce à des travailleurs kenyans sous-payés, en les confrontant à des propos décrits comme insoutenables selon une récente enquête. Espérons que Google ne réservera pas le même traitement à ses employés.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.