De nombreuses personnalités, dont Elon Musk, ont récemment signé une tribune qui demande une pause dans la recherche en intelligence artificielle (voir notre article). Il semblait peu probable que les leaders du secteur répondent favorablement à cet appel… et si l’on en croit Eric Horvitz, chef de la branche scientifique de Microsoft, le titan du numérique n’a effectivement aucune intention de ralentir la cadence — bien au contraire.
Dans une interview à Fortune repérée par le Business Insider, Horvitz a commencé par déclarer qu’il comprenait et respectait les craintes des signataires. Il estime que ces inquiétudes sont au moins en partie légitime. « Je pense que c’est raisonnable d’être préoccupé », embraye-t-il en référence aux progrès extrêmement rapides de l’IA.
« Il y aura toujours des acteurs mal intentionnés et des compétiteurs qui vont tenter d’utiliser l’intelligence artificielle comme une arme, parce que c’est un ensemble de nouveaux outils incroyablement puissants. […] Et ça arrive plus vite qu’on ne le pensait », continue-t-il. « J’apprécie l’idée d’un appel à exprimer l’anxiété et l’inconfort par rapport à cette vitesse. C’est très clair pour tout le monde ».
En partant de l’exemple des deepfakes, il a aussi exprimé son inquiétude par rapport à l’impact de ces outils sur le bon fonctionnement des démocraties. « Nous devons prêter plus d’attention à cette question en tant que société. Je pense qu’il y a un vrai risque d’érosion des démocraties, parce qu’elles dépendent d’un ensemble de citoyens bien informés pour fonctionner. »
« Si vous avez des systèmes qui peuvent désinformer et manipuler de cette façon, il ne sera pas évident d’avoir une démocratie efficace. Je pense que c’est vraiment un problème critique, et pas seulement pour les États-Unis, mais également pour les autres pays. Il faut s’en occuper », martèle-t-il.
Guider le développement de l’IA au lieu de le freiner
Sur la base de ces propos, on pourrait donc penser qu’Horvitz fait partie des personnalités qui ont réclamé cette fameuse pause dans la recherche en IA. Mais ce n’est pas le cas. Il estime que la réaction demandée par les signataires n’est pas appropriée. « Je ne suis même pas sûr que ça serait faisable. C’est une requête qui est très mal définie », doute-t-il.
Il se montre aussi circonspect sur l’impact potentiel de cette initiative. Pour lui, une telle pause serait surtout une façon de faire l’autruche. Il considère donc que la seule façon de lever les doutes existants et de progresser sur ces questions, c’est… de faire l’inverse et plonger tête la première.
« Six mois, ça ne veut pas vraiment dire grand-chose. Nous devons vraiment investir davantage dans la compréhension, le pilotage et la régulation de ces technologies — en d’autres termes, sauter dedans à pieds joints plutôt que de faire une pause », affirme-t-il. « Ces technologies sont parties pour durer. Elles vont devenir de plus en plus sophistiquées, et nous n’allons pas apprendre à les contrôler en disant que les entreprises doivent arrêter de faire ceci ou cela. »
L’open source, une fausse bonne idée ?
Il en profite aussi pour aborder la question de l’open source — cette pratique qui consiste à mettre ces programmes à disposition du grand public en accès libre. De nombreux observateurs considèrent qu’il s’agit d’un effort de transparence nécessaire et même indispensable pour empêcher certains acteurs mal intentionnés d’utiliser discrètement l’IA à mauvais escient. Horvitz, en revanche, n’est pas de cet avis.
Il rappelle que les leaders du secteur ont déployé des moyens énormes pour rendre ces outils plus fiables et pour limiter les hallucinations — les résultats incohérents et problématiques que peuvent produire ces outils dans certaines situations. Et malgré tous ces efforts, ce problème est encore loin d’avoir disparu. Horvitz estime donc qu’il serait imprudent de mettre ces modèles entre toutes les mains, car cela pourrait accélérer le développement anarchique de modèles problématiques.
« Ça m’inquiète que ces modèles soient ainsi relâchés dans la nature sous forme brute. Il a fallu faire des efforts majeurs pour gérer les hallucinations, les imprécisions… Comme d’autres, je considère donc que le fait de mettre ces systèmes à disposition sans contrôle ou garde-fou serait tout sauf idéal à l’heure actuelle ».
Le message est donc clair : comme OpenAI, Microsoft ne compte pas donner satisfaction à ceux qui réclament une pause dans la recherche en IA. Il sera donc intéressant d’observer les retombées de ce bras de fer entre les partisans du principe de précaution et ceux qui considèrent qu’il vaut mieux dompter ces outils le plus vite possible, car l’issue de ce grand débat intrinsèquement commercial, mais aussi presque philosophique pourrait conditionner une part non négligeable du futur de l’IA… et par extension de notre civilisation.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.