L’intelligence artificielle fascine autant qu’elle inquiète. Ses déclinaisons se multiplient, ses progrès sont déjà visibles dans notre quotidien. Toutefois, au-delà des érudits, beaucoup de personnes ont encore du mal à appréhender cette technologie, son fonctionnement et ses enjeux.
Naît alors la crainte que la technologie échappe à son créateur, ou à l’inverse, qu’elle tombe entre les mains d’un savant fou peu scrupuleux, flirtant ainsi avec les pires (mais aussi les meilleurs) scénarios de science-fiction de ces dernières années.
Un partenariat avec une visée pédagogique
C’est en partie pour répondre à ces questions que cinq acteurs majeurs des hautes technologies se sont lancés dans une démarche pédagogique. Google, Facebook, Amazon, IBM et Microsoft ont annoncé ce mercredi 28 septembre, leur partenariat autour de l’intelligence artificielle, « Partnership on Artificial Intelligence to Benefit People and Society » (« Partenariat sur l’intelligence artificielle au bénéfice des citoyens et de la société ») dans un communiqué commun.
Ce partenariat se formalisera autour de la création d’une organisation à but non lucratif qui « mènera des recherches, recommandera de bonnes pratiques, et publiera les résultats de ses recherches sous une licence ouverte ». Notamment dans le domaine de l’éthique, le but étant d’étudier l’impact sociétal d’une telle technologie en toute « transparence ».
Une organisation qui sera composée pour moitié de représentants des cinq firmes (conseil d’administration exclu) et pour l’autre moitié d’universitaires, de chercheurs, de spécialistes de l’éthique et des affaires publiques, d’associations ou encore de membres de la société civile.
Les géants du web prennent l’initiative du débat
Ce projet a aussi pour objectif d’amener le grand public à mieux comprendre cette technologie de « l’éduquer et de l’écouter ». Mieux les citoyens appréhenderont cette technologie, plus grande sera son adoption. Un deal gagnant/gagnant.
Si l’organisation se défend de vouloir « faire pression » sur les gouvernements et les décideurs politiques ou économiques, pas de lobby donc, elle précise cependant que « le but sera d’éduquer le public, mais aussi les gouvernements ».
Avec ce partenariat, les géants du web prennent le taureau par les cornes, mais surtout l’initiative du débat éthique sur l’intelligence artificielle.
L’organisation estime que l’I.A. peut être mise à contribution pour le bien de l’humanité sur des sujets aussi divers que le changement climatique, les inégalités, la santé ou encore l’éducation.
Des engagements… non contraignants
Elle liste 8 principes fondamentaux découlant du partenariat, celui-ci vise en outre à garantir que « les technologies d’IA bénéficient au plus grand nombre », à promouvoir « une recherche et un dialogue ouverts sur les implications éthiques, sociales, économiques et légales de l’IA », « à protéger la vie privée et la sécurité des individus », mais aussi à « s’opposer au développement et à l’usage de technologies d’IA qui violeraient les conventions internationales ou les droits humains ». Pour les précisions, cela attendra.
Des engagements qui semblent faire écho aux inquiétudes apparues avec le déploiement de plus en plus important de ces technologies dans nos vies.
Des craintes maintes fois formulées
Le statut des intelligences artificielles, notamment dans le cadre de la mise en circulation des premières voitures autonomes, pose question. Par exemple, face à un accident imminent, quelle option privilégiera l’IA ? Écraser des piétons ou tuer son passager ?
À l’heure où une I.A. a vaincu l’homme au jeu de Go, battu un pilote dans une simulation de combat aérien et où Google s’est doté d’un bouton d’arrêt d’urgence pour sa propre I.A., d’éminentes personnalités n’ont pas hésité à faire part de leurs craintes.
Un débat qui ne fait que commencer
Elon Musk ou Stephen Hawking ont maintes fois pointé du doigt le danger des intelligences artificielles. L’astrophysicien estime ainsi qu’elles pourraient « mettre fin à la race humaine », quand Elon Musk assure qu’elles pourraient être « plus dangereuses que des bombes nucléaires ». Le patron de Tesla et Space X a créé OpenAI pour éviter ce funeste destin et diriger les I.A. dans la bonne direction.
Ce que semble espérer cette nouvelle organisation nouvellement créée.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Si un jour l’ordi de ma bagnole commence à me dire que je conduis comme une bouze, je le balance par la portière ! Vu qu’il commence déjà à “m’informer” à ce sujet…..
Plus sérieusement, une chose est sure : On a raison de se méfier de l’intelligence artificielle car si on ne prends pas les bonnes précautions, Skynet finira par se réveiller….
Il va être de plus en plus rare de pouvoir se déconnecter. 24h/24h, nous serons accessible par internet pour ces IA, que se soit par des traqueur d’activité, nos maisons, nos voitures, notre smartphone …
L’IA peut être une bonne chose, mais il faut garder l’humain au centre de toutes les décisions.
Apple n’en fait pas parti :
– est ce que parce qu’ils se croient comme d’habitude au dessus de toutes les règles qui ne sont pas les leurs ?
– ou bien parce qu’ils n’ont pas encore su développer de l’intelligence artificielle ?
Je doute fortement de la probabilité de la seconde hypothèse. Un groupe de cette taille ne peut se permettre de nos jours de ne pas investir dans son propre avenir. Et donc… :p
L’IA est quelque chose de fantastique mais d’extrêmement dangereux. Et oui imposer une éthique est primordiale, mais surtout là ou j’ai peur ce sont les utilisations de ces IA à des fins commerciales… Les pubs encore plus ciblés que maintenant, les pertes d’emplois que cela va générer, le fait que l’humanité va se reposer sur les travaux des IA…
Nous sommes en train de créer ce qui risque à un moment donné de nous dépasser et pourquoi pas nous remplacer.
Peut être que l’ère du transhumanisme est déjà en marche, sans le savoir…