Quand bien même la technologie lui a permis de s’exprimer de nouveau et a facilité son quotidien, l’astrophysicien Stephen Hawking ne lui signerait pas un chèque en blanc pour autant et n’en reste pas moins prudent, voire même alarmiste concernant le développement de l’intelligence artificielle.
Celui, qui en mai dernier, professait déjà que « l’intelligence artificielle pourrait être la pire erreur de l’Histoire de l’humanité », réitère ses propos lors d’une interview accordée à la BBC :
« L’intelligence artificielle pourrait mettre fin à la race humaine »
I, Robot, Terminator, le soulèvement des machines, le retour ? C’est peu ou prou ce qu’il prédit en réponse à une question sur la technologie qui l’aide aujourd’hui à communiquer. Même si certaines avancées technologique concernant l’intelligence artificielle ont été utiles dans de nombreux domaines et pour de nombreuses personnes, ne serait-ce que pour lui-même avec Speech Plus, il s’inquiète que cette lubie de vouloir créer des robots toujours plus intelligents ne causent notre perte.
Les formes primitives d’intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d’une intelligence artificielle complète pourrait mettre fin à la race humaine.
Les humains ne seront pas en mesure de suivre le développement de l’IA totale et faire face à des robots version augmentée qui correspondront ou surpasseront les humains.
Une fois que les hommes auraient développé l’intelligence artificielle, celle-ci décollerait seule, et se redéfinirait de plus en plus vite.
«Les humains, limités par une lente évolution biologique, ne pourraient pas rivaliser et seraient dépassés».
Au chapitre Internet, Stephen Hawking a dressé un bilan avantages/dangers d’Internet. Malgré les risques d’un développement poussé de l’intelligence artificielle, il n’en reste pas moins un fervent partisan des nouvelles technologies de communication, lui qui revendique avoir été l’un des premiers « connectés » à Internet à ses débuts.
Reprenant les propos du directeur du GCHQ (Government Communications Headquarters, la NSA britannique ), pour qui Internet est devenu le « centre de commandement » des terroristes et criminels de tous bords, il nuance cependant : « Les entreprises d’internet doivent faire plus pour contrer la menace, mais la difficulté est de le faire sans sacrifier la liberté et la vie privée ».
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
“L’intelligence artificielle pourrait mettre fin à la race humaine ”
C’est peut-être mieux comme ça…
extinction complète. J’y crois pas trop. Pour la bonne raison que la “nature” se régule d’elle même. Il oublie ses notions de flou quantique : rien n’est ABSOLU dans la réalité.
Pour exemple (très maladroit) : jamais dans la pire des guerres ou la pire des famines, un pays entier n’a jamais été vidé à 100% de tout humain, ou de tout être vivant.
météorite dinosaures : Toute vie sur terre n’a pas été balayée.
Tout cataclysme quelqu’il soit, tout phénomène, ne se produit pas comme on l’écrit sur un livre ou dans un film.
La foudre, ça tue. Et pourtant bon nombre de personnes en sont sorties vivantes.
Un mec qui a chûté d’une hauteur de 2000 mètres serait resté en vie.
.
Il pourra y’avoir, oui, des périodes très sombres,, pour l’être humain. Ca c’est évident : ça on peut l’avancer.
Mais je pense que dans l’évolution c’est une évidence d’arriver à une I.A. car de toute façon, sans elle, l’humanité est de toute manière en très mauvaise voie.
Court à sa perte… mais il faut voir “sa perte” comme un état de régression, lui aussi provisoire. Pas un absolu.
C’est pas comme un objet, qu’on perd et qu’on ne retrouve pllus.
Skynet
Purée @cslevine, tu a dis tout ce que j’aurai souhaité dire, mais en bien plus constructif. Du coup merci
Je ne comprends pas bien d’ou viendrait le danger…
Dans les films de SF on voit souvent les machines faire 3 choses :
1/ Tenter de se reproduire à tout prix ( instinct de survie animal )
2/ Tenter de dominer ( instinct de survie animal )
3/ Détruire ce qui pourrait se mettre en travers ( instinct de survie animal)
Contrairement à nous humain ( qui ne somme qu’une espèce animale parmi d’autre ) les machines n’ont pas ces réflexes inscrits dans les gênes depuis des milliers d’années , de plus si elles étaient vraiment supérieurement intelligente , j’ose espérer que leur centre d’intérêt serait un peu plus élevé que “nuire” aux autres espèces ( dont nous les humains ) et coloniser toute la planète.
@cslevine : en théorie, je suis d’accord avec toi. Mais, quand on parle d’IA, est-ce qu’on parle de quelque chose de naturel ? Je pense que c’est ça qui ne va pas dans ton argumentation. Les ordinateurs savent tout interpréter/voir :signature thermique, rayons X… Rien n’est absolu : oui mais pour de l’organique.
@hiroko : on compte utiliser l’IA pour des opérations militaires. A partir de là, ce que tu appelles l’instinct de survie animal qu’est “détruire ce qui pourrait se mettre en travers” (sous entendu de leur survie) serait forcément au moins partiellement implémentée dans l’IA. Et ce qu’on cherche à faire avec l’IA c’est une machine capable de réfléchir par elle même et de prendre des décisions rationelles, en fonction de principes qui lui auraient été dictés.
Donc je ne pense pas qu’on puisse être à ce point péremptoire en disant que ça ne peut pas arriver, loin de là.
Personnelement j’ai de gros doutes au sujet d’une extinction, mais que les robots tuent des humains, sans qu’on leur en ait donné l’odre, ça, je pense qu’il est fort probable que cela se produise
L’espèce humaine est devenue une espèce nuisible (dans le sens surpopulation et destruction de l’écosystème par sa seule présence) depuis bien longtemps et ça ne fait que s’empirer. Une petite extinction de quelques milliards d’humains ne ferait pas de mal !
une intelligence artificielle serait à la base programmée par des humains donc par anthropomorphisme, on peut penser qu’au moins au début cette intelligence serait basée sur les principes de base humains, donc les notions de reproduction et de domination seront plus ou moins inscrites en elle. Cela dit si cette intelligence se développe d’elle même, il est tout à fait possible qu’elle se sorte des schémas de pensée humains pour développer, une empathie ou une antagonie vis à vie de l’humain, de la vie, de son milieu qui pourra nous sembler illogique, ou très étrange, en tout cas une intelligence que nous n’avons pas envisagé.
De ce fait il est très compliqué de savoir si oui ou non cette intelligence nous sera bénéfique ou non.
Le problème aussi quand on parle d’intelligence c’est qu’il en existe de multiples formes, dont certaines que nous ne pouvons percevoir du fait de notre limitation de perception et de nôtre interprétation lié à cette perception limité.
Une IA aura probablement un autre champ de perception qui lui fera voir les choses sous un jour radicalement différent du nôtre, elle pourra d’ailleurs être “bonne” dans l’absolu, mais pourra nous sembler mauvaise pour diverses raisons.
Bref le danger est potentiel et nous nous devons je pense, de ralentir pour prendre du recul et ne pas aller trop vite et se laisser dépasser
En général, lorsque l’on crée, on crée à son image, donc même si une IA serait susceptible d’avoir d’autres ambitions que des instincts animaux, elle en aura de toute façon, car nous l’aurons crée comme tel.
@cslevine : je ne suis pas entièrement d’accord, car tu compares la vie en général à une espèce : l’être humain.
Il est tout à fait possible que l’être humain en tant qu’espèce s’éteigne (déjà arrivé pour d’autres espèces). Notre évolution a juste permis de limiter les risques à ce niveau, de les anticiper ou des les annuler, mais ils existent quand même selon moi.
Et si on parlait plutôt des contributions de monsieur Hawking à la théorie scientifique ? Car sortit de son domaine, cet Homme énonce des propos d’une banalité quasi hollandienne (lire son médiocre “The Grand Design”).
Sans l’Homme, l’humanité serait meilleur !
à méditer
@zongo : “Rien n’est absolu : oui mais pour de l’organique.”…
et bien aussi pour du logiciel :rien qu’une programmation un peu élaborée avec quelques lois physiques, par exemple pour un système planétaire fictif, va donner une “danse planétaire” impossible à prévoir à l’avance. Même le logiciel ne peut lui même prédire si le système va être stable ou instable.
Faut le faire tourner.
Rien que 2 ou 3 logiciels qui cohabitent, font parfois que les résultats ne vont pas être les mêmes que s’ils ne cohabitaient pas. etc. etc. Donc je pense que même pour le numérique, rien n’est absolu.
Sauf pour les 4 opérations, par exemple. La oui, c’est absolu.
Donc en plus, l’absolu pour réseau neuronal, je pense que pas.
🙂
Je ne comprends pas cette pseudo modestie, sans l’homme quelle est la raison de la vie ?
@hiroko : t’as oublié un cas en rapport avec l’instinct de survie, la riposte face à une tentative de destruction, c’est comme ça que ça a commencé avec Skynet ou les Geths. Et je vois pas trop comment un truc qui évolue de lui-même pourrait en arriver à ne pas avoir d’instinct de survie, l’IA est programmée pour évoluer, et pour évoluer elle doit exister. Du coup logiquement si quelque chose menace son existence, la réaction logique serait de s’en débarrasser.
@cslevine
Il y a des espèces animales qui disparaissent chaque année… Tu iras leur expliquer que la nature se régule d’elle même et que c’est juste une régression provisoire et qu’ils n’ont pas disparu de manière “absolue”…
Pourquoi l’espèce humaine ne pourrait pas se retrouver ajoutée à cette liste?
@counchala Bonne idée et si on commençais par toi ? 🙂
Plus sérieusement la différence entre l’homme et la machine a part une évidente différence biologique/mécanique (voyez ça comme vous voulez) c’est aussi un problème de logique.
L’homme n’est pas profondément logique, la machine oui (0/1 vous connaissez le blabla…), ce qui je pense induit un problème grave: une intelligence artificielle ne saurait pas faire les nuances entre le bien et le mal puisque tout serais binaire pour elle.
Ce qui m’amène a dire ce que je voulais formuler : une IA toute puissante (en tout cas comme l’entend le petit Stephen) pourrais décider d’anéantir l’humanité pour divers motifs mais en pensant bien faire, voir pire en ayant été programmé pour çà… Et si on en arrivais là l’homme ne pourrais sérieusement plus rien faire, quelqu’un a parlé de capteurs thermiques je pense que s’en est un bon exemple….
Mais bon on en est encore loin notamment parce que les algorithmes actuels ne savent pas rendre un programme intelligent dans tout les domaines 🙂
I-robot c’est pas pour demain désolé stephen…
Et a partir du moment ou l’IA aura la capacité de réflexion, pourquoi se contenterais de nous écouter nous pauvres humains, faible,sujet aux maladie, déprime,baisse de morale,faim,hygiène,besoin social,besoin de comfort,sommeil… Etc.
Sérieusement le robot n’est jamais malade, na pas faim, n’as pas envie de baiser,ne veux pas être mieux que son voisin, a par huiler ses mécaniques et charger ses batteries il a aucun besoin, a partir du moment ou il a compris ça nous on lui sert a quoi ? A rien 🙂
Eh ben tiens….l’aurais parié.
Un article sur les dangers du développement d’une intelligence artificielle pour l’humanité, et VLAN, une surdose de commentaires sur les presque bienfaits de l’éradication de l’humanité pour la planète.
L’être humain est l’un des miracles de la Vie sur Terre. C’est sur, on fout presque tout ce qu’on touche en l’air, mais quelle autre espèce peut se vanter d’avoir fait tout ce que nous avons fait, d’imaginer tout ce qu’on peut imaginer? Quelle autre espèce se sent coupable de ce qu’elle fait de mal et tente de limiter les dégâts qu’elle fait? (J’admets que sur ce point, et souvent sans raisons, on est balèze là dedans…..)
Arrêtez donc de ne penser qu’à la Nature et à la Terre. Le simple fait qu’on soit en vie et qu’on en veuille toujours plus signifie qu’on est faits pour ca: Accomplir ce que les autres espèces ont pas été foutues de faire depuis des millions d’années. Ca semble raide, comme constat? Ca l’est.
Quant aux fameux dangers d’une armée de robots qui tente de nous bousiller….non seulement on en est pas encore là, mais en plus, les précautions, ca existe.
les 3 lois de la robotique ca vous parles?
je vous conseil de lire Asimov si vous voulez voir de quoi notre future robotique serait fait.
Et au pire… ba on sera esclave d’une intelligence ultime. C’est pas si degueu comme destin, on regardera de nos cages nos alter ego robotique tenter de conquérir l’espace ou de sauver la terre…
Nous sommes incapable de le faire, mais on peut créer de robots pour accomplir notre taf. ON EST DES MACHINES!!!! pour l’humanité HIP HIP HIP