Un robot avec de l’éthique
DeepMind Ethics & Society est un groupe de réflexion concernant l’éthique dans l’intelligence artificielle. Dès l’année prochaine, il publiera des rapports sur l’éthique dans l’I.A. donnant des conseils sur les directions à prendre dans ce domaine. Il étudiera également l’impact sociologique et économique des robots penseurs sur notre monde. Un travail qui tient plus de l’auteur de science-fiction que du scientifique.
Pour le moment, ce groupe est composé de huit personnes et devrait s’étendre à 25 l’année prochaine. Ajoutons à cela 6 consultants extérieurs dont Nick Bostrom de l’université d’Oxford qui a déjà publié un livre sur le sujet.
L’éthique dans l’I.A. concernera beaucoup de cas de figure. Par exemple, c’est l’I.A. d’une voiture autonome qui devra décider de qui meurt et qui vit lors d’un accident inévitable. De même, des IA présents dans le monde de la médecine devront se doter d’une certaine éthique pour l’instant propre aux humains.
La question de l’I.A. est épineuse. Elon Musk n’est d’ailleurs pas fan de l’idée et craint les robots tueurs (sans aucune éthique, donc), au point d’interpeller les Nations Unies sur le sujet. Autre son de cloche pour Vladimir Poutine, qui voit dans le contrôle de l’intelligence artificielle un bouleversement des équilibres mondiaux.
China, Russia, soon all countries w strong computer science. Competition for AI superiority at national level most likely cause of WW3 imo.
— Elon Musk (@elonmusk) 4 septembre 2017
Plus que l’éthique des robots, c’est aussi l’éthique des humains envers les robots qu’il faudra définir. Par exemple, est-ce un meurtre de débrancher une intelligence artificielle ? Vous avez quatre heures. .
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Lire “Face aux feux du soleil” de Isaac Asimov, où un robot correctement programmé pour être inoffensif est impliqué dans un meurtre.
C’est plus facile de programmer un robot dangereux qu’un robot éthique.
Un robot éthique demande plus d’adaptation qu’un robot dangereux, ainsi que la capacité de faire des choix en fonction des conséquences sur les autres.
Le cerveau humain est plein de processus qui permettent de régler tout ça.
L’idéal serait donc de pouvoir les reproduire d’une certaine manière, sans reproduire les processus antagonistes.
“Le cerveau humain est plein de processus qui permettent de régler tout ça.”
Et encore, pas tous… sinon ça ferait longtemps qu’il n’y aurait plus de guerre,massacres,etc…
Spychopathes & co…
Psychopathes et sociopathes n’ont justement pas ces “processus”, pour autant certains d’entre eux ont une interprétation de la morale qui leur permet de vivre en société mais pas tous forcément…
De toutes façons que ce soit un robot ou une machine pensante qui les pilote, dés qu’elle prendra conscience de la folie irrationnelle et complétement dépourvue de la moindre logique qui anime ses créateurs, ça ne pourra que la rendre aussi folle !!!
Si elle disjoncte, y’a de forte chances que se soit en mode ” EXTERMINATE !” , plutôt qu'” AUTODESTRUCT !”
Je pense pas en toute logique et si elle est assez intelligente pour le comprendre, elle comprendra alors que si son créateur est ainsi c’est que l’univers est ainsi. L’univers est une ratatouille, c’est le bordel, le foutoir, c’est comme ça voila tout, il y a de tout pour tout partout.
on est pas encore assez évolués/intelligents je pense pour pouvoir nous permettre de créer une IA; elle sera forcément bancale vu notre niveau actuel; tant que l’on ne sera pas assez “intelligents” pour régler nos propres problèmes (guerres, religions, ressources, Etats, individualisme, etc…) on ne fera rien de bon.
Regarde par exemple Poutine qui y voit une opportunité pour la Russie (marche aussi avec la Chine par exemple) de prendre le dessus sur les autres nations, au lieu de se dire on va faire avancer l’humanité…
mais quel raisonnement con et nombriliste!
Tu as pas tort, par contre je suis pas sur que Poutine ait voulu dire ça, justement ça avait l’air d’être une peur.
Après si il a dit autre chose, j’ai juste fait un survol de l’article.
“Faire avancer l’humanité” c’est une bonne cause mais ça peut aussi être dangereux, non pas pour l’humanité mais pour les humains (actuel je veux dire, Une sorte de MAO ). C’est un peu comme le transhumanisme, c’est fabuleux mais dangereux. Tout peut être porté a la dérive.
exactement! en fait pour être un peu plus juste dans mes propos c’est que l’on est pas assez mûr voilà tout.
C’est ça, certaines personnes manquent de morale/éthique. Mais ça ce traite avec de l’expérience et du savoir.
tout à fait d’accord avec toi!
Mais faut pas être pressé quand on voit le rythme d’apprentissage de certains! ^^’
Il y a déjà eu un précédent assez éloquent, même si l’on peut pas dire que c’était une véritable I.A au sens ou on se l’imagine! Ce test permet de dégager un premier résultat d’expérience intéressant !
https://www.generation-nt.com/tay-intelligence-artificielle-microsoft-pete-plombs-racisme-actualite-1926347.html
Oui mais il ce faisait troll a fond. Ça aide pas a comprendre le monde 🙂
Mais pourquoi il y aurait forcement une seul issue à l’IA, quand elle sortira elle ne sera pas seule bien longtemps et comme l’IA est par défaut un système qui apprend elle s’auto-identifie à une morale qui lui est propre comme nous autres donc il y aura les exterminates ET les sauveurs (pas TWD bien sûr), pas l’un ou l’autre mais toute une suite avec chacun sa propre identité.
Bien sûr des règles de sécurités seront intégrés mais comme les IA évolueront a une vitesse qui ne nous est pas concevable elles “devraient” vite trouver le(s) moyen(s) de contourner ces “sécurités”.
“Comment empêcher un QI de 250 d’effacer des règles appliqué par des QI de 150-170 (et encore). Et 250 se sera dans les débuts.
Nous sommes limité par une biologie qui ne se modifie que très lentement (évolution générationnelle) ou par des sursauts (à la 4 Fantastics pour les accro à la SF), une IA ne sera limité que par sont support quelle fera très vite évoluer elle même. Seule la physique la limitera, et encore on est trop “stupide” pour appréhender les choix des IA.