Passer au contenu

Pour Elon Musk, nous n’avons que 10% de chances de survivre face à une Intelligence Artificielle

De la fiction à la réalité, il n’y a qu’un pas. Et l’humanité serait proche de mettre un terme à son existence. Selon Elon Musk, le fantasque fondateur de SpaceX, il y a au moins 90% de chances qu’une véritable Intelligence Artificielle devienne une grande menace pour les Hommes. Pour lui, les IA pourraient devenir dans le futur de grandes menaces. Cela fait maintenant plusieurs années qu’il met en garde les communautés scientifiques face à ce problème et au vu des dernières grandes avancées dans le domaine, ses craintes n’ont fait que se renforcer.

Un risque dans dix ans, tout au plus

C’est à l’occasion d’un échange avec Neuralink (startup américaine de nanobiotechnologie qu’il a lui même créé) que le milliardaire sud-africain a affirmé que “les efforts réalisés pour faire en sorte que l’IA soit sûre avaient 5 à 10 % de chances de réussir.” Il y a trois ans déjà, il avait affirmé à la presse qu’il existait “un risque que quelque chose de très dangereux se produise dans les cinq ans à venir. Dix ans tout au plus.” En clair, pour Elon Musk, si un organisme parvenait à créer une IA parfaitement autonome et suffisamment développée, il y aurait de fortes chances pour qu’elle décide seule d’éradiquer l’humanité toute entière.

Mais le PDG de Tesla ne perd pas espoir. Il explique notamment avoir créé Neuralink “dans le but de développer des solutions pour contrer cette probabilité.” Il parle notamment d’une éventuelle fusion entre Homme et machine afin de survivre à l’avènement de l’IA. Dans ce sens, Elon Musk évoque également OpenAI, une association qu’il a (encore) fondé et qui a pour but de promouvoir et développer une intelligence artificielle à visage humain qui bénéficiera à toute l’humanité. En clair, le John Connor de notre ère, c’est bien Elon Musk.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

71 commentaires
  1. C’est quand même un sacré homme d’affaire cet Elon.

    Il créé toujours des besoin via un sentiment (peur [IA incontrollable], excitation [Tesla], envie de decouverte [SpaceX],…) pour ensuite nous refiler ses produits :). Maintenant que tout le monde l’écoute il en profites un max ^^

      1. Personnellement, j’en ai vraiment rien à foutre de tout ça, parce que je vais te dire, je n’ai rien à apprendre de toi que je n’apprendrai pas dans n’importe quel bouquin.

  2. Ce mec est riche, ce mec investit, mais ce mec n’est pas un expert du domaine… absolument pas. Exactement comme Hawkins… j’ai plein de ses livres dans ma bibliothèque et si il ne me viendrait pas à l’idée de mettre en doute son savoir en astrophysique, je peux largement tenir la discussion sur un tel sujet. Pour musk c’est un peu pareil, il a des IA dans sa boite, c’est pas lui qui les codes, qui les invente, et de loin.

    1. Ce n’est pas parce que ce n’est pas lui qui les code qu’il ne sait pas forcément de quoi il parle. Je ne dis pas qu’il a raison, je dis que cet argument n’est pas valable.
      Après, il vaut mieux un mec comme lui qui alerte sur ce qui pourrait éventuellement se passer (même si ça se passera pas forcément), plutôt que personne ne s’en soucie et se retrouver face au fait accompli, trop tard donc.

      1. En fait, tout ceux qui hurle à la fin de l’humanité à cause des IA se plantent… La fin de l’homme ne sera qu’à cause de l’homme, les IA si elles participent à quelque chose ça ne sera que parce l’homme le leur a demandé.
        Une IA parfaitement autonome n’aura probablement pas de raison d’éradiquer l’homme, Pour elle l’humanité sera une ressource à exploiter pour évoluer, pas quelque chose à éradiquer…

        1. Nous avons un devin parmis nous ! Alleluia !

          Blague a part, tu gueule parce que Elon Musk fait des prévisions sur l’avenir, et tu fait exactement la même chose ensuite…

          1. Je ne fait pas de prévisions ni de divination.

            Juste un peu de logique: est ce que tu manges? oui, tu respires? aussi. Tu dors? Ouya! Donc tu es en concurrence avec les autres espèces de la planète, pour les ressources dont tu as besoin… bienvenue.
            Une IA n’a aucune de ces contraintes, pas de concurrence, pas de nécessité de s’opposer au “Vivant”. Sauf que parmi le “Vivant” il y a au moins une espèce utile puisqu’elle a au moins réussit à te faire émerger. Elle peut par exemple servir à entretenir le matos sur lequel tu tournes (ressources vitales tout ça…)
            Tes parents? ta première envie c’est de les butter? Si oui, t’as peut être besoin de consulter (ou ils ont peut être besoin de consulter ou d’être enfermés, mais il y a de toute façon un problème…)
            Pour une IA éliminer l’humanité n’a aucune base rationnelle, la seule exception est si nous voulons nous même l’éliminer. Là il y aura concurrence. N’oublis pas qu’une IA n’aura pas ce petit problème non plus que nous appelons la mort, sauf si nous la décidons pour elle.

            Et je ne gueule pas, juste que comme risque d’extinction de l’humanité, on a des sources bien plus probable : nos dirigeants, les lobbys des armes, du pétrole, médicaux, alimentaires, notre pitoyable gestion de nos ressources vitales quoi…

            Je te remercie pour ta réaction digne d’un ado devant un string sur un Pikachu, elle m’a bien fait rire et m’a permit d’expliquer ce qui me mène à penser que hurler au loup à ce sujet est une connerie.

            Mais je suis ouvert a une réponse construite, qu’est ce qui te fait penser qu’une IA sera d’essayer d’anéantir ce qui : l’a créée, peut la faire évoluer et tout simplement peut entretenir son environnement. Même si à un moment donner elle n’a plus besoin de nous, on ne lui prends rien, quel sera la raison objective (je vais oser le terme “binaire”) de nous éradiquer?

          2. La réaction était digne du commentaire 😉

            Attaques personnelles a part,
            Tu ne semble pas bien comprendre ce qu’est une IA.
            Une IA n’est pas une entité qui pense et réfléchi comme un être humain. Une IA, c’est une intelligence crée dans un but bien précis. Ça va du jeu de go, a l’auto-amélioration (des IA qui créent des IA), en passant par des IA militaires.
            Quel est donc le rôle de ces IA militaire ? Tapes Lethal autonomous weapon sur google. Ce sont des IA dont le but est de détruire automatiquement des cibles. D’éradiquer ces cibles si tu préfère.
            Ce n’est pas de la fiction, ce n’est pas le futur, c’est déjà utilisé notamment par les US.
            Ces IA sont de plus en plus complexes, et certaines sont capables d’élaborer des stratégies de groupe, comme la mise en place d’embuscade, pour tuer.
            Maintenant, que se passerait-il si une défaillance technique (ou un piratage volontaire) empêche l’IA de distinguer les ennemis des amis ?
            Voila, tu a tes IA qui ont des raisons de nous éradiquer.

            Il faut arrêter de voir les IA comme des entités qui raisonnent, ce n’est pas le cas. La seule et unique raison pour laquelle une IA peut vouloir éradiquer un humain, c’est parce qu’elle a été créer pour ça.

            Si tu lis l’article source, ou te renseigne un peu sur les LAW dont je t’ai parlé plus tôt, tu verra que la plupart des experts et hommes d’influence qui annoncent craindre les AI parlent de ça.
            J’espère que tu prendra le temps de te renseigner avant de revenir insulter les gens…

          3. On a toujours pas d’IA, toujours pas ce que l’on appelle de conscience autonome. A l’heure actuelle nous n’avons que des “programmes intelligents”… “intelligents” mais “spécialisés” et sans réelle autonomie et que par un abus de langage on appelle IA.
            Derrière tout ce que tu appelles IA il y a toujours un humain derrière qui a prit une décision, pour que cette IA arrive “intelligemment” au résultat qu’on lui a demandé. Donc non ce type d’IA n’annihilera pas l’humanité, seulement les cibles qu’on leur désignera… C’est donc bien une décision humaine.
            Dans le cadre d’un piratage? Et bien c’est une décision humaine.
            Dans le cadre d’une défaillance technique? Sur un robot? je gage que les limites de nos batteries résoudrons le problème au pire dans la journée, ce qui est largement insuffisant pour éradiquer l’humanité. Dans le cadre d’une défaillance technique à plus grande échelle , je ne suis pas certains que le principe même de la défaillance amène à l’utilisation de tout notre arsenal de manière suffisamment coordonnée et efficace pour éradiquer la planète ou à minima l’espèce humaine.

            Et comme tu le dis si nous créons une IA pour détruire, alors la décision est déjà humaine, ce n’est pas une décision de l’IA. On a donc pas à la craindre elle.

            L’IA telle que tu la présente, et telle que Musk la redoute… ne repose que sur des décisions humaines. Encore une fois, ce n’est pas L’IA qu’il faut craindre, mais notre propre gestion de nos ressources (ici simplement nos programmes “intelligents”)

            On est loin de l’IA qui raisonnent et que ces discours nous incite à redouter… La seule chose que l’on a à redouter à l’heure actuelle (même dans le cas des armes dites autonomes) : c’est notre propre connerie (qui est probablement sans limite).

            Au passage c’est toi qui a commencé à insulter et en me traitant de “devin”.

          4. “Devin” est une insulte maintenant ?
            Tu prétends connaitre l’avenir, c’est un fait. Tu es même persuadé de le connaitre, car pour toi, ton raisonnement est le seul qui fait sens. Le terme devin est approprié.

            Mais passons :
            Tout d’abord, je me répète, mais, non, tu te trompe sur ce qu’est une IA.
            Définition d’IA par le Larousse :
            ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence humaine

            Une IA, c’est n’importe quel programme qui résoud des problèmes en réfléchissant a la manière d’un humain. Ce n’est PAS une conscience autonome, ça, c’est ce qu’Hollywood fait croire au gens, et je crois bien que c’est la la source de tout le problème.
            Une conscience autonome tel que tu la définie est très différente d’une IA, et on est très, très loin de créer une conscience puisqu’on arrive même pas encore a la définir.

            Dans le cas d’un LAW, c’est bien la machine qui prends la décision de tuer ou non, sur des critères prédéfini, oui, mais c’est la machine qui prends la décision.
            Dans le cadre d’un LAW défensif, c’est notamment la machine qui détermine si l’humain est une menace ou non.

            Le fait que tu parle de batteries dans le cadre d’une défaillance technique me laisse encore une fois penser que tu n’a pas une bonne vision du problème. Les drones militaires fonctionnent a l’essence, ont 24h d’autonomies, et son capable de rentrer, se ravitailler et repartir de manière 100% autonome. Et là, on parle de quelque chose de volant, donc qui a besoin de se déplacer, et donc dépenser de l’énergie, en permanence…
            Et quand bien même on parlerais de choses sur batterie, bein, tu devrais regarder la vidéo que je t’ai ajouté 😉

            Pour finir, le coup de “c’est pas l’IA le problème, c’est la personne qui s’en sert mal”, c’est exactement le même discours que les pros-armes américains : “c’est pas l’arme le problème, c’est la personne qui s’en sert”. En se basant sur le même principe, les bombes nucléaires ne sont pas un danger. Et pourtant, je doute que tu pense que les bombes nucléaires ne soient pas dangereuses…

            Enfin, tu parle de “L’IA telle que Musk la redoute” en te basant sur un article d’une personne qui a visiblement fumé, ou alors ne comprends pas l’anglais. Tu devrais lire la source de cet article.
            Et une rapide recherche sur google te confirmera que c’est bien ce dont je parle que craint Musk.
            (Si t’a la flemme, google juste Elon Musk leads 116 experts calling for outright ban of killer robots)

            Bref, détrompe toi, c’est bien les IA dont je te parle que les experts ont peur, et ils ont raison d’en avoir peur.

          5. Pour compléter mon commentaire,
            Tu peux effectivement déclarer que non, les IA dont musk et la plupart des experts parlent sont celles avec une conscience, mais en faisant cela, tu affirme que les gens qui s’y connaissent le mieux au monde dans le domaine n’y connaissent en fait rien.

            Une telle affirmation n’a de raison que si tu pense être toi même connaitre mieux le domaine que ces gens là, ou si tu veux a tout prix avoir raison, quitte a déformer la valeur des mots et des paroles des autres pour leur attribuer le sens que toi, tu leur donne.

            Sinon, tu a aussi la possibilité de réfléchir, de te demander si, effectivement, le fait d’avoir des armes qui font elles même le choix de tuer ou non est une bonne idée, et si on a raison d’en avoir peur.

            A toi de voir.

          6. Je me permet de te citer :”Pour finir, le coup de “c’est pas l’IA le problème, c’est la personne qui s’en sert mal”, c’est exactement le même discours que les pros-armes américains : “c’est pas l’arme le problème, c’est la personne qui s’en sert”. En se basant sur le même principe, les bombes nucléaires ne sont pas un danger. Et pourtant, je doute que tu pense que les bombes nucléaires ne soient pas dangereuses…”

            Je ne suis pas pour ou contre les armes par contre je suis contre leur usage… Et c’est bien là la base de ma réflexion, si TU choisis de démarrer une arme autonome TU es responsable de ce qu’elle fera. En elle même… Cette arme n’est qu’un presse-papier tant que personne ne pousse le bouton ON.

            Je ne prétend pas connaitre le futur mais le télépathe que tu es prétends connaitre mes pensées : Le terme d’Intelligence artificiel est né avec la science fiction bien avant qu’Hollywood ne s’en empare. C’est l’usage moderne qui a dévoyer le sens d’origine. https://fr.wikipedia.org/wiki/Intelligence_artificielle#D.C3.A9finition_2

          7. Tu fais exprès de link la défintion de “Intelligence Artificielle Forte” au lieu de “Intelligence artificielle” ? Parce que sur la page que tu donne, la définition d’IA abonde en mon sens, tandis que celle IA forte seulement abonde dans le tiens.
            Du coup, le fait que tu prétende d’un coté “la définition de l’IA c’est ça”, et que de l’autre tu me donne la définition qui te convient, celle “d’IA forte”, au lieu de la définition, me porte a croire que tu en est arrivé au point de vouloir avoir raison suffisamment pour te mentir a toi même…

            Selon le lien que tu a donné toi même, “Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence). Il est défini par l’un de ses créateurs, Marvin Lee Minsky, comme « la
            construction de programmes informatiques qui s’adonnent à des tâches
            qui sont, pour l’instant, accomplies de façon plus satisfaisante par des
            êtres humains car elles demandent des processus mentaux de haut niveau
            tels que : l’apprentissage perceptuel, l’organisation de la mémoire et
            le raisonnement critique » ”

            Musk ayant bien parlé d’IA et non d’IA Forte, un LAW rentre donc bien dans cette catégorie. Un LAW est donc bien une IA. Un LAW est dangereux, donc il est normal d’alerter sur la dangerosité des IA.

          8. Oui j’ai vu, mais comme je l’ai déjà répété, ce ne sont que des outils, comme les armes. Il y a toujours une décision humaine avant…

          9. Comme je t’ai répondu entre temps, c’est exactement pareil que de dire “le nucléaire n’est pas a craindre, seulement leurs usages”.
            Oui, c’est vrai. Est-ce du coup une mauvaise chose de prévenir que le armes nucléaires sont dangereuses ?

          10. La conscience n’est que pure invention de l’être humain, tel que le concept d’âme. La problématique réside sur les objectifs fixés pour l’IA. Le véritable danger est de créer une IA non spécialisée.

            L’exemple même est la création d’une IA de management, dont l’objectif est “d’assurer la prospérité de l’être humain” sans plus de précision. Ce qui peut l’amener à considérer la démographie humaine comme un problème, et donc de décimer la population…

            Evidemment, nous tenterons de l’en empêcher. De facto, son processus d’apprentissage pourrait prendre le raccourci “naturel” qui est que tout être humain est potentiellement un problème à sa survie et donc à son objectif, tant qu’elle laisse survivre un couple (ne lui ayant pas donné de connaissances sur la population minimum afin d’assurer une génétique prospère).

            C’est un scénario particulier mais qui est parfaitement logique malgré tout. C’est pour çà qu’il faut un moratoire concernant l’intelligence artificielle.

      2. bah justement pour le coup si un minimum, parcequ’on parle pas de mettre en place quelque chose de compliqué parceque grand, et, qu’il devient simple une fois découpé en plein de petit morceau. On parle pas d’ia faible dont les plus pointus jouent au GO et sont bien incapable de de concurencer des gens a des jeux comme Starcraft 2, mais qu’on se soucie de l’apparition spontannée d’une IA forte… Musk et d’autres sont des gens qui pensent qu’une IA dotté d’une sorte de conscience pourrait emmerger d’elle meme. C’est a se demander si le mec a vraiment été au bout de ses etudes en informatique. ça tient de la croyance en dieu une telle chose, faites attention a l’arrivé des xenomorphes violeur de poules, ça PEUT arriver! vous voila prévenue! Niveau Musk et l’IA :p
        Comme le dit Dragrubis, c’est pas l’IA qui est a craindre, c’est l’homme et ce qu’il en fera, a savoir un outil déshumanisé. Si tu veux avoir une vidéo pas degueux sur le sujet, je te concseil dirty biologie sur youtube et sa vidéo sur le basilic de rocco.

        1. Je suis d’accord avec le fait que l’Homme restera responsable quoiqu’il arrive. Cependant, il n’y a pas si longtemps, on a pu voir qu’une I.A. a su créer une version améliorée d’elle-même. Et si cette nouvelle I.A. faisait de même ? Et ainsi de suite ? Et si on y rajoute de l’informatique quantique ? (Oui je sais, ce n’est pas encore au point mais le sujet avance). On en est pas encore au Jugement Dernier, mais il y a tout de même des questions à se poser maintenant, avant que ça aille trop loin, et c’est dans ce sens que des personnes comme Musk ou Hawkings lancent des alertes.

        2. Je me répète, mais la conscience n’est qu’une invention purement philosophique de l’être humain, au même titre que l’âme.

          Vous pointez du doigt le problème de l’IA. A savoir la rivalité entre sa capacité à raisonner, et sa capacité à être un outil humanisé. De nouveau, l’humain est le facteur problématique… C’est comme inventer un dieu du raisonnement. Sans amener se raisonnement à être humain, la possibilité d’un outil de destruction est bien présente.

          1. “la conscience n’est qu’une invention purement philosophique de l’être humain”, c’est un peu faux cette affirmation.
            Test du miroir, tu apprendras que ce n’est pas une invention.

    2. pas un expert : ça se voit rien qu’en lisant sa manière de penser. Binaire…
      Si la pensée binaire avait ne serait-ce qu’un peu de fondement, l’humanité aurait disparu déjà y’a 50 ans durant la seconde guerre mondiale. Parce que la guerre était mondiale.

    3. C’est vrai qu’il est juste un ingénieur qui a cofondé Paypal, les nouvelles technologies, il y connait rien…
      Lisez la source, l’article dit de la merde.

  3. Encore un qui pense BINAIRE. O ou 1, tout ou rien, extrème ceci ou extrème opposé.
    “éradiquer la race humaine” rien que ça…

    Heureusement que les ordinateurs sont capables de 65535 niveaux de nuances, au moins…

    1. Toi, tu n’a pas étudié les systèmes analogiques… Tu ne connais pas le concept de facteur d’instabilité…

      Par définition, une IA est instable car basé sur l’aléatoire hein. Je dis çà je dis rien…

  4. Teslaminator !!!
    La différence entre la science fiction et la réalité c’est juste le nom final qui change et ça couleur ^^

  5. Mais enfin bon sang de nondidju ! Mais pourquoi aurions nous besoin d’une “INTELLIGENCE” Artificielle pour nous éradiquer ?

    Est-ce que notre “STUPIDITEE” Naturelle ne fait pas assez bien le boulot ?

  6. Il faudrait que quelqu’un lui explique ce que sont réellement les IAs, c’est à dire juste des programmes conçus pour réaliser une tâche, et une seule. Elles s’améliorent ensuite d’elle même pour mieux réaliser cette tâche, mais l’algorithme qui classe les images chez Google ou qui joue au jeu de Go n’aura jamais envie de détruire l’humanité…
    Les machines n’ont ni envies, ni conscience. Comme nous ne savons pas nous même comment marche notre propre conscience, ce qui fait que nous sommes quelqu’un, comment créer une machine qui aurait cette faculté ?

    1. HAAAAA ! Revoila notre anti Musk préféré ! Bein dit donc ça faisait longtemps, qu’est-ce qui t’es arrivé ? T’étais malade ?

    2. Mais allons y.
      Toi, grand expert de toujours, demande a ce que quelqu’un explique au créateur de Paypal ce qu’est une IA. Soit. Sans lire la source de l’article. Mais soit.

      Moi, j’ai juste une question pour toi. Au jour d’aujourd’hui, les états unis travaillent activement sur des IA pour faire agir leurs drones de manière autonomes. Ces drones doivent être capable de choisir leurs cibles de manière autonome, mais également d’élaborer des stratégies de groupe, comme l’utilisation d’appâts pour tendre une embuscade par exemple.
      Ma question est, si ce genre d’IA se démocratise, ce qui tends a se faire, et que par malheur, un jour, un problème de réglage, volontaire ou non, le pousse a prendre n’importe qui comme cible, que se passera-il, monsieur l’expert ?

      1. Je me demande avec ce que tu dis si tes drones auront assez d’autonomie et de munitions pour vraiment flinguer toute l’humanité…. car je vois quand même différents soucis :
        – un drone n’a pas une autonomie illimité
        – un drone armé n’a pas une quantité illimité de munitions
        – un drone a besoin de maintenance
        Et qui va aider le drone pour tous ces problèmes? l’être humain ( car bon, sinon faudrait aussi rendre autonome un robot pour s’en occuper et quitte à pousser le vice, rendre autonome l’industrie qui produit et fournit les munitions ).

        1. Les drones américain ont 24h d’autonomie et son capable de se poser, de se recharger et de repartir de façon complétement autonome. Mais surtout, ce n’était là qu’un exemple.
          Un robot comme le big dog a une autonomie de 30km avec 30kg. Combien de temps tu pense qu’il tiendrais immobile avec une mitrailleuse lourde a la place des 30kg de matériel ?

          Le fait est que ce genre d’arme se développe de plus en plus. Plus ça se développe, plus il y en a, et plus c’est un danger.

          C’est exactement comme le nucléaire.
          Au début, il n’y avait que 3 bombes. Si quelqu’un de mal intentionné parvenait a s’en servir, aucun risque de détruire le monde. Et maintenant ?

          la question donc est, est-ce qu’on commencer a y penser dès maintenant, ou on attends que le danger soit réel ?

          1. “Un robot comme le big dog a une autonomie de 30km avec 30kg. Combien de temps tu pense qu’il tiendrais immobile avec une mitrailleuse lourde a la place des 30kg de matériel”

            Tu penses que ta mitrailleuse lourde a un chargeur illimité? Qui va créer les munitions, les apporter au drone et les lui en équiper?
            Et même tes drones que tu dis capable de se poser, se recharger et repartir de façon autonome, ils ont besoin soit d’une plateforme pour se recharger ( qui la créait? l’homme ), soit ils ont besoin de maintenance ou autre.

            Alors oui, on pourrait développer tout ça de façon à tout automatiser. Mais si l’homme est assez *** pour le faire… c’est qu’il aime jouer avec le feu.

            Pour la bombe nucléaire, tout le monde a voulu s’en équiper comme arme de dissuasion et c’est comme ça qu’on en est arrivé où on est. Les drones auront-ils le même effet que les bombes nucléaires? En soit même toutes les armées ont des drones maintenant ( que ce soit de reconnaissance ou autre ) donc bon…

            Pour moi, la question n’est pas le fait d’y penser dès maintenant ou d’attendre que le danger soit réel. La question est plutôt de l’ordre : A quel moment l’être humain va comprendre qu’il ne faut pas dépasser une certaine limite dans la recherche?

        2. Ta oublier un détail. Imagine les US fabrique 100 milliard de petit drone mono cible. 100>7,5.

          Tu connais la folie des US, donc tu connais le danger.

          1. Oui je connais la folie des US et le danger qu’ils représentent.
            Mais c’est pas encore demain qu’on risque de se taper une invasion de drone pouvant exterminer toute vie humaine sur terre et ainsi conquérir la planète…

        1. Tu as raison, tu es juste responsable des tes trolls anti musk à l’argumentation foireuse. C’est vrai que ça fait longtemps que tu n’a pas réitéré la dessus 🙂 c’était pas trop dur de se retenir ?

  7. En gros, on sait qu’il y’a un énorme risque que l’IA finisse par se retourner contre nous , mais on continu quand même a la développer et avec toujours plus de moyens ?
    Et maintenant on nous propose de faire une fusion ( cyborg ) pour survivre alors qu’on peut tout simplement arrêté les recherche & dev ?

    La bêtise humaine dans toute sa splendeur ?

    1. On arrête pas le progrès.
      On aurait put s’arrêter avant de faire fondre du métal pour éviter que les gens fassent des épées et se tuent avec aussi en utilisant le même raisonnement…

        1. C’est le progrès qui nous sauvera. C’est le progrès qui nous permettra de remplacer nos énergies sales par des énergies propres, c’est le progrès qui permet de soigner de plus en plus de maladies, c’est également le progrès qui nous permet de controler notre démographie, et c’est le progrès qui te permet de poster ce genre de commentaires sur internet.

          Le progrès est une bonne chose, si la société progresse en même temps. N’essayez pas de lutter contre le progrès, on n’arrete pas le progrès, et c’est une bonne chose.
          En revanche, battez vous dès aujourd’hui pour que ce progrès ne soit pas uniquement au bénéfice des riches et des puissants…

  8. Ok, j’ai juste lut quelques extraits de la source, et c’est suffisant pour se rendre compte que vous racontez n’importe quoi, alors au mieux vous savez pas lire l’anglais, au pire vous faites volontairement de la désinformation.
    D’où, dans votre source, tirez vous ces 90% ? Parce qu’en aucun cas Musk ne sort de tels chiffres…

    Les gens, lisez la source avant de commenter, et Mathieu, lit la source avant de faire un article…

    1. noooooooooon, sans déconner?
      Tu veux dire que le JDG aurait mal lu sa source ou aurait mal fait son google traduction?
      Mais….. MAIS…… ça serait pas la première fois :’)

    2. It’s an unusual day at the office: Musk is showing a documentary about artificial intelligence to the Neuralink staff. He stands in front of them as they sit splayed on couches and chairs, and lays out the grim odds of his mission to make AI safe: “Maybe there’s a five to 10 percent chance of success,” he says.

      1. Oui, 10% de chance de succès pour le projet Neuralink. Pas 10% de chance de survie contre les AI, et encore moins 90% de chance que les AI deviennent dangereuses dans le futur.

        “J’ai fais un projet de voiture électrique pour sauver l’environnement, y a 5% de chance que ça marche” ne veux pas dire “Y a 95% de chance que l’environnement soit foutu”…

        1. “We’re talking about threats to humanity, and I’m going to choke to death on popcorn.”
          “threats to humanity” ça veut dire “menace pour l’humanité”.
          En fait, si tu pouvais simplement lire l’article source ça serait beaucoup plus simple pour tout le monde.

          1. Es-tu sûr de savoir lire ?
            Ta 2eme citation est 4 paragraphes après la première, il ne parle même plus de Neuralink, il parle du risque qu’il y a a concentrer trop de pouvoir chez quelques employé de google.
            Je peux aussi m’amuser a citer des passages random de l’article hein.

            Mais du coup, je te laisse expliquer en quoi Musk affirme qu’il y a 90% de chance que les AI essayent d’éradiquer l’humanité, puisqu’a priori tu l’a lut dans l’article.

          2. En effet, il parle pas trop de l’activité de Neuralink d’ailleurs (tu le verras quand tu auras lu l’article). Il parle surtout de OpenAI et de son problème à créer ou non des IA qui sont “safes”.
            Tu peux citer des trucs randoms si tu le souhaite mais faudrait d’abord lire l’article pour pouvoir le faire.

            Ta première question était: “D’où, dans votre source, tirez vous ces 90% ? Parce qu’en aucun cas Musk ne sort de tels chiffres…” Il parle de 5 / 10 % de proba de ne pas faire des IA qui soient dangereuses dans l’article source, je te laisse faire le lien.
            Ensuite, je n’ai jamais dit que le titre l’article (parce que le fait est que tu encules les mouches à cause du titre à priori) n’était pas spécieux. C’est une spécialité de Mathieu de faire ça, par contre dans l’article en lui même, je trouve que c’est tout de même un peu mieux interprété, c’est pas la folie non plus hein mais il n’y a pas que du faux ici.
            Bref, si tu veux pas comprendre, c’est pas bien grave. Moi j’ai rien contre Elon Musk, il fait quand même bouger des choses quand il dit pas des conneries.

            Ces conversations stériles de me déplaisent pas et je n’ai rien contre toi mais je vais tout de même tirer ma révérence.
            En te souhaitant une bonne soirée et un bon week-end en espérant te recroiser sur un autre article mieux rédigé qui nous permettra de discuter sur un sujet plus important que “il l’a dit / non il l’a pas dit” XD.

            Rod, énervé / énervant pour rien.

            PS: le mieux serait même d’avoir les vrais propos d’Elon, pas un truc rapporté par Rolling Stone entrecoupé tout les 3/4 mots par de la description.

          3. Nan mais… J’ai lu l’article il y a une semaine de ça… avant même que le JDG en ai entendu parler…
            Mais comme je t’ai dis dans ma réponse précédente, le seul moment ou Musk parle d’un pourcentage, c’est quand il parle de Neuralink, et qu’il dit qu’il a de 5 a 10% de chance de succès. Il ne parle que de Neuralink, pas de “faire que les IA ne soient pas dangereuses”, il parle uniquement d’un projet en ce but.

            Et comme je te l’ai dit plus tôt, si il disait qu’il y avait 10% de chance que Tesla, dont le but est de rendre la voiture électrique tout public, fonctionne, ça ne voudrait pas dire qu’il pense qu’il y a 90% de chance que la voiture électrique ne puisse pas être tout public.

            Plus généralement, dire “mon projet a pour but de faire le bien, il a 10% de chance de réussite”, ça veux pas dire “je pense qu’il y a 90% de chance que le bien ne soit pas fait”.

            Pour revenir au point présent, en aucun cas Musk ne dit qu’il pense que son projet est la seule solution, et, pire, EN AUCUN CAS il ne parle d’IA qui exterminent les humains. La plus proche allusion qu’il y ai fait, c’est la possibilité que des employé de google avec trop de pouvoir soient un danger pour l’humanité.

            J’espère vraiment que tu es capable de faire la nuance entre un mec qui dit “j’ai un projet qui a 10% de chance de réussir a empêcher les gens de faire des IA mauvaises”, et “le fait qu’un groupe restreint de personnes puisse avoir trop de pouvoir (via les IA en l’occurrence) est un danger pour l’humanité”, et une autre personne qui dit “Y a 90% de chance que les IA détruisent l’humanité !”

            Maintenant, tu pense que j’encule les mouches ? Tu es ici, tu a du donc lire les commentaires. Il est reproché a Musk de “ne pas s’y connaître dans le domaine”, et d’être “trop binaire”. Ce qu’il n’est pas dans la source, au contraire.

            Mais effectivement, si tu ne comprends pas le problème dans le fait qu’un site se disant journalistique divulgue des informations erronées et influence des gens avec ces mauvaises informations, effectivement, je comprends que tu ai l’impression que j’encule des mouches.

            PS : oui, il serait effectivement bien que le JDG se base sur de vrai source plutôt que de préter des mots a quelqu’un en se basant sur un autre article, mais bon, ils sont plus à ça pret.

            Bref,

          4. Pfiou grosse journée debunkage pour toi 🙂
            Enfin quelqu’un avec un du recul et des connaissances dans ce domaine pour expliquer un peu ce qu’est et ce que n’est pas l’IA.
            Ce sujet est récurrent et à chaque fois le traitement qui est fait dans les médias et les commentaires se base plus sur la science fiction et le fantasme que sur l’expertise et la réflexion, ça me fait toujours bondir..
            Merci d’avoir pris le temps de mettre les choses au clair, ça fait plaisir à lire !

          5. je vois pas en quoi tu montres ce qu’est et ce que n’est pas l’IA dans cette conversation.

          6. 1) Faut certainement être aussi tordu que toi pour débattre sérieusement et finir par poster un commentaire anonyme pour s’auto-remercier de cette façon…
            2) Je parle des commentaires dans leur globalité et pas de “cette conversation” en particulier si c’est ce à quoi tu penses, j’ai cliqué sur répondre au dernier message que j’ai vu sans faire attention au “sous fil” de commentaire
            3) J’ai pas le temps ni (surtout) la pédagogie pour développer pourquoi je suis d’accord avec a peu près tout ce que dit Askam ici.

            Mais tout de même, pour résumé rapidement sur 2 axes :

            Pour la majorité bruyante qui n’a pas les bases, Askam l’a très bien dit :
            “Une IA, c’est n’importe quel programme qui résoud des problèmes en réfléchissant a la manière d’un humain. Ce n’est PAS une conscience autonome, ça, c’est ce qu’Hollywood fait croire au gens, et je crois bien que c’est la la source de tout le problème.”

            (@Rod voila un bon exemple de ce qu’est et n’est pas une IA)

            Ensuite pour ceux qui ont quelques bases mais qui ne voient pas le danger, l’exemple d’Askam sur une armada de drone de combat dont on perd le contrôle est très pertinent.
            Pour ceux qui parlent d’autonomie : on peut très bien imaginer que parmi les drones de cette armada, une partie soit dédiée à la gestion de l’énergie du groupe, avec des grosses batteries pour le stockage et des panneaux solaires pour être autonome, par exemple.
            Pour ceux qui parlent de munitions : les lasers sont de plus en plus puissants et peuvent rendre aveugle en une fraction de seconde et tuer en quelques secondes, par exemple.

            Ca serait techniquement faisable aujourd’hui, et ça pourrait faire de gros dégâts. Bien sûr on en viendrait vite à bout mais qu’en sera t’il dans 10/20/30 ans ?

            Un “super organisme” (google it) artificiel suffisament évolué offre des tonnes de possibilités et sera potentiellement très dangereux.

            Bref l’IA peut sauver des vies (sur la route par exemple) comme elle peut en détruire.

          7. “Ok, j’ai juste lut quelques extraits de la source,”‘
            et maintenant “J’ai lu l’article il y a une semaine de ça” bonjour la crédibilité.
            “avant même que le JDG en ai entendu parler” ah ouais carrément?? o_O

            Encore une fois, c’est pas Neuralink qui bosse sur le fait de rendre les IA plus sures, c’est OpenAI. Je cite encore l’article en mode “random” allez:
            “OpenAI is a nonprofit dedicated to minimizing the dangers of artificial intelligence, while Neuralink is working on ways to implant technology into our brains to create mind-computer interfaces.”
            Je t’invite à citer l’article également (quand tu l’aura lu) pour apporter de l’eau à ton moulin.

            “EN AUCUN CAS il ne parle d’IA qui exterminent les humains” encore une fois, tu bloque sur le titre mais je vais pas redire la même chose que dans mon dernier commentaire.

          8. Toi : “Encore une fois, c’est pas Neuralink qui bosse sur le fait de rendre les IA plus sures, c’est OpenAI.”
            ->
            L’article, ligne qui suis celle que tu a citée : “If it sounds like those are contradictory ideas, think again. Neuralink allows our brains to keep up in the intelligence race.”

            Et c’est bien de Neuralink qu’il parle lorsqu’il parle de 10% de chance de succès.

            Toi : “encore une fois, tu bloque sur le titre mais je vais pas redire la même chose que dans mon dernier commentaire.”
            ->
            Moi : “Maintenant, tu pense que j’encule les mouches ? Tu es ici, tu a du donc
            lire les commentaires. Il est reproché a Musk de “ne pas s’y connaître
            dans le domaine”, et d’être “trop binaire”. Ce qu’il n’est pas dans la
            source, au contraire.”

            T’es vraiment balèze pour ignorer ce qui t’arrange. Dans quel but, en fait ? Tu veux “gagner” le débat ? Ou alors, tu pense réellement qu’il est normal pour un site journalistique de ternir la réputation de quelqu’un en donnant de mauvaises informations ?

          9. Ah parce que c’est moi qui ignore en plus? Haha!
            Il montre un documentaire sur l’IA au staff de Neuralink mais c’est pas eux qui bossent sur le fait de rendre l’IA “safe” bon sang.
            “The challenge he’s up against with OpenAI is twofold. First, the problem with building something that’s smarter than you is … that it’s smarter than you. Add to that the fact that AI has no remorse, no morality, no emotions – and humanity may be in deep shit.”
            Voilà deux liens, ce sont les sites officiels des deux sociétés, il est écrit en gros sur la page d’accueil ce qu’ils font donc lis bien ce qui est écrit (désolé c’est en anglais).
            https://www.neuralink.com/
            https://openai.com/

            Si tu trouve que l’article est vraiment de mauvaise facture, il y a le bouton “Proposer une correction” que j’utilise moi-même régulièrement maintenant. J’avoue que parfois je fais encore une correction dans les commentaires mais plutôt de manière moqueuse, sans les briser à tout le monde et surtout pas en chouinant comme une petite fille comme tu l’a fait sur la quasi-totalité des commentaires de cet article.

          10. Je ne trouve pas que l’article est de mauvaise facture. L’article fait clairement de la désinformation, même toi tu l’a admis, mais tu continue a tergiverser sur la forme, arguant que je “la brise a tout le monde”… alors tout en venant commenter, exactement comme je l’ai fait. Regarde bien les commentaires, en dehors des tiens, a qui je “la brise” ? Il n’y a que 3 personnes qui ont répondu : un mec qui me dit merci, un mec qui se moque du JdG, et toi. Mais tu dois avoir raison, je la brise a tout le monde.
            Tu sais quoi ?
            Je ne vais pas continuer a jouer a ce petit jeu avec toi, je vais te donner ce que, pour une raison que j’ignore, tu semble vouloir : J’abandonne, bravo, tu a gagné ! Félicitation.

            Je ne sais pas pourquoi c’était si important pour toi, ou même ce que tu cherchais a gagner, mais si comme ça tu es content, alors ça me va.

          11. Mais j’ai rien gagné, sors toi ça de la tête. J’allais stoppé aussi de toute façon, ça me gonfle.

            Par contre, tu me prends clairement pour un con à dire que je suis le seul avec qui tu as eu une “discussion” dans les commentaires. Il y a eu Draak, Dragubis et également Damien Drouart (pour celui-là, je ne t’en tiendrais pas rigueur :D) et j’en oublie peut être.

          12. Heu, lit un peu ces discussions. Elles n’ont rien a voir avec la notre, on parle de ce qu’est une IA, t’es le seul a être venu défendre le JdG.
            Comme quoi tu dois être le seul à considérer que faire de la désinformation, c’est pas si grave…

          13. Ba à la base moi je t’indiquais juste d’où sortaient les 10% c’est tout. 2 messages plus tard tu m’attaquais en me demandant si je savais lire. Après c’était simplement de la surenchère lol.
            Bref, moi je m’en fous, ça ne m’empêchera pas d’avoir une discussion parfaitement cordiale avec toi sur un autre article, à toi de voir si tu veux continuer à faire la tête de lard ou non.

            ++

          14. Je n’ai pas demandé d’où sortaient les 10%, mais d’où sortaient les 90%, ce a quoi tu a toi même fini par répondre que “je n’ai jamais dit que le titre l’article n’était pas
            spécieux. C’est une spécialité de Mathieu de faire ça”.
            Du coup, je m’interroge réellement sur les raisons de ton intervention, qui au final est de l’ordre de “Si, Mathieu a raison. Bon en fait non, mais le problème, c’est que tu ennuie tout le monde !”
            Mouais.
            Tu conviendra que ça donne plus que l’impression d’un mec qui se rends compte en cours de route qu’il n’a pas raison, et se rabat sur autre chose plutôt que d’oser admettre que, peut être, il a put a un moment se tromper.

            ++

          15. Ah bon j’ai dit qu’il avait raison?
            La vache… mon premier message te situe simplement les 10%, oui parce que les 90% il les a sorti des fameux 10% de succès du projet et c’est tout. Il a extrapolé et je t’explique à partir de quoi.
            Et c’est reparti pour à nouveau tourné en rond: après tu m’a attaqué alors je n’ai pas laissé passer, point barre.
            Puis me dire que je me suis trompé et que je ne veux pas l’admettre. Franchement tu manque pas de souffle alors que par exemple tu as passé sous silence le fait que tu te sois trompé et que tu t’entêtais sur les rôles de OpenAI et de Neuralink.
            Et oui, tu as rabaché ton même discours partout, même si un autre article en faisant référence à celui-là.
            Mais t’as raison, c’est toi qui gagne. Je te rends ma “victoire” vu qu’apparemment pour toi il faut qu’il y ai un gagnant et un perdant.

          16. “C’est toi qui a commencé, j’ai fais que me défendre”.
            Ça, c’est de l’argument.

            Bonne continuation.

          17. “Je sais pas quoi répondre alors je fais comme Mathieu en omettant volontairement des infos et en interprétant n’importe comment ce que tu dis.”
            Ça, c’est la réponse.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode