Passer au contenu

[Et 1, et 2, et 3-0] La défaite humaine est totale : AlphaGo remporte le gros lot

Pour beaucoup, c’est le début du week-end. Pour le champion coréen de Go Lee Sedol, c’est la fin de la partie. AlphaGo, le robot de Google…

Pour beaucoup, c’est le début du week-end. Pour le champion coréen de Go Lee Sedol, c’est la fin de la partie. AlphaGo, le robot de Google Deepmind, enchaîne sa troisième victoire consécutive, et fait remporter le grand prix à ses “maîtres”.

C’est une preuve solide de la suprématie de leur robot à ce jeu et en passant un beau témoignage de l’avancée de l’I.A.

Après une entrée en matière par deux défaites dans les manches précédentes, Lee Sedol n’avait plus le choix et devait remporter les trois manches suivantes pour l’emporter. Finalement, la rencontre aura tourné court entre les deux adversaires.

Le fondateur et CEO de DeepMind, Demis Hassabi, a parlé d’un moment historique sur Twitter.

La machine a aujourd’hui dépassé l’homme dans l’un des jeux offrant le plus de possibilités au monde. C’est une belle réussite pour la recherche, mais peut également devenir une source d’inquiétude pour d’autres (et pour nous) : si une machine dépasse un homme brillant sur une tâche aussi complexe, quel avenir pour l’emploi ?

[PAL] Qu’est-ce qui vous effraie le plus dans l’avancée de l’Intelligence Artificielle ?

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

9 commentaires
  1. Sachant qu’un jeu de go coûte approximativement 20€ (livraison incluse) et que l’ordinateur champion coûte… ben heu… personne ne le sait vraiment, mais j’imagine que ça fait un peu cher la calculette.
    Bon, c’est pas comme si on n’avait pas déjà fabriqué une machine capable de battre Usain Bolt à la course ou de soulever plus de poids que Vassili Alexeiev.
    Est-ce vraiment sérieux de dépenser des millions pour jouer au jeu de go ?
    Est-ce vraiment sympa pour cette pauvre IA ? Je l’imagine en train d’errer seule dans les méandres du net à la recherche d’un autre joueur : <> Elle ne sait faire que ça et personne ne peut la battre. Quelle tragédie.
    Plus sérieusement, combien a coûté le développement de ce bijou ?
    Et écologiquement, je sais qu’un mail envoyé c’est une heure d’ampoule allumée mais combien dépense l’IA pour une partie de go ?
    Le problème des IA c’est qu’elles ne posent jamais de questions, elles ne donnent que des réponses.

    1. “Le problème des IA c’est qu’elles ne posent jamais de questions, elles ne donnent que des réponses.”

      Va dire ça à Watson, l’intelligence artificielle ayant battu le champion du monde de Jeopardy 😀 !

  2. Thank you Lee Sedol for giving us the pleasure to watch you play.

    Thank you “organizers” for setting up these truly exciting live-stream broadcasts and for making them available to all.

    Thank you to you Michael Redmond for being such a humble and good commentator. Your enlightened comments and predictions, truly amazing to amateurs, will surely invite new-comers to get somewhere at this awesome game.
    If I may, could you try to get more in-sync with the moves just being played, especially in tough situation, so to deliver your comment in true real-time. Thank you 🙂

    As for you Chris, not so impressed, sorry 🙁
    Your almost constant and transparent display of your obvious bias towards the machine was very annoying to say the least, and truly bugged me. Please refrain and backup from this unfair attitude for the last two matches to come. Though I fully understand the challenge, please keep in mind that AlphaGo is no more than a Türing machine doing only 2 things : simple arithmetic operations and moving bits (bytes, words, whatever) between memory places, only so fast. Which blatantly contrasts with Lee, playing in unknown territories against unknown, invisible contenders.

    To all, remember there is nothing “intelligent” in these machines at all ! Their so-called superiority in performing the restricted tasks they are programmed to do, as I see it, only lies in their sheer raw power, certainly not within the kind of brilliant intuition a human mind such as Lee’s may display during such competitions.

    Moreover, since I have not seen it addressed, I should mention the possible existence of a bias that may have profited AlphaGo. Indeed, one can assume that AlphaGo’ s training set may have included Lee’s former matches (most of them being publicly available), while the opposite was not possible : Lee never had a chance, even he he wanted to, to study and analyze the “style” of the machine.

    To end this long comment, please consider this new challenge : let’s change a bit the rules of the game, including the dimension of the board and see what happens ! I will bet that Lee Sedol, or any professional 9th dan Go player for the fact, will quickly and easily adapt. In contrast, how long would it take, and how costly would it be, for Google’s team to reprogram and retrain AlphaGo ?

    Indeed, true learning and adaptability is where us human shine before Türing-like, Van-Neuman-based hardware machines we call computers, good at computing vs understanding. We have a brain, a spirit, consciousness, awareness, intuition, true thinking which hard-science, beyond the most simplest models and assumptions, truly knows mostly nothing at all about. And this is not going to change for a long long time, probably forever ! Despite claims of irresponsible people and for-profit companies.

    “AI”, as big names like to coin these feats –a CS field that was big in the seventies and the eighties–, has failed to deliver the predicted and expected results. It has failed to deal with the simplest cognitive tasks we, as human, excel at. Translation is one of them. Translator’s engines, like Google’s, simply do not understand what they translate. As a result, fundings have vanished and big labs were left to abandon and reset most of their “AI” programs. Today’s AI algorithms have not progressed much. Computer’s raw power has, and this is probably only it.

    Please give strong support to Lee for the next 2 matches to come.

    Thank you

    Dr. Franck PORCHER
    PhD Computer Science (1991) – LIP6 – Paris – France ( Design of new language frameworks for AI & knowledge representation)
    (Ex) Neural network scientist and Team Leader at Dassault Electronics, Paris, France (1990 – 1993)
    Email: [email protected]

  3. pas de soucis pour l’instant car l’IA, aussi performante soit-elle ne l’est que pour un type d’activité !
    rien à voir avec le cerveau humain qui est multi-tâches et très adaptable aux situations.
    le jour où une IA sera aussi adaptable ….. alors, oui, on aura du soucis à se faire !……… mais c’est pas pour tout de suite !!!!!!

    En plus, si ça arrive un jour, l’IA aura exactement les mêmes problèmes que vous et moi et devra aller consulter un psy ! 😀

  4. Les commentaires de Carl ou sammmmh disant que l’IA coûte de l’argent ou n’est bonne que sur une seule tâche ont du souci à se faire car ils sont beaucoup moins intelligents que l’IA et depuis longtemps.

    1. En vérité Wyket, et si tu le permets, il semble bien que ce soit toi qui soit dans le bleu et non Carl ou sammmmh, dont les commentaires reflètent très exactement la situation courante de l”AI” : les programmes peuvent être sophistiqués, ils n’en restent pas moins d’authentiques programmes parfaitement déterministes/prévisibles au sens de l’équivalence des machines de Türing (voir wikipedia pour ces termes), incapables de comprendre quoi que ce soit des opérations effectuées (au sens où nous humains comprenons ce terme) ou de s’écarter des algorithmes (comprendre stratégies). Aucun programme “intelligent” n’existe à ce jour.

      Dans ces conditions, je t’invite Wykett, puisque tu soutiens le contraire, à nous apporter la preuve de l’existence de tels programmes “intelligents”, capables d’auto-comprendre ce qu’ils font, c’est à dire affichant des comportements démontrant en particulier l’auto-correction de leurs erreurs, l’auto-amélioration en temps-réel de leurs capacités à mieux résoudre les problèmes, et l’auto-modification en temps-réel de leurs stratégies de résolution de problème afin de s’adapter en permanence au changement temps-réel des conditions du problème.

      A défaut, tu devras admettre que tu te trompes et que les commentaires de Carl et sammmmh sont parfaitement fondés, à savoir :
      1) que l’ “IA” n’existe pas per se, mais uniquement comme un qualificatif volontairement trompeur pour désigner de simples techniques algorithmiques et informatiques avancées,
      2) Que ces “techniques avancées” n’ont rien d’intelligent, sinon d’être le fruit sans intelligence du mérite des hommes qui se tiennent debout derrière, lesquels détiennent la véritable intelligence,
      3) Que dès lors chaque homme est plus intelligent que toutes les machines, par construction.

      J’interviens volontairement fréquemment ces derniers jours sur ce problème sociétal pour remettre de l’ordre dans les idées et éviter à nouveau que les cerveaux s’enflamment pour une énorme bulle de rien.
      Le buzz et le hype coûtent cher aux populations.
      L’ “IA” a échoué fin des années 80 à apporter les solutions promises à des problèmes importants après 30 ans de recherche mondiale. L’ “IA” a englouti en pure perte des dizaines de milliards de dollars d’argent public en faisant confiance aux thèses excentriques de quelques chercheurs, alors que cet argent pouvait être utilisé profitablement sur de vraies causes sociétales.

      Il ne faut pas permettre que cela recommence !

      Ce que l’on appelle l’ “IA”, et à laquelle j’ai participé une petite décennie à partir de 85, n’a pas, ou très peu, progressé ces 25 dernières années. Les algorithmes n’ont pas ou très peu progressé. Les résultats n’ont pas ou très peu évolué. La seule chose qui a véritablement progressé est la puissance des ordinateurs. Et “certains” s’arrangent pour faire croire que ce surplus de puissance serait de l’intelligence… Ceci est le triste constat du véritable état de l’IA aujourd’hui. Ceux qui diraient le contraire (et l’on peut penser que c’est le cas de Google/Deepmind) trichent ou mentent pour défendre d’autres intérêts que des intérêts purement scientifiques, financiers et commerciaux en particulier.

      Je suis prêt à débattre de tout cela publiquement si j’y étais invité.

      Dr. Franck PORCHER
      PhD Computer Science (1991) – LIP6 – Paris – France ( Design of new language frameworks for AI & knowledge representation)
      (Ex) Neural network scientist and Team Leader at Dassault Electronics, Paris, France (1990 – 1993)
      Email: [email protected]

  5. En vérité Wyket, et si tu le permets, il semble bien que ce soit toi qui soit dans le bleu et non Carl ou sammmmh, dont les commentaires reflètent très exactement la situation courante de l”AI” : les programmes peuvent être sophistiqués, ils n’en restent pas moins d’authentiques programmes parfaitement déterministes/prévisibles au sens de l’équivalence des machines de Türing (voir wikipedia pour ces termes), incapables de comprendre quoi que ce soit des opérations effectuées (au sens où nous humains comprenons ce terme) ou de s’écarter des algorithmes (comprendre stratégies). Aucun programme “intelligent” n’existe à ce jour.

    Dans ces conditions, je t’invite Wykett, puisque tu soutiens le contraire, à nous apporter la preuve de l’existence de tels programmes “intelligents”, capables d’auto-comprendre ce qu’ils font, c’est à dire affichant des comportements démontrant en particulier l’auto-correction de leurs erreurs, l’auto-amélioration en temps-réel de leurs capacités à mieux résoudre les problèmes, et l’auto-modification en temps-réel de leurs stratégies de résolution de problème afin de s’adapter en permanence au changement temps-réel des conditions du problème.

    A défaut, tu devras admettre que tu te trompes et que les commentaires de Carl et sammmmh sont parfaitement fondés, à savoir :
    1) que l’ “IA” n’existe pas per se, mais uniquement comme un qualificatif volontairement trompeur pour désigner de simples techniques algorithmiques et informatiques avancées,
    2) Que ces “techniques avancées” n’ont rien d’intelligent, sinon d’être le fruit sans intelligence du mérite des hommes qui se tiennent debout derrière, lesquels détiennent la véritable intelligence,
    3) Que dès lors chaque homme est plus intelligent que toutes les machines, par construction.

    J’interviens volontairement fréquemment ces derniers jours sur ce problème sociétal pour remettre de l’ordre dans les idées et éviter à nouveau que les cerveaux s’enflamment pour une énorme bulle de rien.
    Le buzz et le hype coûtent cher aux populations.
    L’ “IA” a échoué fin des années 80 à apporter les solutions promises à des problèmes importants après 30 ans de recherche mondiale. L’ “IA” a englouti en pure perte des dizaines de milliards de dollars d’argent public en faisant confiance aux thèses excentriques de quelques chercheurs, alors que cet argent pouvait être utilisé profitablement sur de vraies causes sociétales.

    Il ne faut pas permettre que cela recommence !

    Ce que l’on appelle l’ “IA”, et à laquelle j’ai participé une petite décennie à partir de 85, n’a pas, ou très peu, progressé ces 25 dernières années. Les algorithmes n’ont pas ou très peu progressé. Les résultats n’ont pas ou très peu évolué. La seule chose qui a véritablement progressé est la puissance des ordinateurs. Et “certains” s’arrangent pour faire croire que ce surplus de puissance serait de l’intelligence… Ceci est le triste constat du véritable état de l’IA aujourd’hui. Ceux qui diraient le contraire (et l’on peut penser que c’est le cas de Google/Deepmind) trichent ou mentent pour défendre d’autres intérêts que des intérêts purement scientifiques, financiers et commerciaux en particulier.

    Je suis prêt à débattre de tout cela publiquement si j’y étais invité.

    Dr. Franck PORCHER
    PhD Computer Science (1991) – LIP6 – Paris – France ( Design of new language frameworks for AI & knowledge representation)
    (Ex) Neural network scientist and Team Leader at Dassault Electronics, Paris, France (1990 – 1993)
    Email: [email protected]

  6. Au terme du 4e match entre Lee Sedol (player professionnel de Go 9e dan) et AlphaGo, brillamment gagné par Lee Sedol, je souhaiterais étendre mes réflexions et commentaires précédents sur un certain nombre de points sensibles, parmi lesquels certains ont été brièvement soulevés durant la conférence de presse qui a suivi ce 4e match :conference :

    1) Information dis-symmetry
    Google, via Demis Hassabis (Deepmind director), has claimed high and loud that AlphaGO was only trained on weak games (amateur games). We cannot trust that to be true, for several reasons :

    – After AlphaGo losing that 4th game, it is only natural to make such a claim, with the obvious intention to make one believe that AlphaGO could vastly improve its abilities (meaning becoming invincible) should its training set (tens of millions of games) include professional games.
    This is trickery and scientific dishonesty, for Google’s image (the cost of making of AlphaGo is gigantic) and obvious marketing & financial reasons. Please think twice about this purely marketing, probably dishonest claim. Why would Google, Deepmind and AlphaGo’s developer team deprive themselves from training their “baby” with publicly available professional games at the highest level ?
    I conjecture on the contrary that AlphaGo was indeed trained with Lee’s previous games, if only a few, while the contrary could not happen : Lee Sedol was never given the opportunity to learn how the machine played.
    => So there has been indeed “Information dis-symmetry” all along. And now that Lee is getting some hints at how the machine plays, he will take advantage.

    2) Power dis-symmetry
    Via Demis Hassabis once again, Google has claimed during that press conference that Lee was playing against their most powerful system, a distributed computing system version 18, admitting publicly that their single-computer version was too weak to win against strong players of the class of Lee Sedol.
    In simple terms, a “distributed computing system” means aggregating together the power of many multiple-core-cpu machines, meaning that Lee was indeed playing against many machines at once.
    To balance that fact, and to be fair, AlphaGO should have been playing against a team of players lead by Lee !

    3) During this 4th match, AlphaGo made a couple of very poor moves that no professional Go player (not necessarily 9e dan) would have ever made.
    This is indicating three interesting things :
    a) serious weakness, even flaws and defects within AlphaGo’s software,
    b) that the machine indeed does not deviate from what it is programmed to do (always compute the coup that supposed to locally bring the gain with the most certainty),
    c) that the machine embeds NO intelligence capable of understanding Lee’s long-term strategy in playing unconventional coups,
    d) that the machine has *no* idea that it is playing poor moves (for the fact the machine has no awareness of course it is playing at all).
    => So much for the “AI” misleading term !

    4) Google also claimed that their so-called “AI” software was trained with tens of millions of games ! Considering that a world champion like Lee Sedol plays only a few tens of thousands of games (one thousand times less) to be fully trained and reached the summit, this claim, though it may sound immediately impressive, indeed reveals for itself the weakness of “AI” in the 1st place !  

    5) Demis Hassabis claimed they would have to be “back home” to correct AlphaGo’s buggy behaviour.
    But wait, how to do so ? This is indeed the most complex and highly sensitive side of so-called “AI” software.
    In this case, any good human Go player will quickly understand the errors.
    On the other hand, how to explain to the machine the errors it made when the machine indeed understands nothing in the 1st place…
    Google/Deepmind will have :
    a) to understand the errors, probably by contracting a team of 9e dan professional players 😉
    b) to understand why the machine made these errors, something of a costly and very time-consuming proposition,
    c) to identify which parts of the training set (tens of millions of games) could be blames for weakening the supervised learning stage of AlphaGo (an almost impossible operation since a trained neural network does not provide back an analytical model corresponding to what is has learnt –one of the weakness of neural networks),
    d) to correct the training set,
    e) to reset AlphaGo and train it with the new set,
    f) to challenge again top professional contenders…

    Guys we are not done !!!

    Please give strong support to Lee for the last match to come.

    Thank you

    Dr. Franck PORCHER
    PhD Computer Science (1991) – LIP6 – Paris – France ( Design of new language frameworks for AI & knowledge representation)
    (Ex) Neural network scientist and Team Leader at Dassault Electronics, Paris, France (1990 – 1993)
    Email: [email protected]

Les commentaires sont fermés.

Mode