Passer au contenu

Le co-fondateur d’Apple n’a pas peur de l’IA, à une condition

Le co-fondateur d’Apple Steve Wozniak a son avis sur les intelligences artificielles actuelles. Elles sont loin de l’inquiéter.

Steve Wozniak a créé au cœur des années 70 avec son ami de toujours Steve Jobs, Apple. Près de 40 ans plus tard, les téléphones, tablettes et ordinateurs de la firme de Cupertino sont des références dans leur domaine et même les publicités de la marque ont réussi à se faire une place dans les livres d’histoire.

Bien qu’il ne soit plus un membre de l’organigramme de la Pomme depuis plusieurs décennies « Woz » est toujours une voix très écoutée, au fait des dernières actualités en ce qui concerne les nouvelles technologies. Récemment il était sur le plateau de CNBC pour parler des récents exploits d’Open AI avec son outil ChatGPT.

L’intelligence artificielle n’a rien d’inquiétant

Alors que le développement des intelligences artificielles inquiète de nombreux professionnels, Wozniak est très confiant. Selon lui les ordinateurs ne pourront jamais être doués de conscience. « Ils sont programmés par des humains pour résoudre des problèmes, c’est tout », explique l’homme qui a construit l’Apple II.

Il assure avoir longtemps adhéré à cette thèse de science-fiction selon laquelle les ordinateurs et les machines en général allaient se « réveiller ». Un moment baptisé par ses défenseurs la « singularité ». Selon le mathématicien Venor Vigne, auteur de « La singularité technologique » un jour viendra où l’espèce humaine créera une intelligence surhumaine capable de dépasser les raisonnements classiques humains.

Pour Wozniak cette théorie, très en vogue, doit être remise dans son contexte. Lors de la rédaction de son texte en 1983, Vigne annonce que cette bascule entre l’intelligence humaine et artificielle devrait se faire « d’ici 30 ans ». En 2023, cinq décennies après la publication de son essai, les intelligences artificielles sont encore très limitées et bien que les résultats de ChatGPT ou Bard pour Google soient très impressionnants, ils sont encore assez loin d’un raisonnement humain.

Le risque 0 n’existe pas

Selon Wozniak l’intelligence artificielle ne pourra jamais représenter une menace tant que cette dernière sera créée et programmée par l’Homme. Le vrai moment de bascule arriverait donc lors de la création d’une intelligence artificielle « par elle-même ». Une idée qui aurait aujourd’hui sa place dans un film de science-fiction, mais qui pourrait devenir réalité d’ici quelques décennies.

Pour l’heure les jours de l’humanité ne semblent pas menacés par une intelligence artificielle surpuissante capable de surpasser la puissance cognitive humaine. Wozniak explique que les théories très futuristes comme celles sur la singularité sont souvent vues par les générations futures comme un sujet de moquerie.

« Certaines choses qui semblent inévitables ne se réalisent jamais », résume-t-il.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

3 commentaires
  1. C’est Vernor Vinge, surtout connu comme auteur de SF.
    Mais le concept de singularité est plus ancien (années 50 – Von Neumann en parle avec un correspondant dont je ne me rappelle plus le nom) et pas nécessairement associé à une IA généraliste ou consciente, mais plus généralement au moment où l’accélération du progrès technologique nous dépasse tellement que le futur devient inconnaissable (horizon événementiel dépassé).

Les commentaires sont fermés.

Mode