Si les androïdes rêvent de moutons électriques, de quoi pourraient bien songer les cerveaux artificiels ? Cette question va finir par devoir être posée maintenant que des chercheurs ont découvert que certaines intelligences artificielles peuvent avoir besoin d’une forme de sommeil pour fonctionner correctement. Yijing Watkins et d’autres chercheurs en informatique du Laboratoire national de Los Alamos s’en sont rendus compte lors du développement d’un réseau de neurones artificiels entraînés à reconnaître des objets sans éléments de comparaison, comme à la lecture d’un dictionnaire. Ce type de cerveau artificiel est appelé “neuromorphique“, car il tente de reproduire un schéma cognitif précis existant chez les êtres humains ou d’autres êtres vivants. En l’occurrence, l’équipe de Los Alamos voulait observer si leur cerveau artificiel pouvait reproduire l’apprentissage par la vue que l’on retrouve chez les jeunes enfants. Rapidement, le processus de “machine learning“ incessant a rendu instable le réseau de neurones. Pour y remédier, les scientifiques se sont demandés si l’ajout d’un bruit statistique (des données répétitives non-pertinentes) pouvait arriver à le stabiliser. Ainsi, pour continuer le parallélisme avec la réalité biologique, ils y sont parvenus en reproduisant le bruit de fond d’un sommeil profond.
“C’était comme si nous donnions à notre réseau de neurones artificiels l’équivalent d’une bonne nuit de sommeil”, explique Yijing Watkins dans un communiqué relayé par The Next Web. Les chercheurs de Los Alamos ont inséré des signaux constants caractéristiques du bruit additif blanc gaussien, qui couvre une large bande de fréquences de manière uniforme. En somme, il simule informatiquement le son statique émis par la bande FM de la radio entre les stations actives. L’émission des signaux gaussiens ont permis aux neurones artificielles de maintenir une certaine stabilité, comme s’ils avaient arrêtés d’halluciner à force d’ingérer des informations. Watkins et ses collègues présenteront leurs travaux dans de plus amples détails lors d’un séminaire sur les femmes dans la recherche de la vision par ordinateur, le 14 juin à Seattle.
[amazon box=”B075P1SH4R”]
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Ça pourrait ressembler à une blague de 1er Avril, mais non, même pas, on en est réellement là…. Impressionnant…. J’imagine déjà ce genre de gestion sur ma voiture, à mon domicile, au travail, le tout rassemblé dans mon smartphone…. Sachant qu’une partie de tout ça fait déjà parti de notre quotidien….
Je trouve vraiment que notre évolution technologique va plus vite que prévu. Souhaitons que ça nous permette de résoudre les problèmes d’aujourd’hui (énergie, maladies, transports, accidents, etc…) ! Le grand écart entre vie privée et gestion des infos correspondantes ne sera peut être pas le plus facile à faire. Va falloir accepter quelques concessions, qui y est prêt ? 🤨
Le parallèle anthropomorphique avec le rêve nous donne l’impression que l’IA prend “vie”.
Les chercheurs aiment beaucoup trouver des vulgarisations qui font appel à la science fiction pour illustrer leur travaux. L’IA est encore infiniment loin du cerveau humain. La comparaison avec le rêve est sympathique mais largement insuffisante et incomplète.
J’imagine que lorsque les TV sont apparues, certains scientifiques parlaient de la veille de l’appareil comme d’un état de sommeil.. l’amalgame du rêve à certainement eu lieu pour certaines personnes.
Non, non, je parlais bien des possibilités que ça permet dans le monde informatique… Des unités de calcul qui peuvent également servir d’unités mémoire, j’imagine déjà les changements structurels révolutionnaires dans la création des processeurs… Un exemple ? Entre le module vocal d’un gps actuel et ce que permet cette avancée, l’écart devient absolument incomparable !
Oui, nous pourrons interagir bien plus naturellement avec ces architectures. Oui, l’anthropomorphisme sera d’autant plus séduisant ! Ça reste du hardware, bien loin des capacités potentielles d’un cerveau humain, certes. N’empêche….l’avenir informatique prends un chemin bien séduisant….Et ce n’est pas un rêve…..