On connait sa réticence concernant l’intelligence artificielle surtout lorsqu’il s’agit d’évoquer les robots tueurs, ces armes autonomes promises à remplacer, voire exterminer, la race humaine.
Stephen Hawking ne l’est pas moins au regard des progrès de la science et des technologies : l’humanité fait face à l’un des siècles les plus dangereux pour elle : guerre nucléaire, réchauffement climatique ou virus génétiquement modifié sont parmi les scénarios catastrophes évoqués lors d’une conférence organisée par la BBC.
« Bien que la probabilité qu’une catastrophe survienne sur la planète Terre durant une année donnée soit très faible, le risque évolue au fil du temps, et cela devient une quasi-certitude pour les 1 000 ou 10 000 prochaines années »
Toutefois, il temporise : « Dans les 1 000 prochaines années, nous nous serons étalés dans l’Espace, à d’autres étoiles. Ce qui signifie que si une catastrophe arrive sur Terre, ça ne sera pas synonyme d’extinction pour la race humaine. »
Ce qui ne doit pas empêche l’homme d’être « très prudent durant cette période ».
« Nous ne pourrons pas établir de colonies autonomes dans l’Espace durant au moins les 100 ans qui viennent, nous devons donc être très prudents durant cette période. »
L’astrophysicien a d’ailleurs lancé un vaste programme de recherche de signaux extraterrestre doté d’un budget de 100 millions de dollars qui s’étendra sur 10 ans.
Stephen Hawking mise donc sur le potentiel humain :
« On ne va pas cesser de faire des progrès, donc nous devons reconnaître les dangers et apprendre à les contrôler. Je suis un optimiste et je crois que nous le pouvons », a-t-il assuré.
Il souligne l’importance pour les générations futures de chercheurs de faire preuve de pédagogie à l’égard de la société civile. Les changements générés par le progrès technique nécessitent d’être expliqués, afin d’être bien perçus et appréhendés.
« Il est important de veiller à ce que ces changements aillent dans la bonne direction. Dans une société démocratique, cela signifie que tout le monde a besoin de comprendre les fondements de la science pour prendre des décisions éclairées quant à l’avenir », prévient-il.
« Donc communiquez clairement ce que vous essayez de faire en science, et qui sait, vous pourriez même finir par comprendre vous-même ce que vous faites. »
La messe est dite !
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Tiens ca manquait ce genre de pensées digne des meilleurs films de SF…
Je crois que les ressources que la terre puisse offrir seront déjà épuisé d’ici 100 ans: soit disant période de marge ou l’homme et la science ne feront qu’un… mais bon, un vaisseau spatial, la vitesse lumière, ne rien craindre contre les rayons cosmiques… je pense que d’un point de vue “logistique”, tout ceci, ca va être très difficile a produire et encore, faudrait un sacré cerveau pour trouver la formule magique afin que de tels prouesses soit possibles. Et qui sait, certains materiel sur terre ne suffiront jamais a les produire.
Mais bon, qui sait, un Stark Industries se mettra en place petit a petit dans les prochains millénaires…? C’est sure que ce sera une branche de la boite google qui lancera le truc.
Le plus grand ennemis de la conquete spaciale, c’est le capitalisme. ça couterait la peau des fesses pour une rentabilité incertaines. Pas de conquete spaciale serieuse sans un modele economique different ou chamboulé pour X ou Y raisons.
Dans 100 asn l’être humain aura disparu, détruit par sa propre bêtise (genre hiver radioactif ou autre)
Techniquement on dit ça depuis la bombe nucleaire en 45 … on est en 2016, plus que 14 ans avant qu’on meurent tous donc… A mois que ce soit une constante, dans ce cas en 2216, on dira aussi “de toute façon l’humanité sera detruite dans 100 ans”.
Bref, désolé, mais c’est completement con.
Pas si con que ça si tu prends en compte notre conso excessive des richesses, qu’on est tous sur la même planète donc ressources limitées mais des humains toujours plus nombreux et toujours plus consommateurs; faut pas être Einstein pour voir que l’on va droit dans le mur à ce rythme là… mais c’est bien, continue de faire l’autruche.
xD pardon mais j’aime ta conclusion !
Non, je pense aussi que dire que l’Humain disparaîtra avant 100ans, ça me parait aberrant. Qu’il puisse se retrouver dans la merde à 10-20% de la population actuelle et dans des conditions sanitaires à chier oui, pourquoi pas… mais extinction complète à moins d’un problème extra terrestre (et là je parle + d’une météorite que des saiyens), je n’y crois pas.
Après en effet, ça n’est que de la spéculation de comptoir 🙂
juste une petite précision, je n’ai jamais dit que ça arriverait sur 100 ans hein 🙂 je ne me prétend pas être Mme Irma xD
Par contre sur du plus long terme si on ne fait pas d’efforts pour rectifier le tir, un de ces quatre on va finir sans ressources sur une planète bien salopée… si le processus devient irréversible je serai curieux de voir nos conditions de vie
Oui oui, je suis d’accord avec ton commentaire. Perso je répondais ça pour Bulot :p
@wakkai: mea culpa, j’pensais que tu commentais mon com :p
Hawking incite à nouveau à la prudence !… Au total, ce n’est pas un bilan si pessimiste : malgré nos handicaps ( psychologique, politique, “de civilisation” ) , il estime que nous pouvons surmonter les challenges qui se dressent sur la route de l’Humanité et parvenir à dépasser le seuil de la civilisation de type 1 ( échelle de Kardashev ) nous impliquer dans l’Espace-Temps : avec la possibilité d’établir de nouvelles sociétés à l’extérieur de notre planète , une guerre ( ou une bataille ) sera gagnée pour toujours , en rendant relative toute catastrophe, de quelque ampleur qu’elle soit !…. Le genre humain aura “d’autres fers au chaud ” !…
Ce n’est pas si mal, même s’il faut se garder de tout triomphalisme ( et même entretenir un “jardin” d’inquiétude !…Le diagnostic d’Enrico Fermi en 1950 était nettement plus sombre : le fameux “Paradoxe ( de Fermi )” débouchait sur un Univers “désertique” : ou bien les espèces intelligentes étaient déjà mortes, ou elles n’étaient pas encore nées !… Ce double constat “nihiliste” entraînait notre Société vers son autodestruction !… Apparemment, nous disposerons de suffisamment de marge pour garder notre espèce en vie !…