Pendant trois ans, des chercheurs de l’Université de Zurich se sont plongés dans la reconstitution virtuelle de notre Univers. À l’aide d’un puissant superordinateur, ils ont pu établir un catalogue des 25 milliards de galaxies, généré à partir de 2 billions de particules numériques. Cette liste sert de base pour les expériences qui vont être effectuées à bord du satellite Euclid, qui sera lancé en 2020. Son objectif est d’étudier la nature de la matière noire, ainsi que l’énergie noire.
Les astrophysiciens ont alors développé et optimisé un code révolutionnaire, permettant de décrire avec une précision jusqu’alors jamais établie, les dynamiques de la matière noire et la formation de structures à grande échelle dans l’univers.
Baptisé PKDGRAV3, ce code a été pensé afin d’utiliser de manière optimale la mémoire et le pouvoir du processeur d’un superordinateur moderne tel quel le « Piz Daint » appartenant au Swiss National Supercompting Centre (SNSC). Le code a été exécuté par la machine en seulement 80 heures, permettant de générer un univers virtuel de deux billions de macro-particules, représentant le fluide de la matière noire.
Grâce à la grande précision des calculs représentant le fluide de la matière noire évoluant sous sa propre gravité, les chercheurs ont simulé une formation d’une faible concentration de matière, appelée halos de matière noire. Le défi ici était de modeler des galaxies aussi réduites qu’un dixième de la Voie lactée, dans un volume aussi large que notre univers entièrement observable. Le tout pour répondre aux besoins de la mission européenne Euclid dont l’objectif est d’explorer les tréfonds de matière noire.
L’univers presque entièrement de noir
Le cosmos est composé à 23% de matière noire et 72% d’énergie noire. « La nature de l’énergie noire est l’une des principales énigmes non résolues de la science moderne » explique Romain Teyssier, professeur d’astrophysique informatique à l’Université de Zurich. Un mystère qui ne peut être résolu qu’à travers des observations indirectes faites depuis le satellite.
Un pas vers la résolution ?
Une mission de 6 années attend le satellite Euclid, pendant laquelle il collectera des données sur la matière noire et l’énergie noire. Si les scientifiques obtiendront de nouvelles informations sur la nature de cette mystérieuse énergie noire, ils espèrent également découvrir de nouvelles théories, telles qu’une version modifiée de la relativité générale ou une nouvelle forme de particule.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
“Des astrophysiciens ont réussi à récréer notre univers sur un superordinateur”
Si c’etait possible nos supers scientifiques n auraient plus de travaille et connaitraient tout des lois de notre Univers ….mais je crois quand réalité, plus ils cherchent des réponses, plus ils ont de questions, et plus ils comprennent qu’ ils ne comprennent rien !!! XD
Ou alors c’est juste le titre de cette news qui est bien merdique, car le rédacteur n’ a rien compris !!
Il faut juste entendre qu’ils ont réalisé une cartographie de l’Univers observé + dynamique (expansion et époques) + modèle gravitationnel afin d’appréhender au mieux les inhomogénéités de matière en fonction des échelles observées. Celles-ci peuvent influer sur les trajectoires de la lumière reçu par un observateur. Tout ceci permettrait alors de calibrer les instruments d’observation et corriger les biais engendrés par ces distorsions.
Ils n’est évidemment pas question de “recréer” au sens de “partir de zéro” pour modéliser l’ensemble des phénomènes qui ont conduit à l’Univers tel que nous le connaissons.
L’article en anglais du CSCS est beaucoup mieux expliqué
“Researchers from the University of Zurich have simulated the formation of our entire Universe with a large supercomputer.”
C’est pas une cartographie. 😀
Au temps pour moi…
Je ne citais en effet pas cet article mais celui du second lien qui, lui, ne mentionnait pas le terme de “formation”. Ça me donnait une autre interprétation plus “météorologique” de ce travail, où l’on pouvait plus comprendre que, sur un état actuel réel (une carto à un instant t), ils auraient fait évoluer l’ensemble selon des modèles.
En effet, il est plus clair ici qu’ils partent d’un état lointain (mais non renseigné) et qu’ils recréent et travaillent sur un Univers et non pas notre Univers, bien qu’ils y retrouvent les mêmes caractéristiques.
Ceci étant, ils ne doivent pas partir du tout début… ils doivent supposer la matière comme ayant au moins déjà atteint un état condensé, discrétisé.
Beaucoup de blabla pour rien.. tu ne serais pas de la famille Bogdanov par hasard ?
Le blabla pour rien il est plutôt en bas de la page… oh mais attend ! Tu y es aussi !
Oui j’aime dénoncer tout ce qui est vide et inutile 😉
Tu fais du hors-sujet pour étaler le peu de connaissances que tu as.. je trouve ce comportement anticonstructif, d’où mes commentaires.
T’es con ou quoi? d’où c’est du blabla pour rien o_O
Chacune de ses phrases est à côté de la plaque, mais il place quelques mots ici et là pour faire genre et toi tu tombes dans le panneau. Je n’aime pas ça car ça met dans le flou les personnes qui ne connaissent pas le sujet, comme toi Jean Michel.
Pour compléter la réponse au sujet de la cartographie, il y a un an, une mise à jour de la cartographie 3D de l’Univers “obervé” (je dis bien et je maintiens) comptabilisait 1.2 millions de galaxies !…
On n’est pas obligé de parler de la définition exacte des coordonnées de chaque étoile. Ici il est question de répartition de la masse globale d’amas de galaxies pour lesquelles des estimations suffisamment approchées de leur masse est suffisante (par extrapolation de ce que nous savons de la notre).
Alors, en effet, on estime à 100 milliards le nombre d’étoiles dans notre galaxie contre la connaissance de la position de seulement 1 milliard d’entre-elles, mais ce n’est pas le propos.
Sans vouloir être médisant , tes chiffres sont soit faux , soit dépassés …
C’est très loin du compte
Exact… la publi que j’ai consultée datait déjà d’un an et actuellement l’estimation s’élève à environ 400 milliards d’étoiles.
Quant au nombre de galaxies visibles, il est passé à 2000 milliards, lors de cette dernière année écoulée (… et ça risque d’évoluer encore très vite !). Je n’évoquais qu’une véritable cartographie 3D (c’est à dire avec des positionnements “précis”) contenant à la date de publication, que 1.2 milliards.
Il faut arrêter de se focaliser sur l’exactitude de tel ou tel chiffre comme prétexte à la moquerie ou critique constante et maladive (je ne parle pas forcément de toi attention).
Au départ, je ne tentais que d’éclaircir le propos de quelqu’un qui parlait de “lois de l’Univers” que nul scientifique, à l’heure actuelle, ne pourrait se vanter d’avoir entièrement comprises (et d’ailleurs il n’en est pas question dans ces travaux).
En tant que chercheur travaillant plutôt sur le développement de codes de mécanique des fluides à multiples échelles, c’est avant tout le côté numérique de ce travail qui m’intéressait.
Pour le reste je ne me prétends absolument pas astronome… mais j’ai juste essayé d’apporter des éléments pour réhausser un peu le débat c’est tout.
Alors, après, me faire dénigrer gratuitement et traiter de “Bogdanov” alors que, moi, j’ai eu mon doctorat sans faire quelque plagiat que ce soit (ni me faire dézinguer par le CNRS), ça fait vraiment mal au c.. !
C’est juste factuel , y rien contre toi. Entre 100 et 400 mi , j’ai trouvé important de le signaler.
Surtout que j’en suis persuadé , ces estimations , même les plus hautes , sont surement bien en dessous de la réalité … 😀
Quand tu cherches des reponses, mais que tu trouves que des questions… Servent pas a grands choses ces scientifiques tfacon…
Les commentaires sont assez choquants. Si ces scientifiques ne faisaient pas tout ce travail remarquable, vous seriez certainement pas derrière votre ecran pour commenter cette nouvelle recherche.
Malheureusement ce genre de merde qu’est Ipsen est coutumière du troupeau que nous sommes.
C’est vrai je serai en train de commenté de vrai news avec de vrai infos… Pas de supposition imaginaire qui ne meneront jamais a rien… si ca te choque apres c’est vraiment que t’es fragile… Comme valabas en faite…
En tout cas ici on a de quoi étudier le vide intersidéral :O
par contre certains feraient bien d’étudier le français…XYZ, Ipsen…
Imagine seulement 3 secondes, l’impact que pourrait avoir ta réaction sur ces gens qui travaillent d’arrache pied avec passion, qui sacrifient parfois leur vie personnelle pour ces recherches et cette noble cause.
Merci alors de ne pas les décourager.
Et oui c’est choquant parce que si ces scientifiques commentaient ton travail et le qualifiaient d’inutile, comment réagirais-tu ?
Hors ces scientifiques ne se permettraient pas une telle maladresse tant ils ont cette sagesse d’esprit qui leur interdissent simplement de te manquer respect.
Merci alors de les respecter en retour.
Mon travail est tout aussi inutile que le leur, j’ai au moins l’honneteté de l’admettre 😉 et je persiste et signe, oui il perde leur temps.. Cb coute toutes ses recherches ? je pense qu’il ya plus important comme prioritée que de faire ce genre de recherche mohammed… surtout quand elles ne menent nulle part ! Ce n’est bien sur que mon opinion que j’ai jusqu’a preuve du contraire le droit d’exprimer 😉
Quand tu utilise ton GPS sur ton smartphone tu utilise des résultats de recherches ( Einstein, Relativité, Kalmann). Certes les recherches de ces scientifiques ne te seront d’aucunes utilités, mais pour le futur…
Et en ce qui concerne cb coûte ces recherches ? Regarde les budgets alloué à la recherche avant de dire des âneries. Et si tu regarde la conférence Ted de Hans Rosling en 2009 tu verra que le niveau de recherche/éducation d’un pays est directement lié à l’espérance de vie de sa population. Alors niveau priorités tu repassera aussi.
Tu as en effet le droit d’exprimé ton opinion. Mais des phrases comme “Servent pas a grands choses ces scientifiques tfacon…”, c’est pas constructif et sans argumentaire.
J’ai pas de commentaire sur ta vision cynique, à la limite du troll, tu penses bien ce que tu veux. Par contre pour ce qui est du coût … c’est la Suisse ! Ils ont tellement d’argent qu’il n’y pas si longtemps c’était un problème pour leur économie (véridique) ! ><
Autant, je peux comprendre un certain pessimisme sur notre niveau actuel de connaissance de l’univers.
Autant utiliser un peu du temps de calcul d’un super calculateur pour en améliorer la compréhension, c’est plutôt malin j’ai envie de dire. Voir limite indispensable si on veut pas rester une espèce si primitive…
Ça reste une opinion débile. Normal que des gens moins débiles te le fassent remarquer.
Rome ne s’est pas faite en un jour, comme on dit. Il est normal de commencer par tâtonner dans l’abstrait avant de pouvoir trouver du concret. Le mec qui s’est dit “la terre n’est peut être pas plate en fait, faudrait que je me penche la dessus” ne s’imaginait pas les utilisations des satellites par la suite. Et pourtant c’est la première pierre.
Petite précision concernant Euclid, c’est également un projet en partie français, dirigé au LAM, le laboratoire d’astrophysique de Marseille.
J’y ai fait mon stage de fin d’études il y a 3 ans pour bosser sur Euclid, le téléscope sera principalement utilisé pour observer les effets du “red shift”, phénomène qui est à la base de l’expansion de l’univers. Ca ressemble à l’effet dopler appliqué à la lumière.
Nul doute que ça va sûrement apporter pas mal de réponses 🙂
Ils meritent des encouragements meme s’ils sont encore loin de la realite. L’univers est plus que cette modelisation.
moi je sais dessiner un caca sur Paint.
A la vue des commentaires parasites, une chose est sûre, on est pas prêt de modéliser la connerie humaine.
Non, ils n’ont pas encore réussi à créer un supercalculateur capable de réaliser ça ! 😮
40 particules par galaxie c’est pauvre comme résolution
C’est faux, il n’ont reproduit que l’équivalent de 10% de notre Voie Lactée, c’est donc loin d’être l’intégralité de l’univers!