Une entreprise américaine est récemment parvenue à calculer 105 000 milliards (105 000 000 000 000) de décimales de Pi. Un nouveau record qui repousse encore plus loin les limites de précision de ce nombre iconique… et pousse à s’interroger sur l’intérêt de cette initiative.
Pi est une constante égale à la circonférence d’un cercle divisé par son diamètre. C’est ce qu’on appelle un nombre irrationnel : on ne peut pas l’écrire sous la forme d’une fraction de deux nombres entiers, et il présente donc une infinité de décimales qui ne se répètent jamais — même si nous avons l’habitude de l’abréger 3,14. Depuis des siècles, des chercheurs tâchent donc de le calculer avec la meilleure précision possible.
La première personne à en estimer la valeur, du moins à notre connaissance, était l’illustre Archimède. Il est parti d’un carré dans lequel il a inscrit un cercle qui contenait lui-même un autre carré. Il a réalisé que la circonférence du cercle était forcément comprise entre les périmètres de ces deux carrés ; en doublant progressivement le nombre de côtés pour obtenir des polygones de plus en plus complexes, il pouvait donc calculer sa valeur avec une précision de plus en plus importante. Une approche très innovante pour l’époque — mais extrêmement approximative par rapport aux standards modernes.
Aujourd’hui, cette méthode géométrique a été remplacée par des formules qui permettent d’obtenir des résultats beaucoup plus précis. On peut citer les formule de Leibniz, de Machin et de Chudnovsky ou encore la Méthode de Monte-Carlo. Elles ont toutes leurs spécificités, mais aussi un point commun : aujourd’hui, tous ces calculs ne sont évidemment plus réalisés à la main. À la place, ce sont des supercalculateurs très puissants qui s’en chargent.
Peu d’intérêt pour les mathématiciens
Mais même pour des machines aussi puissantes, ce n’est pas une partie de plaisir ; calculer des milliards de décimales nécessite de faire turbiner de nombreux processeurs pendant des jours, voire des mois. Par exemple, le nouveau record établi par l’entreprise californienne Solidigm a nécessité… 75 jours de calcul continu.
On peut donc légitimement se demander quel est l’intérêt de réaliser ces opérations, surtout lorsqu’on sait que ces supercalculateurs ont tendance à consommer des quantités d’énergie très importantes. Intuitivement, on pourrait penser que cette précision bénéficie directement aux scientifiques… mais ce n’est absolument pas le cas. Les mathématiciens et les physiciens se fichent royalement de connaître des milliards de décimales de Pi : à ce stade, on sort largement du domaine de l’exploitable.
Il existe d’ailleurs une comparaison assez courante et très éloquente qui permet d’illustrer cet écart : rien qu’avec les dix premières décimales, on peut déjà calculer la circonférence de la Terre à environ un millimètre près.
Si l’on pousse encore plus loin, avec 65 décimales, on pourrait calculer la taille de l’Univers observable avec une marge d’erreur de l’ordre de la Longueur de Planck, la plus petite unité de distance prévue par la science moderne ! Autant dire que le fait de connaître des milliards et des milliards de décimales n’a strictement aucun intérêt à ce niveau.
Dans ce cas, pourquoi prend-on la peine de pousser les calculs aussi loin ? La raison la plus évidente est aussi la plus superficielle : c’est tout simplement pour avoir l’honneur de battre un record. Pour une entreprise comme Solidigm, c’est donc un moyen de se faire connaître du public et de s’offrir un peu de publicité gratuite.
Un outil de benchmarking
Mais il y a également une autre justification bien plus pertinente qui tombe dans le domaine de l’informatique plutôt que des sciences dures traditionnelles. Aujourd’hui, le calcul de Pi est surtout un exercice de benchmarking.
Il permet de tester les performances de certains algorithmes et du matériel qui permet de les faire tourner. En théorie, on pourrait réaliser ces mêmes travaux avec n’importe quelle autre constante mathématique importante. Si Pi a autant la cote, c’est surtout parce qu’il s’agit d’un nombre iconique qui fait l’objet d’une sorte de consensus tacite, et cela permet donc de comparer les performances des différents systèmes.
Un outil pour simuler le hasard
En cherchant plus loin, on peut trouver un dernier intérêt à ces travaux. Puisque Pi est un nombre irrationnel, ses décimales ne contiendront jamais de séquence qui se répète périodiquement. Cette particularité peut être intéressante dans le domaine de la cryptographie.
Les opérations de chiffrement nécessitent souvent de générer des chiffres aléatoires. Le problème, c’est que les ordinateurs s’appuient sur des algorithmes purement déterministes et entièrement prévisibles ; on doit toujours obtenir le même résultat en réalisant la même opération, car dans le cas contraire, ils n’auraient strictement aucun intérêt. Par conséquent, ces machines sont fondamentalement incapables de reproduire le vrai hasard.
À la place, on se rabat donc sur des nombres dits « pseudo-aléatoires ». Or, pour qu’un ordinateur puisse en générer un, il faut lui donner un point de départ : on parle de ou seed (graine en anglais). En allant piocher cette seed dans une série de nombres qui ne se répètent jamais, comme Pi, on peut donc obtenir un résultat statistiquement très proche du vrai hasard. Et plus on a de décimales à disposition, plus on peut s’en approcher.
Même si ça n’a aucun intérêt pour les physiciens, on peut donc affirmer sans trop de risque que d’autres personnes finiront par faire tomber ce record. Reste à voir à quel point le nombre de décimales va gonfler. Il sera intéressant de faire un état des lieux d’ici quelques dizaines d’années ; peut-être que le nombre de décimales aura encore augmenté de plusieurs ordres de grandeur. En tout cas, ce qui est sûr, c’est que nous n’arriverons jamais au bout !
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
… Deduction logique après lecture de l’article.. ” nous vivons dans un monde peuplé de couilles molle qui ne trouve rien de mieux a faire que des calcules inutiles.. Loool(déjà la valeur de Pi 🙃tout l’monde s’en br…..)… Et tout ça… Hehe.., juste pour prouver a son voisin 🙄.. Qui a la plus grosse.?
C’est du marketing donc oui c’est pour dire “mon supercalculateur peut faire ça, vous avez besoin d’un ? Ben venez chez nous”.
“déjà la valeur de Pi 🙃tout l’monde s’en br…)”
Tu n’es pas tout le monde et vu la valeur de ton raisonnement, heureusement. Et si t’avais pris 4… disons plutô 8 min pour lire l’article, t’aurais vu qu’on se fiche pas de Pi en lui même, mais d’avoir une valeur aussi précise. C’est pas la même chose mais tu m’as pas l’air d’être une personne capable de ce genre de subtilités.
Un monde ou des gens cachés peuvent traiter n’importe qui depuis leur canapé avec toute la condescendance dégoulinante qui les caractérise. On peut largement vous retourner votre insulte !
Je comprends que vous puissiez remettre en question l’utilité de calculer autant de décimales de Pi. Cependant, il est important de noter que ces calculs ne sont pas seulement une question de compétition ou de prouver quelque chose à autrui. Ils servent également de benchmark pour tester les performances des ordinateurs et des algorithmes, et peuvent avoir des applications pratiques dans des domaines comme la cryptographie. De plus, la poursuite de la connaissance pour elle-même est une valeur fondamentale de la science et de la recherche. Donc, même si calculer des milliards de décimales de Pi peut sembler inutile à première vue, cela a en réalité une valeur et une utilité dans divers domaines.
Pourquoi encore ce propos du café du commerce : « les supercalculateurs ont tendance à consommer des quantités d’énergie très importantes » donc pourquoi calculer inutilement ? C’est tellement affligeant. Dans le même ordre d’idée : « pourquoi laisser les commentaires ouverts sous les articles ? », « pourquoi faire du SEO »…. « pourquoi faire du streaming ? ». Il faudra donner la possibilité à qui de définir l’utilité des choses ? Ces histoires de consommation d’énergie pour les data-centers ou les supercalculateurs sont justes des bêtises pour les technophobes qui trouvent là des justifications à leurs peurs. Les reprendre sans regarder le % d’énergie que cela représente par rapport à de véritables énergie polluantes c’est se faire le relais des ces gogos. Un peu plus de hauteur et d’intelligence s’il vous plaît.
Je trouve l’article très intéressant et je ne doute pas de l’ utilité de calculer autant de décimales de pi, car faire cela ne se résume pas au résultat final mais a un effet d’entrainement comme l’avait la course à l’ espace pour arriver les premiers sur la lune par exemple. Cela a eu de nombreuses retombées indirectes, dont personne n’ aurait pu anticiper l’importance. Par contre, je trouve tout à fait sain de mentionner le coût énergétique de ces calculs, car nous dans un moment de développement exponentiel de la quantité d’énergie dépensée pour alimenter les data centers et autres supercalculateurs. La question écologique doit être systématiquement mise en avant, pour que cela devienne un automatisme pour tout le monde de prendre en compte le caractère limité de nos ressources. Vous devez savoir comment finit souvent une courbe exponentielle quand elle s’applique à un phénomène du monde réel ! En général, cela ne finit pas bien, car le “bien” est plutôt associé à des baisses linéaires…