Passer au contenu

Dire « merci » à ChatGPT : un petit mot, un grand coût énergétique

Selon Sam Altman, patron d’OpenAI, les formules de politesse adressées à ChatGPT coûteraient « des dizaines de millions de dollars » en électricité. Derrière la boutade, une question plus large se dessine : nos échanges avec les intelligences artificielles sont-ils sans conséquences pour la planète ?

Dire « s’il te plaît » ou « merci » à un chatbot ne semble pas bien méchant. Pourtant, ces simples mots de courtoisie pourraient bien peser lourd sur la facture énergétique d’OpenAI. C’est ce qu’a laissé entendre Sam Altman, le CEO de l’entreprise à l’origine de ChatGPT, dans une réponse sur le réseau X (anciennement Twitter). À la question d’un internaute curieux de connaître le coût de ces marques de politesse pour les serveurs, Sam Altman a répondu, non sans ironie : « Des dizaines de millions de dollars bien dépensés – on ne sait jamais. »

Des serveurs gourmands même pour les politesses

Une manière de dédramatiser, certes, mais qui soulève une vraie question : sommes-nous conscients de l’impact environnemental de nos interactions avec les IA ? Si le volume de requêtes ne cesse d’augmenter, même les messages les plus anodins – comme un « merci » isolé – peuvent s’accumuler et représenter une consommation non négligeable.

Selon un sondage réalisé par Future PLC, 70 % des utilisateurs se montrent polis avec les IA, et 12 % le font en cas… de soulèvement des machines. Si l’on en croit les données techniques, chaque réponse générée par le modèle GPT-4o consommerait en moyenne 0,3 watt-heure. Un chiffre qui peut paraître minime, mais multiplié par des millions de requêtes quotidiennes, il devient significatif.

Faut-il alors bannir les formules de politesse pour sauver la planète ? Pas forcément. Être aimable avec ChatGPT pourrait même améliorer les réponses. Des utilisateurs ont constaté que des requêtes structurées et respectueuses donnaient souvent de meilleurs résultats. La politesse avec les bots peut être un facteur important de fiabilité.

Voilà qui soulève une hypothèse intrigante : l’étiquette pourrait-elle un jour devenir une variable prise en compte dans le traitement des requêtes ? Les modèles d’IA répondront-ils différemment en fonction du ton adopté par l’utilisateur ? Si c’était le cas, dire « s’il te plaît » ne relèverait plus de la politesse, mais d’une stratégie d’optimisation.

L’impact environnemental n’est pas seulement une affaire d’électricité. L’eau aussi entre dans l’équation. En 2023, un rapport a estimé que chaque réponse générée par ChatGPT ou Microsoft Copilot équivaut à la consommation d’une bouteille d’eau, utilisée pour refroidir les serveurs. Pour GPT-4, ce chiffre grimpe à trois bouteilles pour 100 mots.

Finalement, être poli avec une IA, est-ce un geste futile ou une habitude à réévaluer ? Pour OpenAI, le surcoût semble acceptable. « C’est de l’argent bien dépensé », affirme Sam Altman. Mais à mesure que les outils d’intelligence artificielle se généralisent, ces petites phrases accumulées prennent une dimension bien réelle dans l’équation énergétique.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Mode