Il y a quelques jours, je posais sur Mastodon la question suivante :

Microsoft a dépensé des centaines de millions de dollars pour construire le supercalculateur sur lequel s’appuie ChatGPT, basé sur plusieurs milliers de GPU. Quels volumes de gaz à effet de serre sont produits, quelles quantités d’eau et de minerais sont consommés pour faire et faire fonctionner ces systèmes. Est-ce compatible avec l’impérieuse nécessité d’atteindre l’accord de Paris pour que survive la civilisation ?

C’était une question réthorique, qui n’appelait pas vraiment de réponse. Et pourtant, c’est l’ami Benoit Petit[1], qui m’a répondu avec une liste de liens. En voici quelques uns, si jamais l’envie me vient de faire un article récapitulatif en français à l’avenir :

Donc, sans vouloir vous spoiler, au doigt mouillé, la réponse est claire : non, ça ne va pas être possible de tenir l’accord de Paris tout en faisant de l’IA générative à grande échelle avec plusieurs milliards d’utilisateurs,

Mise à jour du 18/04 : comme l’explique le premier article de la liste :

large-scale adoption of LLMs would lead to unsustainable increases in ICT CO₂ emissions”

However, improved resource usage efficiency also lowers the relative cost of using a resource, which leads to increased demand 1. This is known as Jevons paradox or the “rebound effect”. Jevons described in 1865 how energy efficiency improvements increased consumption of coal. What this means is that the way to reduce the climate cost of the AI revolution can’t be purely technological. As with any activity that consumes energy, the best way to limit energy consumption is to limit the activity.

As a society we need to treat AI resources as finite and precious, to be utilised only when necessary, and as effectively as possible. We need frugal AI.

Note

[1] À l’initiative de Hubblo et Scaphandre, et membre de Boavizta, invité de l’Octet Vert.