L'intelligence artificielle nous aide au quotidien, et de façons bien plus nombreuses qu'on ne l'imagine. Mais cette technologie est aussi bien plus énergivore que nous ne le pensons. Prenons par exemple le modèle BERT - un modèle d'apprentissage automatique pour le traitement du langage naturel. Il consomme jusqu'à 1 500 kWh d'électricité en trois jours, soit 600 fois plus d'électricité que la consommation de notre cerveau sur la même période.

Des émissions de CO2 énormes

La puissance de calcul nécessaire pour former des modèles d'IA peut se traduire en consommation d'énergie, et donc aussi en émissions de CO2. Et sur ce point, l'IA n'est pas bonne élève : pour entraîner un grand modèle comme BERT, il faut bien plus d'énergie, et donc d'émissions de CO2, que par exemple un vol de New York à San Francisco. Par rapport à une année moyenne de la vie d'un Américain, la formation d'un modèle d'IA avancé émet même environ 17 fois plus de CO2.

En effet, ces modèles d'intelligence artificielle nécessitent des heures de formation pour être performants et déployables. Cela requiert de nombreux CPU (processeur), GPU (processeur graphique), TPU (accélérateur d'IA) et RAM (mémoire d'ordinateur), ce qui consomme beaucoup d'énergie. De plus, l'entraînement d'un modèle d'IA est un processus fait de tâtonnements, les modèles sont donc "entraînés" de nombreuses fois. Et dès que le modèle est utilisé, il continue naturellement à consommer de l'énergie pour effectuer les calculs. Sans oublier que pour suivre l'évolution des données, le modèle doit par la suite être ré-entraîné fréquemment. Si l'on tient compte de tous ces paramètres, rien d'étonnant à ce que la consommation d'énergie et les émissions de CO2 soient élevées.

Combler le fossé

En poursuivant sur cette voie, nous allons droit vers un désastre écologique absolu. Nous devons donc combler l'écart entre le matériel et le logiciel, en faisant mieux correspondre les deux. Comme le dit avec justesse le chercheur Fabrice Rastello : "Il est possible de réduire énormément la consommation d'énergie en tenant compte du matériel lors de la programmation, et en optimisant nos algorithmes." Par exemple, Apple a développé ses propres puces M1 pour ses ordinateurs portables, ce qui les fait fonctionner beaucoup plus efficacement et prolonge la durée de vie de la batterie.

L'optimisation de logiciels pour un matériel spécifique est très prometteuse, mais nécessite également une expertise dans les deux domaines. Il est donc nécessaire de chercher à composer des équipes d'IA plus diversifiées qui s'intéressent non seulement à améliorer la précision des algorithmes d'IA, mais aussi leur efficacité énergétique.

Prise de conscience

Tout comme les modèles d'IA, les humains peuvent également être entraînés - ou faire l'objet de "nudges", ou coups de pouce - dans la bonne direction, celle d'une économie d'énergie. Ainsi, la prise de conscience concernant notre consommation d'énergie est une première étape importante. Pour sensibiliser le public, il est possible par exemple de mentionner systématiquement la consommation d'énergie des modèles utilisés dans les articles de recherche sur l'IA. Le monde de l'entreprise, lui aussi, peut facilement déterminer la quantité d'énergie provenant de l'informatique pour une application ou un modèle d'IA particulier à l'aide d'outils tels que CodeCarbon.io.

Comment empêcher que l'IA mène à une catastrophe écologique?

Des recherches sont d'ailleurs déjà en cours sur les moyens de réduire l'impact écologique de l'IA, y compris les réseaux de neurones à impulsions ("Spiking Neural Networks"), l'IA neuro-symbolique et les modèles graphiques probabilistes. Dans le même temps, la technologie de l'IA est connue pour être un catalyseur d'innovation. On peut donc aussi utiliser l'apprentissage automatique pour concevoir de nouveaux algorithmes qui ouvrent la voie à des systèmes moins énergivores.

Par exemple, la douloureuse hausse des prix de l'énergie est un mal pour un bien : je la considère comme le catalyseur idéal pour sensibiliser à la consommation d'énergie des modèles d'IA. Si nous maintenons le rythme actuel de l'innovation sans prendre de mesures de durabilité de l'IA, nous allons droit vers le désastre écologique. Il faut donc rendre l'IA plus intelligente et, parallèlement, dépasser l'inefficacité du processus de tâtonnement (trial and error) de son entraînement, ainsi que sensibiliser à la consommation d'énergie et à la recherche de l'équilibre et de l'harmonie entre matériel et logiciel. Que le caractère durable de l'IA ne soit plus un point d'interrogation, mais un point de départ concret pour tout le monde.

L'intelligence artificielle nous aide au quotidien, et de façons bien plus nombreuses qu'on ne l'imagine. Mais cette technologie est aussi bien plus énergivore que nous ne le pensons. Prenons par exemple le modèle BERT - un modèle d'apprentissage automatique pour le traitement du langage naturel. Il consomme jusqu'à 1 500 kWh d'électricité en trois jours, soit 600 fois plus d'électricité que la consommation de notre cerveau sur la même période.La puissance de calcul nécessaire pour former des modèles d'IA peut se traduire en consommation d'énergie, et donc aussi en émissions de CO2. Et sur ce point, l'IA n'est pas bonne élève : pour entraîner un grand modèle comme BERT, il faut bien plus d'énergie, et donc d'émissions de CO2, que par exemple un vol de New York à San Francisco. Par rapport à une année moyenne de la vie d'un Américain, la formation d'un modèle d'IA avancé émet même environ 17 fois plus de CO2.En effet, ces modèles d'intelligence artificielle nécessitent des heures de formation pour être performants et déployables. Cela requiert de nombreux CPU (processeur), GPU (processeur graphique), TPU (accélérateur d'IA) et RAM (mémoire d'ordinateur), ce qui consomme beaucoup d'énergie. De plus, l'entraînement d'un modèle d'IA est un processus fait de tâtonnements, les modèles sont donc "entraînés" de nombreuses fois. Et dès que le modèle est utilisé, il continue naturellement à consommer de l'énergie pour effectuer les calculs. Sans oublier que pour suivre l'évolution des données, le modèle doit par la suite être ré-entraîné fréquemment. Si l'on tient compte de tous ces paramètres, rien d'étonnant à ce que la consommation d'énergie et les émissions de CO2 soient élevées. En poursuivant sur cette voie, nous allons droit vers un désastre écologique absolu. Nous devons donc combler l'écart entre le matériel et le logiciel, en faisant mieux correspondre les deux. Comme le dit avec justesse le chercheur Fabrice Rastello : "Il est possible de réduire énormément la consommation d'énergie en tenant compte du matériel lors de la programmation, et en optimisant nos algorithmes." Par exemple, Apple a développé ses propres puces M1 pour ses ordinateurs portables, ce qui les fait fonctionner beaucoup plus efficacement et prolonge la durée de vie de la batterie.L'optimisation de logiciels pour un matériel spécifique est très prometteuse, mais nécessite également une expertise dans les deux domaines. Il est donc nécessaire de chercher à composer des équipes d'IA plus diversifiées qui s'intéressent non seulement à améliorer la précision des algorithmes d'IA, mais aussi leur efficacité énergétique. Tout comme les modèles d'IA, les humains peuvent également être entraînés - ou faire l'objet de "nudges", ou coups de pouce - dans la bonne direction, celle d'une économie d'énergie. Ainsi, la prise de conscience concernant notre consommation d'énergie est une première étape importante. Pour sensibiliser le public, il est possible par exemple de mentionner systématiquement la consommation d'énergie des modèles utilisés dans les articles de recherche sur l'IA. Le monde de l'entreprise, lui aussi, peut facilement déterminer la quantité d'énergie provenant de l'informatique pour une application ou un modèle d'IA particulier à l'aide d'outils tels que CodeCarbon.io.Des recherches sont d'ailleurs déjà en cours sur les moyens de réduire l'impact écologique de l'IA, y compris les réseaux de neurones à impulsions ("Spiking Neural Networks"), l'IA neuro-symbolique et les modèles graphiques probabilistes. Dans le même temps, la technologie de l'IA est connue pour être un catalyseur d'innovation. On peut donc aussi utiliser l'apprentissage automatique pour concevoir de nouveaux algorithmes qui ouvrent la voie à des systèmes moins énergivores. Par exemple, la douloureuse hausse des prix de l'énergie est un mal pour un bien : je la considère comme le catalyseur idéal pour sensibiliser à la consommation d'énergie des modèles d'IA. Si nous maintenons le rythme actuel de l'innovation sans prendre de mesures de durabilité de l'IA, nous allons droit vers le désastre écologique. Il faut donc rendre l'IA plus intelligente et, parallèlement, dépasser l'inefficacité du processus de tâtonnement (trial and error) de son entraînement, ainsi que sensibiliser à la consommation d'énergie et à la recherche de l'équilibre et de l'harmonie entre matériel et logiciel. Que le caractère durable de l'IA ne soit plus un point d'interrogation, mais un point de départ concret pour tout le monde.