La consommation d'énergie de ChatGPT est bien inférieure à celle estimée

Une étude récente réfute les estimations précédentes, montrant que ChatGPT ne consomme que 0,3 wattheure par requête, bien moins que prévu.
Une nouvelle étude d'Epoch AI a démenti les estimations précédentes sur la consommation d'énergie de ChatGPT, révélant que le modèle le plus récent, GPT-4o, ne consomme que 0,3 wattheure par requête. Ce chiffre est dix fois inférieur à l’estimation précédemment citée de 3 wattheures. Les progrès de la technologie de l’IA et une meilleure optimisation des systèmes ont permis cette réduction significative de la consommation d’énergie. Bien que l’impact d’une requête individuelle soit faible, l’utilisation mondiale massive de ChatGPT soulève néanmoins des inquiétudes quant à l’efficacité énergétique à long terme.
Consommation énergétique inférieure aux prévisions
L'étude menée par Epoch AI recalcule avec précision la consommation d'énergie de ChatGPT, avec une requête typique utilisant seulement 0.3 wattheure, un chiffre qui contraste fortement avec les estimations précédentes allant jusqu'à 3 wattheures par interaction. Cette amélioration de l’efficacité est attribuée à la mise en œuvre du matériel le plus avancé et l'optimisation des modèles d'IA, ce qui a permis une plus grande efficacité dans le traitement des requêtes.
Une consommation de 0,3 wattheure par requête place ChatGPT dans une catégorie de consommation d'énergie beaucoup plus faible que de nombreuses activités quotidiennes. Par exemple, faire bouillir de l’eau pour le thé consomme environ 100 wattheures, tandis qu’une heure passée à regarder la télévision consomme environ 120 wattheures. Cette comparaison met en perspective l’impact énergétique d’une requête ChatGPT, soulignant que si l’IA consomme de l’énergie, son empreinte énergétique est relativement faible au niveau individuel.
Comparaison avec d'autres activités quotidiennes
Pour mieux comprendre l’impact de ChatGPT, il est utile de le mettre en contexte. À 0,3 wattheure par requête, ChatGPT a une consommation d'énergie similaire à celle d'une seule recherche Google, ce qui souligne que, malgré un traitement avancé, l’impact de chaque requête est minime par rapport aux activités plus courantes. À titre de comparaison, charger un iPhone 15 quotidiennement pendant un an consommerait environ 4,7 wattheures par jour, soit bien plus qu’une requête ChatGPT classique.
Cependant, bien que la consommation individuelle soit faible, L’effet cumulatif de millions de requêtes quotidiennes crée une empreinte énergétique considérable. Ce fait souligne la nécessité pour les entreprises technologiques de continuer à investir dans l’amélioration de l’efficacité de leurs systèmes afin de minimiser l’impact environnemental de l’IA.
Des avancées technologiques qui améliorent l’efficacité énergétique
L’étude met également en évidence les facteurs clés à l’origine de cette amélioration de l’efficacité. L'implémentation de nouvelles puces Nvidia H100 à la place des anciens modèles A100 a été essentielle pour réduire la consommation d’énergie. En plus, l'optimisation des systèmes d'IA et l'amélioration des méthodes de calcul, qui supposent désormais une utilisation de 70 % de la capacité du serveur au lieu d'une utilisation maximale, ont également contribué à ce résultat.
Ces avancées reflètent les efforts continus de l’industrie pour rendre l’intelligence artificielle plus économe en énergie, à mesure que la demande en matière de traitement de données et d’applications d’IA augmente. À mesure que les technologies continuent d’évoluer, La consommation d’énergie devrait continuer à diminuer sans compromettre les performances ou la capacité du système.
Impact cumulatif et défis futurs
Bien que la consommation d’énergie de chaque requête soit faible, L’adoption massive de l’IA à l’échelle mondiale pourrait avoir un impact significatif à long terme. On estime que la consommation énergétique annuelle de ChatGPT pourrait atteindre 226.8 GWh, soit suffisamment pour recharger complètement 3,13 millions de véhicules électriques. Bien que ce chiffre soit relativement faible par rapport à d’autres secteurs, L’échelle mondiale de l’utilisation de l’IA soulève des inquiétudes quant à la consommation d’énergie, car de plus en plus de personnes utilisent constamment ces systèmes.
En outre, la projection selon laquelle la consommation énergétique de l'IA pourrait augmenter à 134 térawattheures d'ici 2027 montre qu’à mesure que les modèles deviennent plus complexes et s’étendent à l’échelle mondiale, la consommation totale d’énergie pourrait dépasser les gains d’efficacité. L’industrie de l’IA répond à ces défis en investissant dans Du matériel plus efficace et des sources d'énergie renouvelables pour atténuer les impacts environnementaux de sa croissance.
La voie vers un développement plus durable
L’efficacité énergétique est cruciale pour l’avenir de l’IA, surtout si la technologie continue de s’étendre à des domaines divers, des soins de santé à l’éducation et au divertissement. Bien que la consommation électrique de ChatGPT soit faible individuellement, l’échelle mondiale de son utilisation peut générer une consommation substantielle. Pour contrer cet impact, Il est essentiel que les entreprises technologiques non seulement améliorent l’efficacité de leurs systèmes, mais s’engagent également à utiliser des sources d’énergie renouvelables pour alimenter leurs centres de données.
Alors que la demande en IA continue de croître, L’industrie devrait continuer à donner la priorité à l’amélioration de l’efficacité énergétique comme facteur clé dans le développement de nouvelles technologies.
Commentaires fermés