Les modèles actuels d’intelligence artificielle sont des monstres énergivores. Les chercheurs planchent sur des formes d’algorithmes et des composants électroniques plus économes.
Les Echos a interrogé nos experts d’I Care by BearingPoint dans le cadre d’une nouvelle chronique explorant les défis de l’empreinte environnementale de l’intelligence artificielle (IA).
Certains algorithmes utilisés dans des applications populaires peuvent consommer autant d’électricité que la charge qu’un smartphone entier pour la génération d’une seule illustration.
Les chiffres sont alarmants, avec des prévisions indiquant que la consommation électrique nécessaire aux algorithmes d’IA pourrait égaler celle d’un pays entier d’ici 2027.
Pourtant, des initiatives émergent pour développer des modèles d’IA plus économes en énergie, telles que l’IA « à la périphérie » et les réseaux de neurones à impulsions, avec des résultats prometteurs en termes de réduction de la consommation énergétique. Cependant, des défis subsistent, notamment la nécessité de plus de transparence de la part des acteurs de l’IA et la prise en compte des effets rebond qui pourraient augmenter l’utilisation de l’IA malgré des progrès dans l’efficacité énergétique.
« Il faudrait plus de transparence de la part des acteurs de l’IA, mais aussi développer des méthodologies communes permettant d’évaluer l’impact de l’inférence »
Léo Génin, Directeur Associé I Care by BearingPoint.