top of page
Rechercher

Mistral IA joue la carte de la transparence écologique.

  • francknegro1900
  • 21 juil.
  • 3 min de lecture

Dernière mise à jour : 18 sept.

La start-up Mistral AI publie, en collaboration avec l’Ademe et Carbone 4, une étude sur l’impact environnemental de ses modèles d’IA, et plus particulièrement sur les émissions de CO2 produites à la fois lors des phases d’entraînement et d’usage de ses modèles. La jeune entreprise française s’engage ainsi, aux côtés de sociétés comme Hugging Face, pour davantage de transparence et de comparabilité entre les acteurs du secteur, et plaide en faveur d’une IA qui intègre de plus en plus les enjeux écologiques dans ses indicateurs de performance. L’étude affirme en effet, selon Mistral AI, que "les entreprises d’IA devraient publier les impacts environnementaux de leurs modèles" sur le modèle d’un "scoring" pouvant être intégré comme « critère dans les marchés publics".

 

86 % de l’impact carbone de son modèle Mistral Large 2 (le plus lourd des modèles d’IA de Mistral) serait lié à la consommation d’électricité nécessaire lors de la phase d’entraînement, ce qui correspondrait à 20,4 kilotonnes équivalent CO2, soit 3 375 trajets en avion autour de la Terre pour un passager, ou encore 95 millions de kilomètres en voiture. Selon Carbone 4, il existerait un facteur 100 entre ce modèle et le plus petit modèle de la start-up, Ministral.

 

La répartition des émissions de CO2 produites entre la "phase d’entraînement" (c'est le moment de la construction du modèle à proprement parler) et la "phase d’usage" (c'est le moment où le modèle est en production) dépend naturellement du nombre d’usagers et de requêtes au moment de la phase de déploiement du modèle. En constante augmentation, cette dernière devrait représenter à terme une part majoritaire par rapport aux émissions de CO2 générées lors de la phase d’entraînement. En effet, chaque requête et réponse à une question posée par un utilisateur de Mistral Large 2 génère 1,14 gramme de CO2 et consomme 4,5 centilitres d’eau. Ce qui serait comparable au bilan carbone de 55 secondes de vidéo en ligne en France, mais seulement 8 secondes aux États-Unis.


Si, au moment de leur lancement, les LLM (Large Language Models) étaient moins considérés comme des moteurs de recherche que comme des générateurs de contenus multimodaux combinant plusieurs modes de communication (textes, images, audios, vidéos), la tendance — notamment depuis le lancement de ChatGPT Search — est à la convergence des deux vers des outils multifonctions, intégrant les capacités d’un moteur de réponse capable de traiter presque tout type de question formulée en langage naturel, plutôt que de se limiter à de simples mots-clés. Les moteurs de recherche avaient déjà amorcé cette convergence avec l’intégration de GPT-4 dans Microsoft Bing, puis avec les annonces, lors de la conférence Google I/O du 10 mai 2023, d’une nouvelle approche de la recherche nommée Search Generative Experience (SGE). Cela pose des défis importants en termes d’empreinte écologique, puisque plusieurs études rapportent qu’en moyenne, une requête via un LLM génère 4 à 5 fois plus de CO₂ qu’une requête classique sur Google.


Ces chiffres dépendent naturellement, rappelle très justement l’étude, de la localisation des data centers et du mix énergétique d’un pays donné. En d’autres termes, « une action très concrète consiste à aller vers de l’énergie décarbonée », expliquent les dirigeants de Mistral, qui portent deux grands projets de data centers en France. Près de 70 % de la production d’électricité française provient en effet du nucléaire, tandis que le reste est majoritairement issu de l’hydroélectricité et des énergies renouvelables, comme l’éolien et le solaire. La France se distingue donc par un mix très bas carbone. 

 

Posts récents

Voir tout

Commentaires


Restez informé! Ne manquez aucun article!

Ce blog explore les enjeux éthiques, philosophiques et sociétaux de l'IA.

Thanks for submitting!

  • Grey Twitter Icon
bottom of page