Porteuses de promesses dans de nombreux domaines de la société, les intelligences artificielles sont aussi lourdement critiquées pour leurs impacts énergétiques et environnementaux et la menace qu’elles font peser sur l’emploi. Entre les deux, cependant, un chemin reste praticable. Pour ne pas troquer une promesse de progrès contre une nouvelle charge, il s’agit de concevoir une IA frugale, porteuse de principes éthiques et pensée pour durer.

Longtemps cantonnée aux cénacles d’ingénieurs et aux colloques d’informaticiens, l’intelligence artificielle est, depuis la fin 2022, au cœur de toutes nos conversations. La faute à ChatGPT qui, le premier, a ouvert ses entrailles au grand public et donné accès aux capacités des IA à résoudre nos problèmes parfois triviaux. En quelques mois, de multiples modèles ont suivi, faisant de l’IA un sujet indépassable du débat public, portant la promesse d’une transformation radicale de nos sociétés et de solutions inédites pour de nombreux secteurs comme l’industrie, l’énergie, la logistique ou l’agriculture. A vrai dire, tous les secteurs sont susceptibles de tirer profit des énormes capacités d’optimisation et de performance promises par l’intelligence artificielle.

IA, obsolescence et formation professionnelle

Un détail est cependant venu gâcher un peu la fête. Après l’effusion initiale, les premières voix se sont élevées pour rappeler qu’à l’instar de l’univers numérique dont elle est un avatar, l’intelligence artificielle n’est en rien neutre. Sur un volet social, tout d’abord, son arrivée a rapidement été suivi d’alertes sur les risques qu’elle faisait peser sur l’emploi. Selon une étude du FMI[1], 40 % des métiers sont exposés à l’IA et menacés d’obsolescence. Une proportion qui grimpe à 60 % dans les pays développés.

Devant cette menace très concrète d’obsolescence professionnelle, l’investissement dans les compétences humaines devient aussi urgent que celui dans les solutions technologiques. Selon un sondage Gartner, 85% des dirigeants d’entreprises attendent une forte augmentation des besoins en développement de compétences à cause des tendances digitales et de l’IA dans les deux ou trois prochaines années. La formation professionnelle sera dès lors un facteur clé de performance et un avantage concurrentiel certain pour l’entreprise qui aura pris les devants.

Quel coût environnemental pour l’IA ?

Sur le volet environnemental, ensuite, l’évanescence supposée de l’IA reposant en réalité sur une matérialité bien concrète faite de métaux rares, de consommation d’eau et d’énergie souvent carbonée. Dès 2019, une étude pionnière publiée par l’Université du Massachussetts[2] alertait déjà sur le coût environnemental de l’entrainement d’un modèle de langage avancé, qui dépasserait l’empreinte carbone de cinq voitures sur l’ensemble de leur cycle de vie. « L’entraînement d’un modèle de pointe nécessite désormais d’importantes ressources de calcul, qui exigent une quantité considérable d’énergie ainsi qu’un coût financier et environnemental associé » précise l’étude.

Coté utilisateurs, difficile d’évaluer avec précision l’impact d’une requête faite à une IA faute de données fiables et comparables fournies par les entreprises. « Les gens se demandent souvent combien d’énergie consomme une requête ChatGPT ; en moyenne, une requête utilise environ 0,34 watt-heure, soit à peu près ce qu’un four consomme en un peu plus d’une seconde, ou ce qu’une ampoule basse consommation utilise en quelques minutes » déclarait Sam Altman[3], le PDG d’OpenAI, au mois de juin 2025. Quelques semaines plus tard, Google rendait public[4] le calcul d’impact d’une requête adressée à son modèle Gemini, estimé à 0,24 watt-heure, soit 0,03 gramme de CO2 et cinq gouttes d’eau. Un coût énergétique équivalent à 9 secondes de télévision.

L’explosion des usages de l’IA, un équivalent énergétique de 30 000 foyers par an ?

Des résultats officiels qui peuvent paraître négligeables, mais qui sont soumis à un effet rebond avec le mouvement actuel d’adoption en masse de ces IA. Si on s’en tient aux chiffres annoncés par Sam Altman et aux dernières statistiques faisant état de 2,5 milliards de requêtes quotidiennes pour ChatGPT[5], on arrive à un volume de 310 gigawatt-heures d’électricité par an nécessaires aux IA juste pour la production de textes. Assez pour alimenter 30 000 foyers américains pendant un an. On n’est désormais plus dans l’insignifiant. D’une manière générale, et malgré l’amélioration des performances énergétiques des centres de serveur annoncées, la demande croissante en électricité remet en question la viabilité à moyen terme des IA.

L’IA catalyseur de transition

Pour autant, il serait absurde de jeter le bébé avec l’eau du bain. D’abord parce qu’une intelligence artificielle n’est pas mauvaise en soi. Ensuite parce que ses capacités de calcul permettent d’envisager des solutions inédites à de nombreux enjeux environnementaux et sociétaux à la condition que leur usage se fasse de manière raisonnée. « Je vois l’IA comme un catalyseur de la transition vers une économie régénérative. Elle ne nous épargnera pas la profonde et nécessaire réflexion sur nos modes de production, de consommation et de gestion de ressources limitées. Mais en appui de cette réflexion, elle peut aider à repérer les inefficacités et à optimiser l’utilisation des ressources » soutien Laura Sibony[6], auteure de « Fantasia, contes et légendes de l’intelligence artificielle ».

Derrière le bruit créé par les IA génératives, un grand nombre de solutions opérationnelles montrent un autre chemin, s’appuyant sur un usage d’IA porteuse de principes éthiques, moins gourmandes en ressources, plus préservatrice du travail humain et présentant un bilan énergétique, social et environnemental positif.

Le meilleur des deux mondes

Certains exemples sont éloquents. Le projet PolArctic, porté par des femmes en Alaska, développe une IA croisant les données scientifiques avec les savoirs autochtones inuits pour développer une cartographie détaillée des fonds marins et simuler le comportement des poissons. Un pont entre technologie et tradition qui permet d’améliorer la gestion des pêches et contribue à préserver la biodiversité locale et la continuité d’une activité économique traditionnelle.

Autre exemple avec Darli, un chatbot développé au Ghana et propulsé par une IA permettant aux agriculteurs d’obtenir un diagnostic des maladies agricoles en envoyant une simple photo de feuilles via la messagerie Whatsapp. Une solution proche du low-tech, accessible avec un simple smartphone, et qui agit comme un assistant respectueux d’une agriculture locale économe en eau et en traitements phytosanitaires massifs.

Développé par une startup allemande, Juna.ai montre pour sa part comment une intelligence artificielle peut apporter des solutions dans des industries polluantes comme l’acier, le ciment ou la chimie. La solution, fondée sur un apprentissage par renforcement des systèmes, permet d’ajuster en temps réel et d’automatiser les paramètres de production pour optimiser la consommation d’énergie et limiter les émissions. L’IA consomme certes un peu d’énergie, mais le bilan énergétique est largement positif et se chiffre en mégawattheures.

L’entreprise en recherche de cadre éthique

Ces exemples invitent à considérer l’intelligence artificielle avec discernement et autrement que comme un oracle susceptible d’apporter une solution magique aux questions auxquelles nous n’avons pas la réponse. Ils militent surtout en faveur d’une IA raisonnée dont les effets et la portée puissent être évalués sur des critères objectifs.

Une nécessité à en croire une étude du BCG[7] qui révèle que si 75% des dirigeants classent les investissements dans l’IA parmi leurs trois priorités stratégiques, seulement 25% d’entre eux perçoivent quelle valeur significative ils peuvent en tirer. Il devient par conséquent crucial, pour le monde de l’entreprise, de savoir jusqu’où faire entrer cette technologie dans ses usages et fixer un cadre éthique à son utilisation mais aussi à ses impacts environnementaux et aux externalités en matière de métiers et l’emploi.

Mesurer pour améliorer

Entré en vigueur en août 2024, l’IA Act Européen est une première grille de lecture permettant d’évaluer les niveaux de risques liés à l’usage des IA au sein des entreprises. Ce cadre règlementaire est un marche pied pour aller plus loin et mettre en œuvre des indicateurs susceptibles de calculer les retours sur investissement de l’IA qui prennent en compte non seulement les gains de productivité, mais soient aussi susceptibles d’intégrer le principe de double matérialité et de comptabilité extra-financière. Partant du principe qu’on n’améliore que ce qu’on peut mesurer, la mise en œuvre de KPIs dans le cadre du déploiement des IA est un moyen de conscientisation de l’impact des IA auprès des équipes.

Une manière de donner un cadre de référence pour initier une réflexion critique sur ses usages au sein de l’entreprise et limiter, au passage, les pratiques hasardeuses comme le shadow IA, le workslop et l’ensemble des pratiques alternatives qui peuvent présenter un risque de fuite de données pour l’entreprise. C’est enfin un jalon permettant à l’entreprise de repenser ses méthodes pour garder la main sur l’IA et d’avancer sur des principes d’IA frugale qui font l’objet d’un référentiel publié en 2024 par l’AFNOR[8].

Sortir de la doctrine

C’est par conséquent d’une transformation culturelle qu’il s’agit dès lors que l’on aborde une approche éthique et durable de l’IA en entreprise. Une transformation qui passe par la mise en œuvre de règles de gouvernance des usages d’une IA qui ne soit ni prédatrice, ni déconscientisante et qui ne fera pas l’économie d’une acculturation nécessaire des managers et d’une formation des équipes. Nous entrons dans une période où il ne faut pas céder à la doctrine d’une IA présentée comme une commodité, qui nous dessaisirait de notre propre agentivité. Cela ne signifie pas renoncer, mais faire des choix politiques, économiques et industriels durables qui s’appuient sur des normes claires, une transparence des données de consommation et une remise en cause du modèle d’hyper-croissance des usages génératifs.


[1] « L’IA transformera l’économie mondiale. Faisons en sorte que l’humanité y soit gagnante » – FMI – Janvier 2024

[2] Energy and Policy Considerations for Deep Learning in NLP

[3] In “The Gentle Singularity” – Sam Altman Blog – Juin 2025

[4] In “How much energy does Google’s AI use? We did the math”- Août 2025

[5] Source « Altman plans D.C. push to « democratize » AI economic benefits » – Axios – Juillet 2025

[6] In « Regenerate the Future » – 2050NOW La Maison – 2025

[7] « From Potential to Profit: Closing the AI Impact Gap » – BCG – Janvier 2025

[8] « Référentiel général pour l’IA frugale – Mesurer et réduire l’impact environnemental de l’IA » – Afnor