Atecna interviewe Arnaud Liotard, Fondateur du Club Numérique Responsable


L’intelligence artificielle se déploie à une vitesse fulgurante, promettant des avancées sans précédent. Mais à quel prix ? Entre impact écologique, social et les risques inhérents à un usage non maîtrisé, la question d’une IA responsable devient cruciale. Pour décrypter ces enjeux et proposer des pistes concrètes, nous avons interrogé Arnaud Liotard, Expert Numérique Responsable chez Atecna et Fondateur du Club Numérique Responsable.


L’équipe Atecna : Bonjour Arnaud Liotard. Vous abordez le sujet de l’IA avec cette affirmation : « parler d’IA responsable est une chimère ». Pouvez-vous nous expliquer pourquoi ?

Arnaud Liotard : Bonjour. Effectivement, on ne peut pas être responsable de quelque chose qu’on ne maîtrise pas, et l’IA présente un effet « boîte noire » qui rend son fonctionnement opaque. Deuxièmement, l’IA est une révolution à double tranchant : elle offre des opportunités extraordinaires, mais elle se déploie aussi avec un prix significatif (coûts économique et écologique) qu’il faut adresser.


Quels sont ces apports positifs qui en font un « outil formidable », comme vous l’avez mentionné ?

A.L. : Il est indéniable que l’IA a tendance à améliorer considérablement notre productivité et notre quotidien. Que ce soit le gain de productivité grâce à l’automatisation, l’analyse de données ou l’optimisation de l’expérience client via les chatbots, les exemples sont nombreux. Dans le secteur médical, on observe une précocité du diagnostic et une accélération de la recherche. C’est aussi la première révolution technologique qui touche les domaines créatifs et cognitifs.


Revenons au « prix » de l’IA. Commençons par l’impact écologique. Quels sont les chiffres qui nous alertent sur son empreinte environnementale ?

A.L. : L’impact écologique est colossal. En 2025, l’empreinte hydrique de l’IA pourrait équivaloir à la consommation mondiale d’eau en bouteille, soit entre 312 et 764 milliards de litres (notez la fourchette importante, symptomatique du côté boîte noire des grands fournisseurs d’IA) . L’IA est aussi un dévoreur d’énergie : une requête ChatGPT consomme environ dix fois plus d’électricité qu’une recherche Google standard. Les data centers sont gigantesques ; Meta, par exemple, va construire « Hyperion » en Louisiane, de la taille de la moitié de Manhattan. L’investissement dans les infrastructures des datacenters est en passe de dépasser même celui dans la construction de bureaux aux États-Unis, signe d’un véritable changement d’ère.


Au-delà de l’environnement, l’IA a aussi un impact social important, notamment sur l’emploi et les biais. Quels sont vos constats sur ces aspects ?

A.L. : Les chiffres du FMI en 2024 montrent que près de 40% de l’emploi mondial est exposé à l’ia, et jusqu’à 60% dans les pays développés. La moitié de ces emplois exposés pourrait disparaître. Des métiers comme les doubleurs ou les traducteurs sont déjà en péril. Amazon a même parlé de 16 000 suppressions d’emplois pour « accélérer sur l’ia ».

L’ia est également un « miroir déformant » de nos préjugés. Si vous demandez à une ia générative une image d’architecte, vous obtiendrez un homme blanc. Pour un métier à bas revenus, ce sera une femme de couleur. C’est l’automatisation des préjugés, qui amplifie les biais sociétaux existants.


Vous qualifiez l’IA de 4ème révolution industrielle. Qu’est-ce qui la distingue des précédentes mécanisations ou automatisations ?

A.L. : Ce qui fait la particularité de cette 4ème révolution, c’est d’abord sa vitesse d’adoption : ChatGPT a atteint 100 millions d’utilisateurs en 2 mois, quand le téléphone a mis 75 ans. Mais surtout, c’est la première fois qu’une révolution automatise le travail cognitif et créatif. Elle impacte directement les cols blancs, ce qui est une rupture majeure par rapport aux précédentes révolutions qui touchaient majoritairement le travail manuel.


Face à ces enjeux complexes, vous défendez l’idée d’une « IA responsable ». Comment la définissez-vous et quels sont ses piliers ?

A.L. : L’entrepreneur de demain ne peut ni ignorer l’ia, ni l’utiliser aveuglément. Il doit auditer ses modèles comme il audite ses comptes. L’ia responsable va au-delà du bien et du mal : c’est un équilibre entre le social, l’environnemental et l’économique, s’inscrivant dans une démarche de numérique responsable.

Elle repose sur un triptyque essentiel :

  1. Éthique et conformité
  2. Sécurité et maîtrise
  3. Frugalité et durabilité

Si l’un de ces points n’est pas respecté, on ne peut parler d’IA responsable.


Parlons du pilier « Sécurité et maîtrise ». Un des risques majeurs que vous avez identifiés est le « Shadow AI ». Pouvez-vous nous en dire plus ?

A.L. : Le Shadow AI est une menace silencieuse. C’est l’utilisation d’outils comme ChatGPT par les salariés sans l’approbation, la supervision ou la connaissance de l’entreprise. Perçue comme inoffensive car visant un gain de productivité, elle crée une zone d’ombre dangereuse.

Les risques sont multiples : fuite de données stratégiques (codes sources, listes clients), non-conformité au RGPD avec des amendes records, perte de propriété intellectuelle si les contenus générés ne vous appartiennent pas, et des coûts cachés liés à des abonnements multiples et non centralisés. Des cas concrets ont touché Samsung ou des banques comme JP Morgan.


Comment les entreprises peuvent-elles contrer efficacement ce phénomène de Shadow AI ?

A.L. : La stratégie repose sur trois actions clés : éduquer, encadrer et proposer.
Éduquer, c’est expliquer les risques et responsabiliser chaque employé.
Encadrer, c’est mettre en place une charte d’utilisation de l’IA claire et nommer un référent ou comité IA pour définir les usages autorisés et interdits (selon la taille de l’entreprise).
Et enfin, proposer des solutions d’IA validées, sécurisées et conformes en interne, idéalement des instances privées ou des outils open source pour maîtriser son modèle et ses données.


L’Europe est souvent critiquée pour sa régulation (RGPD, AI Act) perçue comme un frein à l’innovation. Vous y voyez plutôt un atout stratégique. Pourquoi ?

A.L. : C’est une erreur de perspective de voir la souveraineté des données comme un frein. Il faut considérer que l’innovation sans confiance est une impasse commerciale. Si vos utilisateurs ne font pas confiance à votre outil, il n’aura aucune valeur. La souveraineté et l’éthique sont les fondations d’un avenir numérique robuste pour l’Europe. Elles créent un écosystème sain, un avantage concurrentiel pour attirer des clients exigeants et garantissent la pérennité des modèles, basés sur la transparence et l’explicabilité.



La RGPD et l’AI Act ne sont pas des ralentisseurs, mais des créateurs de confiance. Certes, la plupart des outils grand public hébergent des données hors UE. Il faut donc prioriser les solutions européennes (Mistral, OVH, Scaleway). Même avec des offres comme l’European Sovereign Cloud d’AWS, le Cloud Act américain pose toujours un risque d’accès aux données.


Abordons la gestion des biais, un défi majeur pour l’IA responsable. Comment s’assurer d’une IA plus inclusive et éviter de « déformer » la réalité ?

A.L. : Puisque l’ia est un miroir de nos biais, il faut agir proactivement. Premièrement, par des audits de biais réguliers pour s’assurer que les jeux de données d’entraînement représentent fidèlement la diversité des utilisateurs.

Deuxièmement, par la diversification des données et l’établissement de kpi éthiques comme le « disparate impact ratio » pour détecter les déséquilibres.

Troisièmement, par l’explicabilité : être capable de comprendre pourquoi un modèle prend telle ou telle décision, comme expliquer le refus d’un prêt. Et enfin, en impliquant des experts externes (sociologues, éthiciens) pour anticiper les impacts sociaux que la technique seule ne peut voir.


Le dernier pilier est la « frugalité et durabilité ». Que recouvre ce concept d’IA frugale ?

A.L. : L’IA frugale ne signifie pas « low cost ». L’objectif est de faire « juste ce qu’il faut, juste à temps, juste assez » pour délivrer un maximum de valeur avec un minimum d’impact. Cela offre des bénéfices économiques (réduction des coûts d’infrastructure), écologiques (moins de consommation énergétique et d’empreinte carbone) et techniques (modèles plus petits, plus rapides à développer et à maintenir, mieux maîtrisés).


L’Institut du Numérique Responsable a créé le référentiel de l’IA responsable. Parmi les critères recensés, quels seraient ceux que vous mettriez en avant ?

A.L. : La meilleure frugalité commence par une réflexion profonde :

  1. Est-ce que l’IA est la bonne réponse ? Il faut systématiquement questionner sa pertinence et explorer les solutions alternatives plus simples.
  2. Définir le juste besoin : Identifier les fonctionnalités « must have », éviter l’over-engineering et la quête du 100% de précision. Il y a un compromis précision/énergie à trouver (si mon modèle machine learning répond à 92% de mon besoin, est-ce vraiment nécessaire de basculer en deep learning pour atteindre 94% ?)
  3. Faire de la frugalité un objectif projet : Intégrer des kpi environnementaux (coût financier, émissions CO2) aux objectifs dès le départ.

Et sur le plan technique, quelles sont les pratiques clés pour une IA plus frugale et performante ?

A.L. : Techniquement, il s’agit de faire les bons choix :

  • Privilégier les modèles pré-entraînés : L’entraînement « from scratch » est extrêmement coûteux. Le transfer learning (adapter des modèles existants) est 100 à 1000 fois moins énergivore.
  • Privilégier des modèles plus simples : Commencer par le machine learning pour les données structurées (listing, logs, données comptables…). Réserver le deep learning aux cas complexes.
  • Ne réentraîner que si nécessaire : Le réentraînement est la phase la plus énergivore. Il faut monitorer la dérive du modèle (décalage entre les données d’entraînement et celles de production) et ne réentraîner que si des critères objectifs le justifient, pas systématiquement.

Enfin, la culture d’entreprise et l’organisation des ressources jouent un rôle clé. Quels sont vos derniers conseils sur ces aspects ?

A.L. : C’est une affaire d’équipe :

  • Impliquer tout le monde : Former et acculturer toutes les équipes, du dirigeant au développeur, à la frugalité comme une compétence transverse.
  • Optimiser le matériel existant : Auditer l’infrastructure, mutualiser les ressources, et automatiser l’extinction ou la mise en veille des serveurs non utilisés.
  • Prévoir la fin dès le début : Intégrer la gestion du cycle de vie des données (rétention, anonymisation, suppression) et planifier le décommissionnement des modèles et infrastructures dès la conception du projet.

Pour conclure, quels seraient les trois messages clés que vous souhaiteriez laisser aux décideurs qui nous lisent ?

A.L. :

  • Adopter un cadre clair : Nommer un référent IA, sensibiliser les équipes et éditer une charte IA d’entreprise.
  • Privilégier les solutions maîtrisées : Choisir des acteurs européens, des modèles open source ou pré-entraînés pour une meilleure souveraineté et explicabilité.
  • Intégrer des KPI responsables : Mesurer dès le début l’impact écologique et économique de vos projets ia pour piloter la frugalité.

Il s’agit d’une transformation profonde, mais c’est le prix de la confiance et de la durabilité.

Vous avez des questions ou souhaitez discuter de projets IA ?

N’hésitez pas à contacter les experts d’Atecna.