Découvrir l’Exed Mines ParisTech
Par type de formations
Par thématiques
Rechercher
Accueil » Paroles d'experts » Franck Aggeri – Réguler l’IA : une bataille transatlantique
Dans sa chronique publiée le 25 septembre 2025 dans Alternatives Économiques, Franck Aggeri, professeur de management à Mines Paris - PSL, analyse la bataille qui oppose l’Union européenne et les États-Unis autour de la régulation de l’intelligence artificielle. Derrière cette confrontation transatlantique se joue bien plus qu’un désaccord juridique : l’avenir du modèle de gouvernance technologique et les rapports de force économiques mondiaux.
La régulation de l’intelligence artificielle (IA) est le nouveau champ de bataille qui oppose l’administration américaine à la Commission européenne et les pays membres de l’Union européenne (UE). L’entrée en vigueur de l’IA Act, le règlement européen sur l’IA, en août 2025 a ajouté à la colère de l’administration américaine, déjà en guerre contre la réglementation du marché des services numériques, le Digital Services Act (DSA) et le Digital Markets Act (DMA), qui portent sur la régulation des pratiques anticoncurrentielles sur Internet.
Donald Trump a menacé l’Union européenne de nouvelles taxes douanières, si ces réglementations n’étaient pas supprimées. Il les assimile en effet à des barrières non tarifaires qu’il accuse de cibler les entreprises américaines.
C’est un euphémisme d’indiquer que l’IA connaît un développement fulgurant. En quelques années, cette technologie a pénétré tous les aspects de la vie économique, sociale et individuelle : la conception des produits et services, le pilotage des infrastructures, les prévisions en tout genre, la sécurité et les usages militaires, la communication, l’aide au diagnostic médical, la production de textes, d’images, de vidéos ou encore, la conversation privée.
Deux exemples frappants attestent de cette percée. Premier exemple : l’usage massif de l’IA par les étudiants. 60 à 80 % des étudiants utiliseraient régulièrement des IA génératives, comme ChatGPT, introduites il y a trois ans seulement. Au point que des études s’interrogent sur l’effet de leur usage sur les capacités cognitives des jeunes.
Deuxième exemple : les IA utilisées comme « compagnon émotionnel ». Près des trois quarts des adolescents américains répondent avoir déjà utilisé un tel compagnon. L’usager peut ainsi personnaliser son IA en lui donnant un prénom, une voix et une personnalité, tandis que le chatbot simule une relation amicale, amoureuse, voire sexuelle. Cet anthropomorphisme poussé à son paroxysme, où la machine mime le comportement humain dans ce qu’il a de plus intime, donne le vertige.
En quelques années, la réalité a rattrapé la science-fiction, nous plaçant face à nos responsabilités : comment encadrer cette technologie, d’une complexité inouïe, pouvant dans certains modèles incorporer des dizaines de milliers de paramètres, pour traiter des volumes toujours croissants de données de qualité incontrôlée ? Comment faire en sorte que les usages de l’IA n’empiètent pas sur les libertés individuelles et publiques, évitent les discriminations de genre ou de race, les risques de manipulation ou de désinformation, qu’ils ne dégradent pas la santé mentale des individus et leurs capacités cognitives, qu’ils protègent les droits d’auteur ou ne puissent être détournés pour menacer la sécurité nationale ?
Quelles sont les caractéristiques de ce règlement européen sur l’IA ? Comme l’indique le texte, il ne s’agit pas d’interdire son usage, qui fait par ailleurs l’objet de plans de développement pour faire émerger un écosystème européen de l’IA, mais de définir des règles permettant le développement d’une IA de confiance pour les utilisateurs. Comment y parvenir ?
La réglementation ne porte pas sur les technologies utilisées, mais sur les usages prévus de la technologie, qui sont classés en fonction de niveaux de risques auxquels des règles sont associées.
Il y a, d’abord, les risques jugés inacceptables, comme la catégorisation biométrique des individus en fonction de leur origine ethnique, de leur religion ou de leur orientation sexuelle.
Un deuxième niveau de risques, qualifié de haut, correspond aux usages qui portent sur des services essentiels ou sensibles : la santé, le dialogue machine, l’éducation, la justice, le crédit bancaire, l’assurance… Ainsi, en France, les établissements hospitaliers, encouragés par le ministère de la Santé, ont fait le choix de ne pas contracter avec des grandes entreprises de la tech pour traiter les données individuelles sensibles sur la santé des patients, préférant se tourner vers des start-up, avec lesquelles elles co-construisent des solutions adaptées à leurs besoins et répondant au règlement général sur la protection des données (RGPD).
Un troisième niveau concerne les risques spécifiques, par exemple pour les IA qui interagissent avec des personnes physiques, qui génèrent des contenus ou portent sur la gestion des émotions. Les individus doivent alors être informés que leur interaction a lieu avec une IA. Les deux derniers types de risques identifiés portent sur les IA d’usage général, comme ChatGPT ou Gemini, qui doivent fournir au régulateur un résumé détaillé des données d’entraînement de leurs modèles ainsi qu’une documentation technique.
Celles-ci doivent également répondre à des exigences de transparence, respecter des règles de cybersécurité et indiquer la consommation énergétique qu’elles engendrent. Les entreprises qui ne respecteraient pas ces règles encourent des amendes qui peuvent aller de 1 à 7 % de leur chiffre d’affaires mondial annuel.
Face à ce mouvement de régulation, l’administration Trump a pris le chemin exactement inverse : aiguillonnée par les géants de la tech, elle a annulé tous les décrets et réglementations mises en place sous l’administration Biden dès le premier jour, tout en annonçant un grand plan de développement de l’IA. Exit les contraintes environnementales à la construction de data centers, ainsi que les règles éthiques et de gouvernance des données.
Le premier objectif est d’abord économique. Toute à son obsession de rester le leader mondial de cette technologie face à la Chine et l’Europe, l’administration américaine a supprimé toutes les barrières à l’innovation, notamment pour développer les modèles les plus puissants possible, soutenir les dépenses d’investissement privées et publiques, et ainsi asseoir une domination mondiale durable sur le secteur.
Mais le combat est également culturel. Il s’agit, pour reprendre la formule du conseiller du président américain à l’IA, David Sacks, ancien dirigeant de PayPal, soutenu par Elon Musk, d’éradiquer « l’IA woke » (sic !). En ligne de mire, le triptyque honni : le DEI, pour Diversité, Equité et Inclusion, pierre angulaire des principes édictés par l’administration démocrate.
Un décret présidentiel paru le 24 juillet interdit précisément au gouvernement américain de contracter avec des entreprises de la tech dont les systèmes ne seraient pas « objectifs », avec « des biais idéologiques ». Il dit, au contraire, choisir des systèmes ayant une « neutralité idéologique », protégeant la « liberté d’expression » et fondés sur les « valeurs américaines », bien que celles-ci ne soient pas définies.
Face aux menaces de rétorsion brandies par Donald Trump, Emmanuel Macron et le chancelier allemand Friedrich Merz ont immédiatement répondu en affirmant le droit souverain de l’Europe à décider des règles qu’elle souhaite voir appliquer.
Mais des voix dissonantes préconisent de mettre en veille ces réglementations européennes. Un collectif de 45 groupes et entreprises européens de technologie, baptisé EU AI Champions Initiative, dont Total, Mistral, Airbus ou Dassault System, qui opèrent des deux côtés de l’Atlantique, a ainsi signé le 3 juillet une lettre ouverte à la Commission européenne pour demander de mettre en pause pendant deux ans l’IA Act, dénonçant des règles floues et complexes allant à l’encontre de l’ambition européenne en cette matière. Leur demande rejoint celles de Google, ou OpenAI pour assouplir, voire supprimer dans le cas de Meta, les règles européennes.
La bataille de la régulation de l’IA constitue un nouvel avatar du rapport de vassalité que cherche à imposer l’administration américaine à ses anciens « alliés ». Pour l’Europe, ici comme dans toutes les autres batailles à venir, le débat se résume à un choix assez simple : la soumission au projet de domination américaine ou l’affirmation d’une souveraineté et d’une identité européenne, dont les valeurs ne sont pas négociables. Quitte à en assumer les conséquences.
Du 5 mars au 26 juin 2026
Terre, environnement & développement durable
Certificat
8 + 1 jour
5 500€ HT (6 600€ ttc)
du 13 avril 2026 au 28 août 2026
16 semaines
3 790€ HT ( ttc)
Contactez-nous pour une formation sur-mesure
Merci ! Votre inscription à notre lettre d'information a bien été prise en compte.