La révocation du décret présidentiel sur l’IA par Donald Trump : quelles incidences ?

Partager cet article :

Le 20 janvier 2025, à peine entré en fonction pour son second mandat, Donald Trump a révoqué plusieurs décrets pris par son prédécesseur Joe Biden, dont l’Executive Order 14110 du 30 octobre 2023. Ce décret présidentiel portait sur la sécurité et la transparence dans le développement et l’utilisation de l’intelligence artificielle (IA). Avec cette révocation, les États-Unis se retrouvent désormais sans cadre fédéral spécifique régulant cette technologie, un revirement qui soulève de nombreuses interrogations et implications sur le plan juridique, économique et international.

A- Un retour en arrière sur la régulation de l’IA

 

L’Executive Order 14110 constituait une avancée majeure en matière de régulation de l’IA aux États-Unis. Il imposait aux développeurs et aux entreprises exploitant des modèles d’IA des obligations de transparence et de responsabilité.

Ces derniers se retrouvez alors contraint de réaliser des audits et des tests de sécurité (notamment via des red-teamings, où des experts en cybersécurité simulent des cyberattaques pour évaluer la robustesse des systèmes).

Ils avaient une obligation de déclaration pour les modèles d’IA à haut risque, c’est-à-dire ceux pouvant impacter la sécurité nationale, les infrastructures critiques ou les droits civiques et devais faire preuve d’une vigilance accrue contre les biais algorithmiques, en particulier dans des secteurs sensibles comme l’emploi, le logement et la justice.

Aussi la mise en place de système de protection renforcée en matière de vie privée, notamment via l’utilisation de technologies de préservation de la confidentialité. Et une surveillance des services cloud (Google, Microsoft, Amazon…) afin d’empêcher leur utilisation à des fins malveillantes, notamment par des acteurs étrangers.

Avec l’abrogation de ces mesures, les acteurs privés de l’IA se retrouvent sans obligations fédérales précises, laissant place à une régulation fragmentée au niveau des États ou à un autocontrôle par les entreprises elles-mêmes.

B- Les conséquences aux États-Unis : un vide juridique et des incertitudes

 

Sans cadre fédéral, l’IA aux États-Unis pourrait évoluer dans un climat de régulation incertaine, dépendant des décisions individuelles des États (par exemple, la Californie pourrait imposer des obligations strictes, tandis que le Texas pourrait privilégier une approche plus permissive). Cette asymétrie réglementaire risque d’augmenter les incertitudes pour les entreprises et les investisseurs.

En l’absence de régulation stricte, certains observateurs craignent également une multiplication des risques liés à l’IA, notamment en matière de désinformation, de cybersécurité et d’atteinte aux droits fondamentaux. La suppression des obligations de red-teaming et d’évaluation des biais pourrait exposer les utilisateurs à des systèmes opaques et potentiellement discriminatoires.

Enfin, l’industrie américaine de l’IA, bien qu’innovante, pourrait souffrir d’un manque de cadre clair et prévisible pour les entreprises cherchant à développer des technologies responsables et sécurisées.

 

C- Un impact sur les relations transatlantiques et le cadre européen

 

La révocation du décret de Biden crée un contraste saisissant avec la position de l’Union européenne, qui a adopté l’AI Act visant à encadrer strictement l’usage de l’IA sur son territoire. En Europe, les entreprises doivent se conformer à des normes strictes en matière de transparence, de biais algorithmiques, et de protection des données.

Or, avec ce retour à un modèle dérégulé aux États-Unis, des tensions commerciales et juridiques pourraient émerger. Les entreprises américaines opérant en Europe devront démontrer qu’elles respectent les exigences européennes, faute de quoi elles risquent de voir restreint leur accès au marché européen.

La question de la protection des données personnelles dans les échanges technologiques entre les États-Unis et l’UE pourrait refaire surface. En l’absence d’un cadre réglementaire strict aux États-Unis, l’Europe pourrait durcir les conditions de transfert transatlantique des données, comme elle l’a fait par le passé avec l’invalidation du Privacy Shield.

Sans obligations claires en matière d’éthique et de sécurité, les solutions d’IA américaines pourraient être perçues comme moins fiables ou plus risquées par les entreprises et consommateurs européens.

D- Vers une fragmentation de la gouvernance mondiale de l’IA ?

 

Alors que l’Executive Order 14110 encourageait une coopération internationale et une harmonisation des standards avec les partenaires étrangers, sa révocation pourrait marquer un repli américain sur le sujet. Cela pourrait affaiblir les efforts pour une régulation mondiale concertée et conduire à une fragmentation accrue des approches en matière d’IA.

L’Europe et l’Asie pourraient poursuivre des cadres réglementaires plus stricts, visant à établir des normes globales qui excluraient les acteurs non conformes. Les entreprises américaines pourraient se retrouver à devoir jongler entre des réglementations internationales divergentes, augmentant les coûts de conformité et la complexité juridique.

Des pays comme la Chine, qui disposent déjà d’un cadre réglementaire propre, pourraient tirer parti de cette dérégulation américaine pour renforcer leur influence sur la gouvernance de l’IA.

En révoquant le décret présidentiel sur l’IA, Donald Trump a supprimé en un instant le principal cadre fédéral encadrant l’intelligence artificielle aux États-Unis. Cette décision marque un tournant majeur : elle offre plus de liberté aux entreprises du secteur, mais crée un vide juridique susceptible d’engendrer des risques accrus en matière de sécurité, de biais algorithmiques et de vie privée.

Au niveau international, cette dérégulation pourrait complexifier les relations commerciales avec l’Europe, où la tendance est à un renforcement de la régulation de l’IA. La suppression des exigences de transparence et de sécurité pourrait également ralentir les discussions sur une gouvernance mondiale harmonisée de l’IA, exacerbant la divergence entre différents blocs économiques et technologiques.

Reste à savoir si cette décision tiendra sur le long terme ou si le Congrès américain, voire certains États fédérés, chercheront à combler ce vide réglementaire. Une chose est sûre : l’IA, enjeu stratégique du XXIe siècle, ne pourra rester longtemps sans cadre juridique adapté.

Nos dernières publications

Vous avez besoin d'aide ?

Contactez-nous pour recevoir l’assistance d’un avocat spécialisé :

Le cabinet ACBM vous accueille du lundi au vendredi de 10h à 19h sur place ou par téléphone. Nous vous répondrons  sous 24h, sans engagement !

Call Now Button