AI Policy Framework : quand la Maison Blanche joue à l’antipode de l’AI Act

En mars 2026, la Maison Blanche a publié un document intitulé National Policy Framework for Artificial Intelligence — Legislative Recommendations, soit un ensemble de recommandations législatives adressées au Congrès américain. Sept chapitres, une ambition claire : faire des États-Unis le leader mondial de l’intelligence artificielle, coûte que coûte. Pour un DSI habitué aux contraintes du RGPD et de l’AI Act européen, la lecture de ce texte procure un léger vertige. On nage dans des eaux très différentes.

La philosophie fondatrice : l’innovation d’abord, la régulation ensuite (peut-être)

Le document américain affiche sans ambiguïté une logique de compétitivité nationale. L’IA y est traitée comme un enjeu de souveraineté, de sécurité nationale et de puissance économique. Le mot « dominance » revient à plusieurs reprises, sans complexe. On est loin du vocabulaire de précaution cher à Bruxelles.

L’AI Act européen, entré en vigueur en août 2024, adopte une posture diamétralement opposée : une approche fondée sur les risques, avec des obligations croissantes selon quatre niveaux de dangerosité (risque minimal, limité, élevé, inacceptable). Les systèmes à risque inacceptable, comme la notation sociale ou certaines formes de surveillance biométrique, y sont purement et simplement interdits. Le texte américain, lui, ne mentionne aucune catégorie d’IA interdite. Le mot « interdit » n’apparaît tout simplement pas.

Côté américain, le principe directeur est explicite : pas de nouveau régulateur fédéral dédié à l’IA. On s’appuie sur les agences existantes et sur des standards pilotés par l’industrie. La régulation sectorielle plutôt que transversale. Pour les entreprises françaises ou européennes soumises à l’AI Act, qui doivent constituer des dossiers de conformité, nommer des responsables, documenter leurs systèmes d’IA à haut risque, le contraste est saisissant.

La protection des enfants : un rare terrain d’entente

Il faut bien trouver un point commun. Les deux cadres accordent une attention particulière à la protection des mineurs. Le texte américain cite notamment le Take It Down Act pour lutter contre les deepfakes à caractère abusif, et demande au Congrès d’imposer des mécanismes de vérification d’âge et des protections contre l’exploitation sexuelle sur les plateformes IA accessibles aux mineurs.

L’AI Act classe d’ailleurs certains systèmes ciblant des mineurs dans la catégorie « haut risque », avec des obligations de transparence et d’auditabilité. Sur ce point, la convergence est réelle, même si les mécanismes d’application restent très différents.

La propriété intellectuelle : un pied dedans, un pied dehors

Le chapitre III du document américain sur les droits des créateurs est particulièrement révélateur de l’équilibre délicat que l’administration cherche à maintenir. D’un côté, elle affirme que l’entraînement des modèles d’IA sur des contenus protégés ne constitue pas une violation du droit d’auteur. De l’autre, elle laisse les tribunaux trancher et demande au Congrès de ne surtout pas légiférer dans ce sens. Autrement dit : on protège l’industrie, mais on ne le dit pas trop fort.

L’Union européenne n’a pas encore adopté de position législative aussi tranchée sur la question de l’entraînement et du fair use (notion qui n’existe pas dans le droit continental), mais la directive sur le droit d’auteur dans le marché unique numérique (DSM) impose des obligations d’opt-out aux créateurs, et plusieurs affaires sont en cours devant des juridictions européennes. Pour les DSI qui déploient des solutions d’IA générative, la question de la provenance des données d’entraînement reste un sujet de conformité active, des deux côtés de l’Atlantique.

Censure et liberté d’expression : le spectre du biais politique

Le chapitre IV frappe par sa singularité. La Maison Blanche demande explicitement au Congrès d’empêcher le gouvernement fédéral de contraindre les fournisseurs d’IA à modifier leurs contenus pour des raisons partisanes ou idéologiques. C’est une posture politique lisible dans un contexte américain récent, mais elle introduit une tension intéressante : qui arbitre la neutralité d’un modèle de langage ? Et selon quels critères ?

L’AI Act européen, lui, ne traite pas directement de la liberté d’expression des IA, mais il impose des obligations de transparence sur les systèmes dits « à usage général » (GPAI), notamment les grands modèles de langage. Ceux présentant un risque systémique (au-delà de 10^25 FLOPS d’entraînement) sont soumis à des exigences renforcées : évaluation contradictoire, signalement des incidents, mesures de cybersécurité. La Commission européenne a d’ailleurs publié son code de pratiques GPAI début 2025, auquel Anthropic, OpenAI et Google ont participé.

La préemption fédérale : Washington contre les États, Bruxelles contre les États membres

Le chapitre VII est peut-être le plus structurellement intéressant pour un architecte qui pense gouvernance à grande échelle. L’administration Trump propose d’imposer une préemption fédérale sur les législations IA des États américains jugées trop contraignantes. L’objectif : éviter un patchwork de 50 réglementations différentes qui nuiraient à la compétitivité nationale. On pense évidemment au SB 1047 californien, bloqué en 2024, ou aux initiatives d’une vingtaine d’autres États.

La mécanique est exactement inverse en Europe, mais pour un résultat comparable : l’AI Act est un règlement d’application directe dans tous les États membres, sans possibilité pour les législateurs nationaux de s’y soustraire. La centralisation est atteinte par des voies opposées, mais l’objectif d’harmonisation est partagé.

Ce qui diffère radicalement, en revanche, c’est ce que cette harmonisation protège. Le texte américain protège en priorité les développeurs d’IA de la responsabilité pour les usages tiers de leurs modèles. L’AI Act européen, lui, fait peser des obligations substantielles sur les fournisseurs, les déployeurs, et en certains cas les utilisateurs finaux.

Main-d’œuvre et énergie : les angles morts communs

Le chapitre VI, consacré à la formation et à la reconversion des travailleurs, est bref et peu contraignant. On recommande d’intégrer l’IA dans les programmes existants et d’étudier les réallocations de tâches. L’Union européenne a, de son côté, intégré dans l’AI Act des dispositions sur l’information des travailleurs lorsqu’ils sont soumis à des systèmes d’IA à haut risque (article 26), mais la question de la reconversion reste largement renvoyée au Fonds social européen et aux politiques nationales.

Sur l’énergie, le texte américain est explicite : pas question que les data centers IA fassent grimper les factures des particuliers, mais on accélère les permis de construction et on encourage la production d’électricité sur site. Une approche cohérente avec la politique d’expansion industrielle, mais qui ne dit pas un mot d’empreinte carbone. L’Europe, avec sa taxonomie verte et ses obligations de reporting ESG, vit là aussi dans un monde parallèle.

Ce que cela signifie pour les DSI européens

Pour un directeur des systèmes d’information français ou européen, ce document est à lire non pas comme un modèle à imiter, mais comme un signal stratégique. Les acteurs américains de l’IA, déjà dominants en termes de modèles fondationnels, vont opérer dans un environnement réglementaire délibérément allégé, au moins sur le territoire américain. Leurs produits, en revanche, devront se conformer à l’AI Act dès lors qu’ils sont déployés en Europe.

Cela crée une asymétrie compétitive réelle : les entreprises européennes qui développent de l’IA subiront des contraintes que leurs concurrentes américaines n’auront pas sur leur marché domestique. Pour les DSI qui achètent des solutions, la due diligence de conformité AI Act reste entière, quelle que soit l’origine géographique du fournisseur.

En attendant, le dialogue transatlantique sur la gouvernance de l’IA, qui avait commencé à se structurer sous l’administration Biden, semble pour l’instant suspendu. Deux visions du monde, deux marchés, et une industrie mondiale qui va devoir jongler entre les deux.

Nous y reviendrons bien entendu lors du prochain Briefing Calipia

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.