Le 20 mars 2026, la Maison-Blanche a publié un document attendu depuis des mois : le National Policy Framework for Artificial Intelligence. Plus qu’un simple cadre réglementaire, ce texte constitue la feuille de route législative que l’administration souhaite voir adoptée par le Congrès. Il dessine les contours de ce que pourrait devenir la première loi fédérale américaine sur l’intelligence artificielle.
Les six piliers du cadre
Le document s’articule autour de six priorités : la sécurité des enfants, la protection des communautés, la liberté d’expression, le soutien à l’innovation, la préparation de la main-d’œuvre et la préemption fédérale ciblée. Ce dernier point est sans doute le plus significatif. La Maison-Blanche recommande explicitement au Congrès de limiter la capacité des États à adopter leurs propres lois sur l’IA, afin d’éviter une fragmentation réglementaire jugée néfaste pour l’industrie.
Cette position intervient alors que plusieurs États — Colorado, Californie, Illinois — ont déjà adopté ou envisagent des législations spécifiques. Le Colorado AI Act, entré en vigueur début 2026, impose des obligations de documentation, de transparence et d’atténuation des risques aux développeurs et déployeurs de systèmes d’IA à haut risque. La Maison-Blanche estime que la multiplication de telles initiatives crée un patchwork réglementaire coûteux et difficile à respecter pour les entreprises.
Pas de nouveau régulateur
L’un des choix les plus remarqués du cadre est le refus de créer une nouvelle agence fédérale dédiée à l’IA. L’administration préfère une approche dite « sectorielle » : chaque régulateur existant — la FTC pour le commerce, la FDA pour la santé, la SEC pour la finance — reste compétent dans son domaine, avec pour mission d’adapter ses règles aux spécificités de l’IA.
Cette position contraste avec le modèle européen, où l’AI Act prévoit la création d’un Bureau européen de l’IA chargé de superviser les systèmes à usage général. Elle reflète aussi une volonté politique claire : ne pas ajouter de couche bureaucratique dans un contexte où l’administration américaine cherche à maintenir son avantage compétitif face à la Chine dans la course à l’IA.
Le contexte européen en parallèle
De l’autre côté de l’Atlantique, le Conseil de l’Union européenne a adopté le 13 mars 2026 sa position sur la révision de l’AI Act. Parmi les ajouts notables : l’interdiction explicite de l’utilisation de l’IA pour générer des contenus sexuels non consentis ou des contenus d’abus sexuels sur mineurs. La Commission européenne a également proposé de reporter de 16 mois l’entrée en application des règles sur les systèmes d’IA à haut risque, le temps que les normes techniques soient finalisées.
Ce décalage entre les deux approches — américaine et européenne — illustre un désaccord fondamental sur la manière de réguler l’IA. Les États-Unis privilégient la flexibilité et l’innovation, quitte à encadrer a posteriori. L’Europe mise sur la précaution et les standards contraignants, au risque de ralentir le déploiement.
Ce qu’il faut surveiller
Le cadre de la Maison-Blanche n’a pas force de loi en l’état. Il constitue une recommandation adressée au Congrès, qui devra décider s’il en fait une législation. Compte tenu des divisions politiques actuelles, le chemin parlementaire s’annonce long. Mais le signal est posé : l’administration américaine veut une régulation unifiée, légère et pro-innovation. Que l’on s’en réjouisse ou que l’on s’en inquiète, c’est cette philosophie qui guidera les débats dans les mois à venir.



