Les États-Unis sont entrés dans une phase de confrontation réglementaire sur l’intelligence artificielle. Alors que le Congrès fédéral peine à adopter un cadre national cohérent, 38 États ont voté leurs propres lois sur l’IA entre 2024 et 2026, créant un patchwork juridique que les entreprises technologiques jugent ingérable. Le débat oppose une approche fédérale permissive, favorable à l’innovation, à des initiatives étatiques parfois strictes, inspirées du modèle européen.

L’échec du cadre fédéral unifié

Depuis l’executive order de Joe Biden sur l’IA en octobre 2023, le Congrès n’a pas réussi à voter de loi fédérale structurante. Le AI Foundation Model Transparency Act, présenté en 2025 par un groupe bipartisan, a été bloqué en commission face aux divergences entre républicains et démocrates sur le niveau de régulation acceptable. Les républicains favorisent une approche sectorielle légère, tandis que les démocrates poussent pour des obligations transversales de transparence et de responsabilité.

En mars 2026, le sénateur Chuck Schumer a relancé les discussions avec un nouveau projet, le AI Innovation and Safety Act, qui propose un compromis : des obligations minimales de transparence pour les modèles frontier (tests de sécurité, déclaration des capacités) combinées à un cadre de safe harbor pour les entreprises qui respectent des standards volontaires. Selon Politico, le texte a peu de chances d’être adopté avant les élections de mi-mandat de novembre 2026.

La mosaïque des lois étatiques

Face à l’inaction fédérale, les États ont pris les devants. La Californie a adopté le SB 1047 (amendé) en 2025, imposant des évaluations de sécurité pour les modèles d’IA entraînés au-delà d’un certain seuil de calcul. Le Colorado a voté une loi sur la discrimination algorithmique dans l’emploi et le crédit, exigeant des audits annuels. L’Illinois a étendu son Biometric Information Privacy Act pour couvrir les systèmes de reconnaissance faciale basés sur l’IA.

Le Texas a pris une direction opposée avec le AI Freedom Act, qui interdit aux agences étatiques de restreindre le développement ou le déploiement de systèmes d’IA sans autorisation législative explicite. La Floride a adopté une approche similaire, créant une zone franche réglementaire (regulatory sandbox) pour les startups d’IA. Au total, selon le décompte de la National Conference of State Legislatures, 214 projets de loi relatifs à l’IA ont été déposés dans les parlements étatiques en 2025-2026, dont 67 ont été adoptés.

Les entreprises technologiques entre deux feux

Les grandes entreprises d’IA se retrouvent dans une situation paradoxale : elles réclament un cadre fédéral unifié tout en s’opposant aux régulations les plus contraignantes. OpenAI, Google et Microsoft ont créé en 2025 le Frontier Model Forum, un consortium qui propose des standards volontaires en matière de sécurité et de transparence. Leur stratégie consiste à démontrer au Congrès que l’autorégulation fonctionne, tout en plaidant pour une préemption fédérale qui annulerait les lois étatiques les plus strictes.

Anthropic a adopté une position différente en soutenant publiquement certaines régulations étatiques. L’entreprise a collaboré avec les législateurs californiens sur le SB 1047 et publié des propositions de régulation détaillées sur son blog. Cette stratégie vise à positionner Anthropic comme l’acteur responsable du secteur, un argument commercial auprès des clients enterprise et des administrations fédérales soucieuses de conformité.

Les secteurs les plus touchés

Trois secteurs concentrent l’essentiel de l’activité réglementaire étatique. Le premier est l’emploi et les ressources humaines : 23 États ont voté ou proposé des lois encadrant l’utilisation de l’IA dans le recrutement, les évaluations de performance et les décisions de licenciement. Le deuxième secteur est la santé, où 18 États imposent des obligations de transparence pour les diagnostics assistés par IA et les systèmes de triage. Le troisième est le secteur financier, avec 15 États réglementant l’utilisation de l’IA dans les décisions de crédit et d’assurance.

Le secteur éducatif émerge comme un quatrième front. Suite au déploiement massif d’outils IA dans les écoles, 12 États ont voté des lois encadrant l’utilisation des modèles de langage en milieu scolaire, avec des exigences de consentement parental et de protection des données des mineurs qui varient considérablement d’un État à l’autre.

La comparaison avec l’Europe

Le contraste avec l’approche européenne est saisissant. L’Union européenne a adopté l’AI Act en 2024, un cadre unifié qui s’applique à l’ensemble du marché unique. Aux États-Unis, l’absence de texte fédéral équivalent crée une fragmentation juridique comparable à celle qui existait pour la protection des données avant le RGPD européen — à la différence près que les États-Unis n’ont toujours pas d’équivalent au RGPD non plus.

Certains observateurs voient dans cette fragmentation un avantage compétitif : la flexibilité réglementaire permettrait aux entreprises américaines d’innover plus rapidement que leurs concurrentes européennes, soumises à un cadre unique et potentiellement rigide. D’autres, comme la professeure de droit Cynthia Dwork de Harvard, avertissent que le patchwork étatique crée une incertitude juridique qui freine en réalité l’investissement et le déploiement à grande échelle.

FAQ

Les États-Unis auront-ils un AI Act comme l’Europe ?

Pas à court terme. Le système politique américain, fondé sur la séparation des pouvoirs entre le fédéral et les États, rend improbable l’adoption d’un cadre aussi unifié que l’AI Act européen. L’approche la plus probable reste un cadre fédéral minimal complété par des régulations sectorielles et étatiques.

Quels États ont les lois IA les plus strictes ?

La Californie, le Colorado et l’Illinois disposent des cadres les plus contraignants, avec des obligations de transparence, d’audit et de responsabilité. À l’opposé, le Texas et la Floride ont adopté des approches permissives favorisant l’innovation et limitant l’intervention réglementaire.

Quel impact pour les entreprises françaises opérant aux États-Unis ?

Les entreprises françaises qui déploient des solutions IA sur le marché américain doivent se conformer à la législation de chaque État où elles opèrent. Cette complexité favorise les grandes entreprises capables d’absorber les coûts de conformité, et représente une barrière à l’entrée pour les startups européennes cherchant à s’implanter aux États-Unis.