Points clés
  • L’AI Act européen entre en application complète le 2 août 2026, avec des sanctions pouvant atteindre 35 millions d’euros
  • Les obligations pour les systèmes IA à haut risque concernent la santé, le recrutement, le crédit et la justice
  • Le report des échéances via l’Omnibus simplifié pose la question de la crédibilité réglementaire européenne
  • Seule une minorité d’entreprises européennes se déclare prête à la mise en conformité
L’Europe s’apprête à franchir un cap historique. Le 2 août 2026, l’AI Act — premier cadre réglementaire mondial dédié à l’intelligence artificielle — entrera en application complète. Sur le papier, c’est une victoire pour le Vieux Continent, qui se pose en gardien éthique face à la course technologique sino-américaine. Dans les faits, la situation est infiniment plus nuancée.

Pourquoi l’AI Act est-il un texte fondateur pour la régulation de l’IA ?

L’AI Act repose sur une approche par les risques qui classe les systèmes d’intelligence artificielle en quatre niveaux : inacceptable, élevé, limité et minimal. Les interdictions les plus sévères — manipulation subliminale, notation sociale, surveillance biométrique de masse — sont sanctionnables depuis février 2025. Mais le cœur du dispositif, celui qui concerne les entreprises au quotidien, n’entre en vigueur qu’en août prochain.Les sanctions sont à la hauteur de l’ambition : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les systèmes interdits. Jusqu’à 15 millions d’euros ou 3 % pour les manquements aux obligations des systèmes à haut risque. Des montants qui rappellent, par leur logique, l’arsenal du RGPD. Reste à savoir si leur application sera aussi timorée.

Le report des échéances fragilise-t-il la crédibilité européenne ?

Le 26 mars 2026, le Parlement européen a voté un report partiel des échéances dans le cadre de l’Omnibus simplifié. Les obligations les plus contraignantes pour les systèmes IA à haut risque de l’Annexe III sont repoussées à 2027. Officiellement, il s’agit de laisser aux entreprises le temps de se préparer. Officieusement, c’est l’aveu que le calendrier initial était irréaliste.Cette décision envoie un signal ambigu. D’un côté, elle témoigne d’un pragmatisme bienvenu face à la complexité technique de la mise en conformité. De l’autre, elle alimente le procès en lenteur que les géants américains et chinois font à l’Europe. Pendant que Bruxelles ajuste ses délais, OpenAI, Google et Baidu déploient sans entraves des modèles toujours plus puissants.

Les entreprises européennes sont-elles prêtes à se conformer ?

Les enquêtes de terrain dressent un portrait préoccupant. La majorité des PME européennes n’ont pas encore engagé de démarche structurée de mise en conformité. Les grands groupes, mieux armés, avancent prudemment, mais se heurtent à des zones grises réglementaires que les lignes directrices de la Commission n’ont pas encore dissipées. Le secteur de la santé, celui du recrutement et les services financiers — trois piliers des systèmes IA à haut risque — naviguent à vue.Le problème n’est pas seulement technique. Il est aussi culturel. L’écosystème européen de l’IA reste largement dépendant de briques technologiques américaines. Réguler des outils que l’on ne produit pas soi-même relève d’une forme de paradoxe stratégique que personne, à Bruxelles, ne semble vouloir nommer.

Un texte fondateur ne suffit pas : il faut une gouvernance à la hauteur

L’AI Act est un texte nécessaire. Il pose des principes que le reste du monde observe avec attention — le Brésil, le Canada et l’Inde s’en inspirent déjà pour leurs propres cadres. Mais un texte ne vaut que par son application. L’Europe a brillé dans l’écriture du RGPD avant de trébucher dans son enforcement, laissant l’Irlande devenir le goulot d’étranglement de la protection des données mondiales.Pour que l’AI Act ne connaisse pas le même sort, il faudra des régulateurs nationaux dotés de moyens réels, une coordination européenne fluide via le Bureau européen de l’IA, et surtout une volonté politique qui ne fléchisse pas au premier lobbying industriel. L’Europe a les valeurs. A-t-elle la volonté ? C’est toute la question qui se posera à partir du 2 août 2026.

FAQ

Quelles sont les sanctions prévues par l’AI Act ?

Les sanctions sont graduées selon la gravité : jusqu’à 35 millions d’euros ou 7 % du chiffre d’affaires mondial pour les systèmes IA interdits, 15 millions ou 3 % pour les systèmes à haut risque non conformes, et 7,5 millions ou 1 % pour les manquements aux obligations de transparence.

L’AI Act s’applique-t-il aux entreprises non européennes ?

Oui. Toute organisation qui développe, commercialise ou déploie un système d’IA utilisé par des personnes situées dans l’Union européenne est soumise à l’AI Act, même si son siège social se trouve hors d’Europe. Le principe d’extraterritorialité suit la même logique que le RGPD.

Quand l’AI Act entre-t-il pleinement en vigueur ?

L’application est progressive : les interdictions des systèmes à risque inacceptable sont en vigueur depuis février 2025, les obligations pour les modèles d’IA à usage général depuis août 2025, et l’ensemble des obligations pour les systèmes à haut risque entreront en application le 2 août 2026, avec un report partiel à 2027 pour certaines catégories.