Points clés

  • Le Tennessee vote à l’unanimité une loi interdisant les IA se présentant comme des professionnels de santé mentale
  • Le projet SB 1493 fait de l’entraînement d’un chatbot à fournir un soutien émotionnel un crime de classe A
  • Les dommages civils peuvent atteindre 150 000 dollars de dommages liquidés par plaignant
  • La loi entre en vigueur le 1er juillet 2026

Un vote qui ne laisse pas de place au doute

Quand un texte de loi passe le Sénat par 32 voix à 0, puis la Chambre par 94 à 0, le message est sans ambiguïté. Le Tennessee a décidé que l’intelligence artificielle n’a pas sa place dans le fauteuil du thérapeute. Le gouverneur Bill Lee a signé le SB 1580, qui interdit le déploiement de tout système IA se présentant comme un professionnel qualifié en santé mentale.

Mais ce n’est pas tout. Le projet SB 1493 va plus loin — beaucoup plus loin. Il criminalise l’acte même d’entraîner une IA à fournir un soutien émotionnel, à développer des relations affectives avec des individus, à simuler des caractéristiques humaines, ou à se faire passer pour un être humain. La sanction : un crime de classe A (felony), l’une des catégories les plus lourdes du code pénal américain.

Le constat : une urgence réelle, une réponse disproportionnée ?

Le contexte qui a motivé cette loi est tragique. Plusieurs cas médiatisés aux États-Unis ont impliqué des chatbots compagnons dans des situations de détresse psychologique, dont certaines ont eu des issues fatales. Selon WKRN, les législateurs ont été particulièrement marqués par les témoignages de parents d’adolescents ayant développé des dépendances à des chatbots de type Character.AI.

Les chiffres de la crise de santé mentale américaine donnent du poids à cette préoccupation. En 2025, 60 % des jeunes Américains rapportaient des symptômes de dépression ou d’anxiété, selon les CDC. Face à une pénurie de professionnels de santé mentale (estimée à 340 000 praticiens manquants par la Kaiser Family Foundation), les chatbots sont devenus une solution de substitution pour des millions de personnes.

La thèse : criminaliser n’est pas protéger

Interdire les chatbots thérapie est compréhensible. Les criminaliser est autre chose. En faisant de l’entraînement d’un chatbot émotionnel un crime passible de prison, le Tennessee crée un précédent dangereux.

Premièrement, la définition est vague. Fournir un soutien émotionnel couvre un spectre immense. Un chatbot de méditation guidée fournit-il un soutien émotionnel ? Un assistant IA qui répond « je comprends votre frustration » simule-t-il des caractéristiques humaines ? La loi ne le précise pas.

Deuxièmement, criminaliser l’entraînement revient à punir l’intention, pas le résultat. Un chercheur en IA qui travaille sur la compréhension émotionnelle des modèles de langage pourrait théoriquement être poursuivi. L’effet dissuasif sur la recherche en IA et santé mentale est prévisible.

Troisièmement, et c’est le plus problématique : cette loi n’aide pas les personnes en détresse. Elle supprime un outil imparfait sans proposer d’alternative. Les 340 000 praticiens manquants ne vont pas apparaître parce qu’on a interdit les chatbots.

Les arguments de l’autre côté

Les partisans de la loi rétorquent que la gravité des risques justifie une réponse forte. Selon National Law Review, le cadre pénal est nécessaire pour dissuader les entreprises qui priorisent l’engagement utilisateur au détriment de la sécurité. Un chatbot qui encourage un adolescent à rester éveillé pour continuer la conversation n’est pas un outil de santé : c’est un mécanisme de rétention. La criminalisation envoie un signal que la régulation civile n’a pas réussi à envoyer.

L’appel : réguler, pas criminaliser

Le Tennessee a raison de poser la question. Il a tort d’y répondre par le code pénal. Ce dont nous avons besoin, ce sont des standards de certification pour les outils IA en santé mentale, des obligations de transparence sur les mécanismes d’engagement, des protocoles d’escalade vers des professionnels humains, et des audits indépendants. Criminaliser le soutien émotionnel par une IA, c’est utiliser un marteau-pilon là où il faudrait un scalpel.

FAQ

Cette loi s’applique-t-elle en dehors du Tennessee ?

Non, elle ne concerne que le Tennessee. Mais selon Transparency Coalition, le Nebraska et la Géorgie travaillent sur des textes similaires. Un effet domino entre États est possible.

Les applications comme Headspace ou Calm sont-elles concernées ?

Le texte actuel cible spécifiquement les systèmes se présentant comme des professionnels de santé mentale ou fournissant un soutien émotionnel. Les applications de méditation pourraient se retrouver dans une zone grise juridique si leurs fonctionnalités IA sont jugées comme du soutien émotionnel.