
L'IA progresse plus rapidement que la réglementation ne le peut, et la santé mentale est maintenant au cœur de ce débat. En août 2025, l'Illinois troisième État américain (après l'Utah et le Nevada) interdire l'utilisation de l'IA dans la prise de décision thérapeutique. La loi interdit aux thérapeutes autorisés d'utiliser l'IA pour le diagnostic, la planification du traitement ou la communication directe avec le client. Les entreprises sont également exclues de la commercialisation des services de "thérapie AI" qui contournent les professionnels autorisés (Washington Post, 2025; Poste de New York, 2025).
Ce mouvement reflète les préoccupations croissantes au sujet de la psychose de l'IA, de la désinformation et du manque de responsabilisation lorsque les personnes vulnérables se tournent vers les chatbots pour la thérapie.
Pourquoi cela compte pour les thérapeutes partout
Même si vous ne pratiquez pas en Illinois, les effets d'entraînement sont significatifs. Les règlements commencent souvent localement avant de s'étendre au niveau national.—ou mondial. Il soulève des questions clés pour nous tous :
- Où est la ligne entre l'utilisation acceptable de l'IA (p. ex., soutien administratif, prise de notes, calendrier) et l'utilisation clinique inadmissible?
- Comment assurer la transparence lors de l'utilisation des ressources générées par l'IA?
- Quelles mesures de protection protègent nos clients contre l'hypothèse que les outils d'IA remplacent les soins autorisés?
Quoi encore permis
Fait important, la loi de l'Illinois n'interdit pas totalement l'IA. Les thérapeutes peuvent encore utiliser l'IA pour:
- Tâches administratives (horaire, facturation, documentation).
- Préparation des séances (créer du matériel thérapeutique, des documents ou des feuilles de travail).
- Appui professionnel (résumer la recherche, rédiger des notes de progrès, réfléchir aux idées).
Ce qui est explicitement interdit, c'est de laisser l'IA agir comme thérapeute. Cette distinction renforce ce que beaucoup d'entre nous croient déjà : l'IA peut soutenir notre travail—mais l'empathie, l'attitude relationnelle et le raisonnement clinique ne peuvent pas être automatisés.
Responsabilité thérapeute : transparence et limites
Avec ou sans régulation, les thérapeutes devraient:
- Soyez transparent avec les clients. Si l'IA est utilisée pour rédiger une feuille de travail ou générer des suggestions, informez les familles. La transparence renforce la confiance.
- Maintenir l'examen professionnel. Toujours modifier, affiner et valider cliniquement toute sortie générée par l'IA avant de l'amener en thérapie.
- Restez informé. Les lois changent rapidement. Être proactif au sujet de la conformité protège votre licence et vos clients.
L'image la plus grande: plaidoyer et éthique
Bien que certains considèrent les interdictions comme trop restrictives, elles reflètent de véritables préoccupations au sujet de la sécurité des clients et de la désinformation. Plutôt que de rejeter l'IA, les thérapeutes peuvent jouer un rôle de plaidoyer—aider à élaborer des politiques qui établissent un équilibre entre innovation et protection.
Nous pouvons imaginer un avenir où les régulateurs, les cliniciens et les développeurs collaborent pour définir des « zones de sécurité » pour l'utilisation de l'IA en thérapie. Par exemple, l'IA pourrait continuer à soutenir les thérapeutes organisation des données, indicateurs de dépistage précoce et suivi des progrès—alors que les humains restent les décideurs ultimes.
Feuille de route à emporter: "Utiliser l'IA sans franchir la ligne"
Voici une simple vérification en trois étapes pour une utilisation éthique de l'IA:
- Demandez : Est-ce que j'utilise l'IA pour remplacer ou appui Mon rôle professionnel ?
- Vérification : Cette sortie pourrait-elle nuire ou induire mon client en erreur s'il n'est pas examiné?
- Communiquer : Ai-je divulgué le rôle de l'IA dans la création de ce matériel ou de ce plan?
Réflexions finales
L'interdiction de l'Illinois n'est pas d'arrêter la technologie—il s'agit d'établir des limites plus claires pour protéger les clients vulnérables. Pour les thérapeutes, le message est simple : L'IA peut être un outil, mais jamais le thérapeute. À mesure que le paysage juridique évolue, rester proactif, transparent et éthique nous permettra de garder l'innovation et l'humanité au cœur de notre pratique.
