
L’IA progresse plus vite que la réglementation ne peut suivre, et la santé mentale se trouve désormais au cœur de ce débat. En août 2025, l’Illinois est devenu le troisième État américain (après l’Utah et le Nevada) à interdire l’utilisation de l’IA dans la prise de décision thérapeutique. La loi interdit aux thérapeutes agréés d’utiliser l’IA pour le diagnostic, la planification du traitement ou la communication directe avec les clients. Les entreprises sont également empêchées de commercialiser des services de « thérapie par IA » qui contournent les professionnels agréés (Washington Post, 2025 ; NY Post, 2025).
Cette mesure reflète des préoccupations croissantes concernant la « Hallucination induite par l’IA », la désinformation et le manque de responsabilité lorsque des personnes vulnérables se tournent vers des chatbots pour une thérapie.
Pourquoi Cela Concerne Tous les Thérapeutes
Même si vous n’exercez pas en Illinois, les effets d’entraînement sont considérables. Les réglementations commencent souvent localement avant de s’étendre à l’échelle nationale—voire mondiale. Cela soulève des questions clés pour nous tous : • Où se situe la limite entre une utilisation acceptable de l’IA (par exemple, le soutien administratif, la prise de notes, la planification) et une utilisation clinique interdite ? • Comment garantir la transparence lors de l’utilisation de ressources générées par l’IA ? • Quelles garanties protègent nos clients de l’idée que les outils d’IA sont des substituts aux soins dispensés par des professionnels agréés ?
Ce Qui Reste Autorisé
Il est important de noter que la loi de l’Illinois n’interdit pas totalement l’IA. Les thérapeutes peuvent toujours l’utiliser pour :
- Les tâches administratives (planification, facturation, documentation).
- La préparation des séances (création de supports thérapeutiques, de fiches ou d’exercices).
- Le soutien professionnel (synthèse de recherches, rédaction de comptes rendus, brainstorming).
Ce qui est explicitement interdit, c’est de laisser l’IA jouer le rôle du thérapeute. Cette distinction renforce ce que beaucoup d’entre nous pensent déjà : l’IA peut soutenir notre travail, mais l’empathie, l’ajustement relationnel et le raisonnement clinique ne peuvent pas être automatisés.
Responsabilité des Thérapeutes : Transparence et Limites
Avec ou sans réglementation, les thérapeutes doivent :
- Être transparents avec les clients. Si l’IA est utilisée pour rédiger une fiche ou générer des suggestions, informez-en les familles. La transparence renforce la confiance.
- Maintenir une revue professionnelle. Modifiez, affinez et validez toujours cliniquement toute sortie générée par l’IA avant de l’intégrer à la thérapie.
- Rester informés. Les lois évoluent rapidement. Être proactif en matière de conformité protège votre licence et vos clients.
La Perspective Globale : Plaidoyer et Éthique
Si certains perçoivent ces interdictions comme excessivement restrictives, elles reflètent des préoccupations réelles concernant la sécurité des clients et la désinformation. Plutôt que de rejeter l’IA en bloc, les thérapeutes peuvent jouer un rôle de plaidoyer—en aidant à façonner des politiques qui trouvent un équilibre entre innovation et protection.
On peut imaginer un avenir où les régulateurs, les cliniciens et les développeurs collaborent pour définir des « zones sûres » d’utilisation de l’IA en thérapie. Par exemple, l’IA pourrait continuer à soutenir les thérapeutes dans l’organisation des données, les signaux de dépistage précoce et le suivi des progrès—tandis que les humains resteraient les seuls décideurs finaux.
Feuille de Route : « Utiliser l’IA Sans Franchir la Ligne »
Voici une vérification en trois étapes pour une utilisation éthique de l’IA :
- Se demander : Utilise-je l’IA pour remplacer ou soutenir mon rôle professionnel ?
- Vérifier : Cette sortie pourrait-elle causer un préjudice ou induire en erreur mon client si elle n’est pas revue ?
- Communiquer : Ai-je divulgué le rôle de l’IA dans la création de ce matériel ou de ce plan ?
Réflexions Finales
L’interdiction de l’Illinois ne vise pas à bloquer la technologie, mais à tracer des limites plus claires pour protéger les clients vulnérables. Pour les thérapeutes, le message est simple : l’IA peut être un outil, mais jamais le thérapeute. À mesure que le paysage juridique évolue, rester proactif, transparent et éthique garantira que nous maintenons à la fois l’innovation et l’humanité au cœur de notre pratique.