
Vers des soins « corrects » : comment l'IA personnalise le traitement de santé mentale
La thérapie a toujours inclus une sorte d'incertitude prudente, et en tant que psychologues et professionnels de la santé mentale, nous savons combien il faut de compétences pour travailler dans cette incertitude sans essayer de « résoudre » une personne trop rapidement. Nous écoutons, évaluons, construisons une formulation, choisissons un point de départ fondé sur des données probantes, puis nous apprenons avec le client ce qui fonctionne réellement. Même lorsque nous pratiquons bien, la phase initiale peut être un essai et une erreur : quelques semaines pour vérifier si cette structure, cette marche et cette approche conviennent vraiment à cette personne. Pour les clients déjà épuisés ou à risque, ce retard est important.
L'IA commence à raccourcir ce délai en utilisant des données personnelles, partagées uniquement avec une autorisation explicite, pour soutenir des décisions plus anciennes et plus précises. Au lieu de s'appuyer principalement sur un auto-rapport rétrospectif (« Comment s'est passé votre semaine? »), nous pouvons ajouter des signaux du monde réel provenant de téléphones et de portables : durée du sommeil et régularité, mouvement et temps sédentaire, rythme quotidien, temps passé à la maison par rapport à l'extérieur, et changements de routine ou de connexion sociale. Dans certains milieux spécialisés, les cliniciens et les chercheurs explorent également les données du cerveau (par exemple, les mesures de l'IRM ou de l'EEG) afin d'ajouter de l'information sur les circuits et les modèles du cerveau qui peuvent être liés aux profils de symptômes ou à la réponse au traitement. L'objectif n'est pas de remplacer le jugement clinique, mais de le renforcer.
Le changement pratique passe d'un instantané à l'admission à une image vivante de la semaine du client. L'autodéclaration est essentielle, mais la mémoire est imparfaite et les symptômes peuvent brouiller les souvenirs. Les données passives et semi-passives peuvent révéler des modèles que les clients ressentent souvent, mais qu'ils ne peuvent pas facilement nommer. Si un client dit qu'il est « fin », mais que son sommeil se fragmente et que son activité diminue régulièrement, nous avons un point d'entrée compatissant pour une exploration plus approfondie. Si l'anxiété augmente de façon fiable à certains moments et contextes, nous pouvons arrêter de la traiter comme aléatoire et commencer à la traiter comme prévisible.
C'est là qu'aide l'IA : elle peut analyser de grandes données de séries chronologiques désordonnées et détecter les relations que l'homme manquerait, ce qui a tendance à se produire avant une chute d'humeur, ce qui prédit l'irritabilité, ou quelle combinaison d'isolement et de troubles du sommeil précède l'automutilation. Pensez-y comme un tableau de traduction des signaux aux hypothèses cliniques. La variabilité du sommeil peut indiquer une réduction de la capacité de régulation des émotions et de la vulnérabilité aux rechutes. Un mouvement réduit peut indiquer l'évitement et l'anhédonie, suggérant une activation comportementale ou une action basée sur des valeurs. Des changements de routine abrupts peuvent signaler une rupture interpersonnelle, une honte ou des problèmes de sécurité. Les données ne diagnostiquent pas; elles nous aident à poser plus tôt de meilleures questions et à affiner le plan plus rapidement.
Vous avez également mis en évidence une idée d'avenir : combiner des scans du cerveau avec un smartphone et des données portables pour estimer la meilleure intervention avant le début d'un long parcours d'essai et d'erreur. Cette orientation est prometteuse, mais elle exige la prudence. Certains modèles peuvent prédire la réponse au traitement dans les milieux de recherche, mais ils ne se généralisent pas entre les populations, les appareils et la complexité du monde réel. Utilisés éthiquement, ces outils devraient fonctionner comme le soutien à la décision, une seconde opinion, jamais un décideur automatique.
L'un des avantages les plus immédiats est le calendrier. Une classe croissante d'outils vise à fournir un soutien lorsque les symptômes sont les plus susceptibles d'augmenter (souvent décrits comme des interventions « juste à temps »). La thérapie hebdomadaire enseigne les compétences, mais le vrai test est de savoir si les clients peuvent y accéder à 23 heures quand ils sont épuisés, pendant un trajet quand la panique se développe, ou juste après le conflit quand les pulsions s'élèvent. Si les données montrent un modèle fiable, une perturbation du sommeil suivie d'agitation du lendemain, ou une isolation suivie d'une rumination tardive, les supports numériques peuvent être chronométrés dans la fenêtre de risque : une courte mise à la terre, un rappel de plan d'adaptation ou un micro-exercice qui relie le moment à la formulation que vous avez construite ensemble. À leur meilleur, ces outils se sentent comme un pont entre les sessions, pas comme une surveillance.
Ces progrès pourraient également élargir l'accès dans un monde de pénuries de fournisseurs. Tout le monde ne peut pas assister à des séances cohérentes, et beaucoup de gens n'ont accès aux soins qu'en période de crise. Des supports numériques soigneusement conçus peuvent offrir une continuité adaptée à ceux qui luttent pour accéder aux services, tout en maintenant la thérapie humaine, relationnelle et collaborative lorsque des séances se produisent.
Les limites éthiques ne sont pas négociables. Les données personnelles doivent être opt‐in, limitées et faciles à mettre en pause ou à arrêter. L'approche la plus sûre est le minimalisme: ne recueillir que ce qui répond à une question clinique. Dans de nombreux cas, nous n'avons pas besoin de contenu privé (messages, audio, contacts); nous avons besoin de motifs (dormez, mouvement, routine) et d'enregistrements brefs. Dans la mesure du possible, l'information doit être anonymisée ou désidentifiée (supprimer les noms, les dates de naissance, les adresses exactes, les coordonnées, les numéros d'enregistrement et tout identifiant unique) de sorte qu'il ne peut raisonnablement être retracé à une personne.
La même logique s'applique à l'IA générative utilisée pour l'écriture ou le support clinique : pour protéger la confidentialité, elle devrait idéalement être locale (téléchargée et exécutée sur un appareil ou un serveur interne sécurisé) plutôt que d'envoyer des informations client à un système en ligne. Si un outil basé sur le cloud est utilisé, il ne devrait s'agir que d'un consentement explicite donné en connaissance de cause, de limites claires quant aux données saisies et d'une explication transparente de l'endroit où l'information se trouve, qui peut y accéder et comment elle est stockée.
Et si un outil touche la suicidalité, l'accord doit être explicite: ce qui est surveillé, qui le voit, ce qui déclenche une escalade, et ce que l'outil est pas C'est le responsable. Tout système prétendant qu'il peut «détecter le risque de suicide» devrait être traité comme une allégation clinique à forte dose exigeant des preuves solides, une transparence et un protocole de sécurité clair.
Alors comment intégrer cela comme thérapeutes sans perdre le cœur de la thérapie ? Commencez petit et clinique. Choisissez une cible (sommeil, pics de panique, évitement, envies d'automutiler). Choisissez en collaboration une ou deux mesures qui se sentent utiles plutôt que envahissantes. Décider ensemble de la façon dont les idées seront utilisées, façonner l'orientation des séances, planifier des fenêtres prévisibles ou évaluer si une nouvelle intervention fonctionne. Puis, examinez-le comme une intervention : a-t-elle augmenté l'organisme ou l'autocritique? A-t-elle clarifié les modèles ou ajouté de la pression? L'intégration réussit lorsque le client ressent plus de choix, plus de clarté et plus de soulagement.
Si nous insistons sur les preuves, la surveillance étroite, la participation clinique et la réglementation, l'IA peut réduire les souffrances inutiles en nous aidant à associer les gens à des interventions efficaces plus rapidement et en apportant un soutien plus proche des moments réels de besoin. La relation demeure le fondement du traitement. Les données nous aident simplement à voir la carte plus tôt.
Références
Association américaine de psychiatrie (n.d.). Le modèle d'évaluation de l'application. Extrait le 8 février 2026, de https://www.psychiatry.org/psychiatres/practice/mental-health-apps/the-app-evaluation-model
Agarwal, S., Jalan, M., Wilcox, H. C., Sharma, R., Hill, R., Pantalone, E., Thrul, J., Rainey, J. C. et Robinson, K. A. (2022). Évaluation des applications mobiles en santé mentale (Résumé technique no 41; publication AHRQ no 22-EHC016). Agence de recherche et de qualité en santé. https://doi.org/10.23970/AHRQEPCTB41
Fitzpatrick, K. K., Darcy, A., et Vierhile, M. (2017). Fournir une thérapie cognitive comportementale aux jeunes adultes présentant des symptômes de dépression et d'anxiété en utilisant un agent conversationnel entièrement automatisé (Woebot): Un essai contrôlé randomisé. JMIR Santé mentale, 4(2), e19. https://doi.org/10.2196/mental.7785
von Lützow, U., Neuendorf, N. L., et Scherr, S. (2025). Efficacité des interventions d'adaptation juste à temps pour améliorer la santé mentale et le bien-être psychologique : examen systématique et méta-analyse. BMJ Santé mentale, 28(1), e301641. https://doi.org/10.1136/bmjment-2025-301641
Organisation mondiale de la santé. (2019). Recommandations sur les interventions numériques pour le renforcement du système de santéOrganisation mondiale de la santé. https://www.who.int/publications/i/item/978924155505
U.S. Food and Drug Administration. (2021, 12 janvier). La FDA publie un plan d'action sur l'intelligence artificielle et l'apprentissage des machines [Communiqué de presse]. https://www.fda.gov/news-events/press-annonces/fda-releases-artificiel-intelligencemachine-learning-action-plan
