
La thérapie a toujours comporté une forme d’incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l’intérieur de cette incertitude sans chercher à « résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprenons avec le patient ce qui fonctionne réellement. Même lorsque nous pratiquons avec rigueur, la phase initiale peut ressembler à de l’essai‑erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche conviennent vraiment à cette personne. Pour des patients déjà épuisés ou à risque, ce délai compte.
L’IA commence à réduire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer surtout sur l’auto‑évaluation rétrospective (« Comment s’est passée votre semaine ? »), nous pouvons ajouter des signaux du monde réel issus des téléphones et des dispositifs portés : durée et régularité du sommeil, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l’extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorent aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l’information sur les circuits et patterns neuronaux susceptibles d’être liés aux profils symptomatiques ou à la réponse au traitement. L’objectif n’est pas de remplacer le jugement clinique, mais de le renforcer.
Le changement pratique consiste à passer d’un instantané à l’admission à une image vivante de la semaine du patient. L’auto‑rapport est essentiel, mais la mémoire est imparfaite et les symptômes peuvent brouiller le rappel. Les données passives et semi‑passives peuvent révéler des schémas que les patients ressentent souvent sans pouvoir les nommer aisément. Si un patient dit aller « bien », alors que son sommeil se fragmente et que son niveau d’activité baisse régulièrement, nous disposons d’un point d’entrée compatissant pour approfondir. Si l’anxiété grimpe de façon fiable à certains moments et dans certains contextes, nous pouvons cesser de la traiter comme aléatoire et commencer à la traiter comme prévisible.
C’est ici que l’IA aide : elle peut analyser de larges séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une baisse d’humeur, ce qui prédit l’irritabilité, ou quelle combinaison d’isolement et de perturbation du sommeil précède des pulsions d’automutilation. Voyez‑la comme une table de correspondance entre signaux et hypothèses cliniques. Une variabilité du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la rechute. Une baisse de l’activité peut pointer vers l’évitement et l’anhédonie, suggérant une activation comportementale ou une action guidée par les valeurs. Des changements de routine brusques peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nous aident à poser de meilleures questions plus tôt et à affiner plus vite le plan.
Vous avez également évoqué une idée tournée vers l’avenir : combiner des examens cérébraux avec des données de smartphone et d’appareils portés pour estimer la meilleure intervention avant d’entamer un long parcours d’essais et erreurs. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prédire la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas forcément à d’autres populations, appareils et à la complexité du monde réel. Utilisés de façon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique.
L’un des bénéfices les plus immédiats concerne le timing. Une classe grandissante d’outils vise à offrir un soutien au moment où les symptômes sont les plus susceptibles de culminer (souvent décrits comme des interventions au bon moment). La thérapie hebdomadaire enseigne des compétences, mais l’épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu’ils sont épuisés, pendant un trajet quand la panique monte, ou juste après un conflit quand les impulsions s’intensifient. Si les données montrent un schéma fiable, perturbation du sommeil suivie d’agitation le lendemain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d’ancrage, un rappel de plan d’adaptation, ou un micro‑exercice qui reconnecte l’instant à la formulation que vous avez élaborée ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance.
Ces avancées pourraient aussi élargir l’accès dans un contexte de pénurie de professionnels. Tout le monde ne peut pas suivre des séances régulières, et beaucoup n’accèdent aux soins qu’en situation de crise. Des soutiens numériques soigneusement conçus peuvent offrir une continuité sur mesure à ceux qui peinent à accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lorsque les séances ont lieu.
Les limites éthiques sont non négociables. Les données personnelles doivent reposer sur l’adhésion explicite (opt‑in), être limitées à une finalité déterminée et faciles à mettre en pause ou à arrêter. L’approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n’avons pas besoin de contenus privés (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‑ins. Dans la mesure du possible, l’information doit être anonymisée ou dé‑identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu’elle ne puisse raisonnablement pas être rattachée à une personne.
La même logique s’applique aux IA génératives utilisées pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles devraient idéalement être locales (installées et exécutées sur un appareil ou un serveur interne sécurisé) plutôt que d’envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites claires sur les données saisies, et une explication transparente de la destination des informations, de qui peut y accéder et de la manière dont elles sont stockées.
Et si un outil touche au risque suicidaire, l’accord doit être explicite : ce qui est surveillé, qui le voit, ce qui déclenche une procédure d’escalade, et ce dont l’outil n’est pas responsable. Tout système affirmant pouvoir « détecter le risque suicidaire » doit être traité comme une allégation clinique à haut risque, nécessitant des preuves solides, de la transparence et un protocole de sécurité clair.
Alors, comment intégrer tout cela en tant que thérapeutes sans perdre le cœur de la thérapie ? Commencez petit et clinique. Choisissez une cible (sommeil, pics de panique, évitement, pulsions d’automutilation). Choisissez de concert une ou deux mesures perçues comme aidantes plutôt qu’invasives. Décidez ensemble comment les éclairages seront utilisés : orienter le focus des séances, planifier pour des fenêtres prévisibles, ou évaluer l’efficacité d’une nouvelle intervention. Puis évaluez cela comme toute intervention : a‑t‑il accru le pouvoir d’agir ou l’auto‑critique ? A‑t‑il clarifié les schémas ou ajouté de la pression ? L’intégration réussit lorsque le patient ressent plus de choix, plus de clarté et un soulagement plus rapide.
Si nous exigeons des preuves, un suivi étroit, une implication clinique et une réglementation, l’IA peut réduire les souffrances inutiles en nous aidant à apparier plus tôt les personnes aux interventions efficaces et à délivrer le soutien plus près des moments réels de besoin. La relation demeure le fondement du traitement. Les données nous aident simplement à voir la carte plus tôt.
Références
American Psychiatric Association. (s. d.). The app evaluation model. Consulté le 8 février 2026, à partir de https://www.psychiatry.org/psychiatrists/practice/mental-health-apps/the-app-evaluation-model
Agarwal, S., Jalan, M., Wilcox, H. C., Sharma, R., Hill, R., Pantalone, E., Thrul, J., Rainey, J. C., & Robinson, K. A. (2022). Evaluation of mental health mobile applications (Technical Brief No. 41; AHRQ Publication No. 22-EHC016). Agency for Healthcare Research and Quality. https://doi.org/10.23970/AHRQEPCTB41
Fitzpatrick, K. K., Darcy, A., & Vierhile, M. (2017). Delivering cognitive behavior therapy to young adults with symptoms of depression and anxiety using a fully automated conversational agent (Woebot): A randomized controlled trial. JMIR Mental Health, 4(2), e19. https://doi.org/10.2196/mental.7785
von Lützow, U., Neuendorf, N. L., & Scherr, S. (2025). Effectiveness of just-in-time adaptive interventions for improving mental health and psychological well-being: A systematic review and meta-analysis. BMJ Mental Health, 28(1), e301641. https://doi.org/10.1136/bmjment-2025-301641
World Health Organization. (2019). Recommendations on digital interventions for health system strengthening. World Health Organization. https://www.who.int/publications/i/item/9789241550505
U.S. Food and Drug Administration. (2021, January 12). FDA releases artificial intelligence/machine learning (AI/ML) action plan [Press release]. https://www.fda.gov/news-events/press-announcements/fda-releases-artificial-intelligencemachine-learning-action-plan
