
La thérapie a toujours composé une forme d'incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l'intérieur de cette incertitude sans chercher à « Résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprénons avec le patient ce qui fonctionne vraiment. Même lorsque nous prions avec rigueur, la phase initiale peut ressembler à de lsessi‐erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche sont vraiment à cette personne. Pour des patients décédés ou à risque, ce délai compte.
L'IA commence à produire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer sur l'auto-évaluation rétrospective (« Comment votre semaine est passée ? »), nous avons pu accéder des signes du monde réel issus des téléphones et des dispositifs portés : durée et régularité du Sommet, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l'extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorer aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l'information sur les circuits et modèles neuronaux susceptibles d'être liés aux profils symptomatiques ou à la réponse au traitement. L'objectif n'est pas de remplacer le jugement clinique, mais de le renforcer.
Le changement pratique consiste à passer d'un instant à l'autre. L'auto-rapport est essentiel, mais la mémoire est imparfaite et les symptômes peu brouiller le rappel. Les données passives et semi-passives peuvent révéler des schémas que les patients résistants peuvent sans doute les nommer avoir. Si un patient dit aller « bien », adors que son sommeil se fragmente et que son niveau d'activité soit réglementé, nous avons d'un point d'entrée compatissant pour approuver. Si l'anxiété grimpe de facon fiable à certains moments et dans certains contextes, nous avons besoin de la traite comme aléatoire et commence à la traite comme prévisible.
C'est ici que l'IA aide : elle peut analyser de grandes séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une masse d'humeur, ce qui prédit l'irritabilité, ou quelle combinaison d'isolement et de perturbation du sommel précède des impulsions d'automutilation. Voyez‐la comme une table de correspondance entre signes et hypothèses cliniques. Une variété du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la chute. Une banque de l'activité peut pointer vers l'émission et l'émission, suggérant une activation concomitante ou une action guidée par les valeurs. Des changements de routine bruts peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nousident à poser de meilleures questions plus tôt et à affiner plus vaut le plan.
Vous avez également adopté une idée tournée vers l'avenir : combiner des examens cérébraux avec des données de smartphone et d'appareils portés pour être la meilleure intervention avant d'être un long parcours d'essai et d'erreur. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prévoir la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas nécessairement à d'autres populations, outils et à la complexité du monde réel. Utilisés de facçon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique.
Un des bénéfices les plus importants concerne le timing. Une classe grandissante d'outils vise à offrir un soutien au moment où les colloques sont les plus sensibles de culminer (souvent critiques comme des interventions au bon moment). La thérapie hebdomadaire enseignement des compétences, mais l'épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu'il y a eu, pendant un projet quand la panique monte, ou juste après un conflit quand les impulsions s'intensifient. Si les données montrent un schéma fiable, perturbation du Sommet suivant d=agir le prêtermain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d=ancre, un rappel de plan d=adaptation, ou un micro-exercice qui reconnecte l=instant à la formulation que vous avez développé ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance.
Ces avancées peuvent aussi élargir l'accès dans un contexte de pénalisation de professionnels. Tout le monde ne peut pas suivre des séances réglementaires, et beaucoup n'accèdent aux soins qu'en situation de crise. Des soutiens numériques soigneusement conçus peuvent proposer une continuité sur mesure à ceux qui peuvent accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lors des séances ont lieu.
Les limites éthiques sont non négociables. Les données personnelles doivent déposer sur l'adhésion explicite (opt‐in), être limitées à une finale déterminée et faciliter à mettre en pause ou à arrêter. L'approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n'avons pas besoin de contenu privé (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‐ins. Dans la mesure du possible, l'information doit être anonymisée ou dé-identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu'elle ne pusse raisonnablement pas être rattachée à une personne.
La même logique s'applique aux IA génériques utilisés pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles doivent être idéalement locales (installations et exécutées sur un appareil ou un service interne sécurisé) plutôt que d'envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu'un consentement clair explicite, des limites clés sur les données tailles, et une explication transparente de la destination des informations, de qui peut y accéder et de la gestion dont elles sont stockées.
Et si un outil touche au risque suicidaire, l'accord doit être explicite : ce qui est surveillé, qui le voit, ce qui déclenche une procédure d'escalade, et ce dont l'outil n'est pas responsable. Tout système affirmant pouvoir « protéger le risque suicidaire » doit être traité comme une allégation clinique à haut risque, nécessitant des premières solides, de la transparence et un protocole de sécurité clair.
Alors, comment intégrer tout ce qu'en tant que thérapeutes sans perdre le cœur de la thérapie ? Commencez petit et clinique. Choisissez une cible (sommeil, photos de panique, invitation, pulsations d'automutilation). Choisissez de concert une ou deux mesures perçues comme aides plutôt qu'invasives. Décidez ensemble comment les éclairages seront utilisés : orienter le focus des séances, planifier pour des fenêtres prévisibles, ou évaluer l'efficacité d'une nouvelle intervention. Puis évaluez cela comme toute intervention : a‐t‐il acquis le pouvoir d=agir ou l=auto‐critique ? A‐t‐il déclaré les schémas ou ajouté de la pression ? L.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.I.
Si nous exigeons des préuves, un suivi étroitant, une implication clinique et une réglementation, l'IA peut faire les secours inutiles en nous aidant à trouver plus que les personnes aux interventions efficaces et à libérer le soutien plus près des moments réels de besoin. La relation demeure le lien du traitement. Les données nous identifier simplement à voir la carte plus tôt.
Références
Association américaine de psychiatrie (s. d.). Le modèle d'évaluation de l'application. Consulter le 8 février 2026, à partir de https://www.psychiatry.org/psychiatres/practice/mental-health-apps/the-app-evaluation-model
Agarwal, S., Jalan, M., Wilcox, H. C., Sharma, R., Hill, R., Pantalone, E., Thrul, J., Rainey, J. C. et Robinson, K. A. (2022). Évaluation des applications mobiles en santé mentale (exposé technique no 41; AHRQ Publication no 22-EHC016). Agence de recherche et de qualité en santé. https://doi.org/10.23970/AHRQEPCTB41
Fitzpatrick, K. K., Darcy, A., et Vierhile, M. (2017). Fournir une thérapie cognitive comportementale aux jeunes adultes présentant des symptômes de dépression et d'anxiété à l'aide d'un agent conversationnel entièrement automatisé (Woebot) : Un essai contrôlé randomisé. JMIR Santé mentale, 4(2), e19. https://doi.org/10.2196/mental.7785
von Lützow, U., Neuendorf, N. L., et Scherr, S. (2025). Efficacité des interventions d'adaptation juste à temps pour améliorer la santé mentale et le bien-être psychologique : examen systématique et méta-analyse. Santé mentale, 28(1), e301641. https://doi.org/10.1136/bmjment-2025-301641
Organisation mondiale de la santé. (2019). Recommandations sur les interventions numériques pour le renforcement du système de santé. Organisation mondiale de la santé. https://www.who.int/publications/i/item/978924155505
U.S. Food and Drug Administration. (2021, 12 janvier). La FDA publie un plan d'action sur l'intelligence artificielle et l'apprentissage des machines [Communiqué de presse]. https://www.fda.gov/news-events/press-annonces/fda-releases-artificiel-intelligencemachine-learning-action-plan
