
Vers des soins « vraiment adaptés » : comment l’IA personnalise le traitement en santé mentale
La thérapie a toujours comporté une forme d’incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l’intérieur de cette incertitude sans chercher à « résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprenons avec le patient ce qui fonctionne réellement. Même lorsque nous pratiquons avec rigueur, la phase initiale peut ressembler à de l’essai‑erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche conviennent vraiment à cette personne. Pour des patients déjà épuisés ou à risque, ce délai compte. L’IA commence à réduire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer surtout sur l’auto‑évaluation rétrospective (« Comment s’est passée votre semaine ? »), nous pouvons ajouter des signaux du monde réel issus des téléphones et des dispositifs portés : durée et régularité du sommeil, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l’extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorent aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l’information sur les circuits et patterns neuronaux susceptibles d’être liés aux profils symptomatiques ou à la réponse au traitement. L’objectif n’est pas de remplacer le jugement clinique, mais de le renforcer. Le changement pratique consiste à passer d’un instantané à l’admission à une image vivante de la semaine du patient. L’auto‑rapport est essentiel, mais la mémoire est imparfaite et les symptômes peuvent brouiller le rappel. Les données passives et semi‑passives peuvent révéler des schémas que les patients ressentent souvent sans pouvoir les nommer aisément. Si un patient dit aller « bien », alors que son sommeil se fragmente et que son niveau d’activité baisse régulièrement, nous disposons d’un point d’entrée compatissant pour approfondir. Si l’anxiété grimpe de façon fiable à certains moments et dans certains contextes, nous pouvons cesser de la traiter comme aléatoire et commencer à la traiter comme prévisible. C’est ici que l’IA aide : elle peut analyser de larges séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une baisse d’humeur, ce qui prédit l’irritabilité, ou quelle combinaison d’isolement et de perturbation du sommeil précède des pulsions d’automutilation. Voyez‑la comme une table de correspondance entre signaux et hypothèses cliniques. Une variabilité du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la rechute. Une baisse de l’activité peut pointer vers l’évitement et l’anhédonie, suggérant une activation comportementale ou une action guidée par les valeurs. Des changements de routine brusques peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nous aident à poser de meilleures questions plus tôt et à affiner plus vite le plan. Vous avez également évoqué une idée tournée vers l’avenir : combiner des examens cérébraux avec des données de smartphone et d’appareils portés pour estimer la meilleure intervention avant d’entamer un long parcours d’essais et erreurs. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prédire la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas forcément à d’autres populations, appareils et à la complexité du monde réel. Utilisés de façon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique. L’un des bénéfices les plus immédiats concerne le timing. Une classe grandissante d’outils vise à offrir un soutien au moment où les symptômes sont les plus susceptibles de culminer (souvent décrits comme des interventions au bon moment). La thérapie hebdomadaire enseigne des compétences, mais l’épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu’ils sont épuisés, pendant un trajet quand la panique monte, ou juste après un conflit quand les impulsions s’intensifient. Si les données montrent un schéma fiable, perturbation du sommeil suivie d’agitation le lendemain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d’ancrage, un rappel de plan d’adaptation, ou un micro‑exercice qui reconnecte l’instant à la formulation que vous avez élaborée ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance. Ces avancées pourraient aussi élargir l’accès dans un contexte de pénurie de professionnels. Tout le monde ne peut pas suivre des séances régulières, et beaucoup n’accèdent aux soins qu’en situation de crise. Des soutiens numériques soigneusement conçus peuvent offrir une continuité sur mesure à ceux qui peinent à accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lorsque les séances ont lieu. Les limites éthiques sont non négociables. Les données personnelles doivent reposer sur l’adhésion explicite (opt‑in), être limitées à une finalité déterminée et faciles à mettre en pause ou à arrêter. L’approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n’avons pas besoin de contenus privés (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‑ins. Dans la mesure du possible, l’information doit être anonymisée ou dé‑identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu’elle ne puisse raisonnablement pas être rattachée à une personne. La même logique s’applique aux IA génératives utilisées pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles devraient idéalement être locales (installées et exécutées sur un appareil ou un serveur interne sécurisé) plutôt que d’envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites claires sur les données saisies,









