
En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous vu le virage. L.I.A. n.I. est plus un phenomene loinain réservé aux gros titres de la tech : elle s'insère discretement dans nos platesformes, nos flux de travail et nos espaces d'aide à la décision clinique. Pour nous, la question n'a jamais été de savoir si l'IA serait utilisée en thérapie, mais comment l'utiliser sans comprendre l'éthique, le jugement clinique ni la relation thérapeutique.
Au cours de l'année scolaire, nous avons exploré, testé et évalué de gestion critique plusieurs outils pilotes par l'IA en contexte de téléthérapie. Ce qui ressort le plus est ici : les outils d'IA les plus utiles ne sont pas fortément les plus bleus. Ce sont ces qui réduisent la friction, la charge cognitive et l'exercice professionnel, tout en préservant notre rôle d'autorité clinique.
Évaluer l'accès sans diluer la qualité des soins
Un des progrès les plus significatifs récents est l'usage de l'IA pour élargir l'accès à la thérapie plutôt que pour la remplacer. Des platesformes comme Constant Therapy ont tendu les programmes d'orthophonie et de rémédiation cognitive assistés par IA à d'autres langues, notamment l. L'impact clinique est réel : nous pouvons présenter des exercices à domicile culturel et linguistique pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés.
Après notre expérience, ce type de pratique soutenue par l'IA augmente le transfert des acquis sans acquérir le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie.
Une IA conversationnelle au service de la continuité, pas de la dépendance
Des platesformes de santé mentale comme Wysa, en particulier avec l'arrivée de Wysa Copilot, illustre l'évolution vers des modèles hybrides où l'IA soutient le travail du théâtre au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des savoirs thérapeutiques, tout en maintenant le clinicien dans la boule.
Lors de nos essais d'outils conversationnels similaires, ce que nous avons le plus apprécié n'était pas le chatbot en moi, mais la continuité. Les patients ont accès en séance plus réguliers, plus réfugiés et plus pris à s=enger, car le fil thérapeutique ne s=etait pas entièrement interrompu entre les rendez-vous.
IA pour la parole et le langage : de la pratique, pas du diagnostic
Les progrès de la reconnaissance automatique de la libération conditionnelle ont amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des platesformes de pratique suédoises par l'IA pour augmenter la réédition, la constance et la qualité du rétroaction lors des vues de téléthérapie.
Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurelle — pas comme des évaluateurs et certain pas comme des diagnosticiens. Ils nous ont à recevoir des données plus propres et à observer des patterns, mais l'interprétation de la mesure plein de notre ressort. Utilisée aisi, l'IA doit un lecteur d'efficacité, et non un recours clinique.
Biomarqueurs avocats : des signes cliniques, pas des étiquettes
Autre domaine émergent : l'usage de biomarqueurs avocats des outils qui analysent des caractéristiques de la voix pour représenter de possibles marques de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l'IA clinique.
Dans nos explorations, nous les avons trouvés utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbeux sont plus difficiles à capter, disposer d'un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons tout sauf très clair : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique.
Éthique, régulation et notre responsabilité
Toute adoption de l'IA n'a pas été fluide et c'est hier. En 2025, plusieurs régions ont introduit des restrictions sur l'usage de l'IA dans la prise de décision psychothérapeutique. À nos yeux, ce n'est pas un recul. C'est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles.
En tant que thérapeutiques, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout reste d'IA que nous utilisons doit être transparent, intégré de gestion éthique et clairière secondaire par rapport au raisonnement clinique humain.
Ce que nous emportons dans notre pratique à distance
À partir de nos tests et observations, voici les principes qui guident notre usage de l'IA en téléthérapie :
- Nous utilisons l'IA pour produire la charge administrative et cognitive, pas pour remplacer la pensée.
- Nous choisissons des outils anciens dans la logique clinique, pas dans le simple discours "productivité".
- Nous prions la transparence avec les familles et les patients quant à l'usage des technologies.
- Nous consultons les sorties de l'IA comme des données d'appui, jamais comme des décisions.
Ce qui change en 2026 dans la téléthérapie, ce n'est pas la présence de l'IA, mais la maturité avec laquelle nous l'abordons. Lorsque l'IA est positionnée comme un soutien d'arrière-plan plutôt qu'une autonomie clinique, elle nous permet d'être plus présents, plus réguliers et plus attentifs à nos patients.
La téléthérapie n'a pas besoin de moins d'humanité. Elle a besoin qu'on la garde. Utilisé de gestion responsable, l'IA nous aide précisément à le faire.
