Author name: Dr. Rania Kassir

Uncategorized

Fatigue liée à l’IA chez les cliniciens: Pourquoi davantage d’outils ne sont pas toujours mieux et comment choisir ce qu’ignorer

Au cours de l’année écoulée, de nombreux cliniciens ont constaté l’apparition d’une nouvelle forme d’épuisement dans leur travail. Il ne s’agit ni de la fatigue émotionnelle bien connue qui accompagne le fait de « tenir l’espace » pour autrui, ni d’un simple burn-out administratif. C’est quelque chose de plus subtil. Un flux constant de nouveaux outils d’IA, de mises à jour, de prompts, de plateformes et de promesses, tous prétendant rendre la pratique plus simple, plus rapide et plus intelligente. Au lieu d’un soulagement, beaucoup de cliniciens se sentent dépassés, distraits et incertains quant à leurs priorités. C’est à cela que ressemble la fatigue liée à l’IA en pratique clinique. Au fond, la fatigue liée à l’IA ne concerne pas la technologie en elle-même. Elle tient à la surcharge cognitive. Les cliniciens gèrent déjà des files actives complexes, des responsabilités éthiques, des exigences de documentation et une charge émotionnelle. Lorsque l’IA s’invite sans frontières ni objectif clairs, elle ajoute du bruit plutôt que de la clarté. Le résultat n’est pas une meilleure prise en charge, mais une attention fragmentée et une présence clinique diminuée. L’une des raisons principales du développement de cette fatigue est l’hypothèse selon laquelle davantage d’outils se traduiraient automatiquement par de meilleurs résultats. En réalité, le travail clinique ne bénéficie pas des bascules incessantes. Chaque nouvelle plateforme requiert un apprentissage, une évaluation et une dépense d’énergie mentale. Quand les cliniciens tentent de suivre chaque nouvelle sortie, ils passent souvent plus de temps à gérer des outils qu’à réfléchir cliniquement. Cela érode l’une des ressources les plus précieuses en thérapie : le raisonnement profond et ininterrompu. Autre facteur contributif, la pression d’utiliser l’IA simplement parce qu’elle existe. Une crainte implicite de « prendre du retard » ou de ne pas être assez innovant. Or, l’excellence clinique n’a jamais consisté à utiliser le plus grand nombre d’outils. Elle a toujours consisté à utiliser les bons, de manière délibérée et éthique. L’innovation sans intention améliore rarement la pratique. Il est également important de reconnaître que tous les outils d’IA ne sont pas conçus en pensant aux cliniciens. Beaucoup visent la vitesse, la génération de contenu ou une productivité superficielle. La thérapie, l’évaluation et le diagnostic exigent autre chose : de la nuance, l’acceptation de l’incertitude et une tolérance à la complexité. Les outils qui promettent des réponses instantanées peuvent insidieusement saper la réflexion analytique, surtout lorsque les cliniciens sont déjà fatigués. Choisir ce qu’ignorer n’est donc pas un échec. C’est une compétence clinique. Un point de départ utile consiste à poser une question simple avant d’adopter un outil d’IA : quelle charge cognitive cela réduit-il réellement ? Si un outil fait gagner du temps sur des tâches administratives comme la rédaction de rapports, la synthèse de notes ou l’organisation des informations, il peut préserver l’énergie mentale pour le raisonnement clinique. S’il ajoute un système de plus à consulter, une production de plus à évaluer ou un flux de travail de plus à gérer, il coûte peut-être plus qu’il ne rapporte. Un autre filtre clé est l’alignement avec les valeurs cliniques. Les outils doivent soutenir une pensée fondée sur les preuves, et non la court-circuiter. Ils devraient aider les cliniciens à penser plus clairement, pas moins. Si un outil encourage le copier-coller, la dépendance excessive ou l’acceptation non critique des sorties, il mérite du scepticisme. Un bon usage de l’IA est ressenti comme un soutien, pas comme une injonction. Il est également pertinent de limiter le nombre d’outils utilisés simultanément. Dans la pratique, la plupart des cliniciens n’ont besoin que d’un ou deux appuis d’IA qui s’intègrent naturellement à leur flux de travail. Par exemple, un outil pour le raisonnement structuré ou l’aide à la documentation. Un autre pour la communication ou l’explication. Au-delà, chaque outil doit justifier clairement sa place. La fatigue liée à l’IA diminue aussi lorsque les cliniciens passent de la chasse aux outils à la clarté d’intention. Au lieu de demander quel nouvel outil d’IA est disponible, demandez-vous où se situent les points de friction dans votre pratique. Rédaction de rapports ? Communication avec les parents ? Conceptualisation de cas ? Arriéré administratif ? Commencez par le problème, pas par la plateforme. Cela, à lui seul, filtre la plupart des bruits inutiles. Un point crucial : l’IA ne doit jamais remplacer les pauses réflexives. Certaines des intuitions cliniques les plus importantes émergent du fait de tolérer l’incertitude, de revoir des schémas sur la durée ou de discuter des cas avec des collègues. Si l’usage de l’IA évince ces processus, c’est qu’elle est mal employée. La technologie doit créer de l’espace pour penser, pas remplir chaque interstice. Il existe aussi une dimension culturelle à prendre en compte. Les cliniciens ont besoin de la permission de se désengager des mises à jour constantes. Toutes les nouveautés ne sont pas pertinentes. Toutes les fonctionnalités n’ont pas besoin d’être testées. Rester informé ne signifie pas être submergé. Une pratique durable exige des limites, y compris numériques. Au bout du compte, l’objectif n’est pas de devenir un clinicien « dopé à l’IA ». C’est de rester un clinicien réfléchi, présent et fondé sur les preuves dans un environnement en rapide évolution. L’IA peut être un soutien précieux lorsqu’elle est utilisée avec intention. Elle peut réduire les frictions, organiser la complexité et préserver le temps. Mais seulement lorsque les cliniciens gardent la main sur le quand, le pourquoi et le comment de son utilisation. Dans un champ fondé sur la relation humaine et le jugement clinique, l’usage le plus responsable de l’IA peut parfois consister à choisir de ne pas l’utiliser du tout.

Uncategorized

Claude for Healthcare et ChatGPT Health: À quoi ressemble réellement le nouveau tournant de l’IA clinique

Au cours de la semaine passée, le champ de l’IA en santé est passé de la simple possibilité à une intention affirmée. D’abord est intervenu le lancement de ChatGPT Health, une expérience dédiée à la santé, conçue pour aider les personnes à comprendre leurs informations médicales. Peu après, Anthropic a présenté Claude for Healthcare, une plateforme pensée spécifiquement pour les environnements cliniques, administratifs et de recherche. Ensemble, ces annonces signalent un changement net. L’IA n’est plus positionnée comme un assistant généraliste qui parle de santé au passage. Elle est désormais façonnée autour des réalités mêmes du système de soins. Du point de vue clinique et thérapeutique, cette distinction est importante. ChatGPT Health est centré sur l’histoire personnelle de santé. Il crée, au sein de l’application, un espace de santé distinct et protégé où les utilisateurs peuvent connecter leurs dossiers médicaux et leurs données de bien-être. L’accent est mis sur l’interprétation plutôt que sur l’injonction. Les résultats de laboratoire, les habitudes de vie et les antécédents de santé sont traduits dans un langage clair et accessible. L’expérience est conçue pour aider les individus et les familles à arriver aux rendez-vous mieux préparés, avec des questions plus précises et une compréhension plus solide de leurs propres données. L’un des traits définitoires de ChatGPT Health est son focus sur la communication. Le système adapte ses explications au niveau de compréhension et à l’état émotionnel de l’utilisateur. C’est particulièrement pertinent en contexte thérapeutique, où les familles se sentent souvent dépassées par le langage médical et des informations fragmentées. En réduisant la confusion et la charge cognitive, l’outil favorise des échanges plus substantiels entre cliniciens et familles. Il est important de préciser qu’il ne pose pas de diagnostic, ne prescrit pas et ne remplace pas la prise en charge professionnelle. Son rôle est interprétatif et de soutien. Claude for Healthcare part d’un point de départ très différent. Il est construit autour des systèmes de santé plutôt que des récits individuels. Ses fonctionnalités sont conçues pour gérer la complexité de l’infrastructure clinique, incluant la codification médicale, la littérature scientifique, les cadres réglementaires et les flux de travail administratifs. Cela positionne Claude moins comme un interprète conversationnel que comme un outil de raisonnement et de synthèse pour les professionnels. Pour les cliniciens, cela signifie un appui sur des tâches souvent en arrière-plan des soins, mais très consommatrices de temps et d’énergie mentale. Résumer des dossiers denses, aligner la documentation sur les preuves, naviguer dans les exigences de prise en charge et intégrer la recherche au raisonnement clinique sont autant de domaines où la conception de Claude est particulièrement solide. Sa capacité à maintenir la cohérence sur de longues entrées complexes reflète la manière dont les cliniciens raisonnent au fil du temps, plutôt que par moments isolés. Une manière claire de penser la différence Élément ChatGPT Health Claude for Healthcare Utilisateur principal Individus et familles Cliniciens, organisations, chercheurs Rôle central Interprétation et compréhension Raisonnement, synthèse et structuration Focalisation Informations personnelles de santé Systèmes cliniques et flux de travail Point fort Communication et clarté Profondeur, cohérence et alignement sur les preuves Pertinence pour la thérapie Soutenir la compréhension et l’engagement des familles Soutenir la documentation clinique et la décision Accent éthique Contrôle individuel des données et séparation Conformité organisationnelle et alignement réglementaire Lorsqu’on compare les deux outils, la question n’est pas de savoir lequel est « meilleur », mais ce que chacun est conçu pour porter. ChatGPT Health porte le versant humain de l’information en santé. Il aide à comprendre, à réfléchir et à s’engager. Claude for Healthcare porte le versant structurel. Il soutient l’organisation, la justification et le raisonnement à l’échelle des systèmes. Cette distinction devient particulièrement pertinente en pratique thérapeutique. ChatGPT Health peut aider les familles à comprendre les comptes rendus, à repérer des schémas et à se préparer, sur les plans émotionnel et cognitif, aux séances de thérapie. Claude for Healthcare peut soutenir les cliniciens pour garantir que évaluations, objectifs et documents soient alignés sur les données probantes actuelles et les attentes réglementaires. Le premier renforce la communication relationnelle. Le second renforce la structure clinique. La confidentialité et l’éthique sont centrales pour les deux plateformes, mais abordées différemment. ChatGPT Health privilégie la séparation des données individuelles et le contrôle par l’utilisateur, renforçant la confiance au niveau personnel. Claude for Healthcare met l’accent sur la sécurité et la conformité au niveau de l’organisation, renforçant la confiance au sein des structures de santé. Ces approches reflètent les problèmes différents que chaque outil est conçu pour résoudre. Il est essentiel de se rappeler qu’aucun de ces outils ne remplace le jugement clinique. La thérapie n’est pas un problème de données à résoudre. C’est un processus relationnel et contextuel qui exige observation, interprétation et discernement éthique. L’IA peut soutenir la réflexion, réduire la charge administrative et organiser l’information. Elle ne peut pas capter l’atmosphère d’une séance, percevoir les nuances émotionnelles ni construire l’alliance thérapeutique. Ce que nous observons aujourd’hui, c’est l’émergence de deux rôles complémentaires de l’IA en santé. L’un soutient la compréhension et l’engagement. L’autre soutient le raisonnement et les systèmes. Utilisés avec discernement, les deux peuvent protéger le temps et les ressources cognitives des cliniciens, laissant davantage d’espace à ce qui compte le plus en thérapie : la pensée approfondie, la relation humaine et des soins fondés sur les preuves.

Uncategorized

Transformer les échanges sur la santé : ce que ChatGPT Health change pour la pratique clinique

La manière dont les personnes recherchent et traitent l’information en santé évolue. De plus en plus, elles se tournent vers des outils numériques pour comprendre des symptômes, des résultats d’examens et la terminologie médicale, avant ou après l’échange avec des professionnels de santé. L’introduction de ChatGPT Health reflète ce mouvement et propose une approche plus structurée de l’accompagnement des conversations liées à la santé par l’IA. Les questions de santé sont rarement neutres. Elles sont souvent motivées par l’incertitude, l’anxiété ou la difficulté à interpréter des informations complexes. ChatGPT Health a été conçu comme un environnement dédié à ces échanges, en reconnaissant que l’information de santé exige des limites plus claires, des normes de sécurité plus élevées et un cadrage rigoureux pour éviter les malentendus ou les préjudices. L’une des fonctionnalités les plus pertinentes sur le plan clinique est l’option permettant aux utilisateurs de connecter leurs propres données de santé. Cela peut inclure des résultats de laboratoire, des profils de sommeil, des niveaux d’activité ou un suivi nutritionnel. Lorsque l’information est ancrée dans un contexte personnel, les explications gagnent en pertinence et en accessibilité cognitive. D’un point de vue thérapeutique, cela peut réduire la surcharge informationnelle et favoriser un auto‑rapport plus clair, en particulier chez les personnes qui peinent avec le langage médical ou des souvenirs fragmentés. La confidentialité et le contrôle par l’utilisateur sont au cœur de cette conception. Les conversations liées à la santé sont distinctes des autres interactions, et les utilisateurs peuvent gérer ou supprimer à tout moment les données connectées. Les informations partagées dans cet espace sont protégées et ne sont pas utilisées au‑delà de l’expérience individuelle. Cet accent mis sur le consentement et la transparence est essentiel pour maintenir la confiance dans tout outil clinique ou para‑clinique. ChatGPT Health n’est pas positionné comme un système de diagnostic ou de traitement. Toutefois, sa valeur pour les thérapeutes tient à sa capacité à soutenir le raisonnement diagnostique sans se substituer au jugement professionnel. En pratique clinique, de nombreux clients se présentent avec des antécédents désorganisés, des descriptions de symptômes vagues ou des difficultés à identifier des motifs dans le temps. Les outils assistés par l’IA peuvent aider les clients à structurer l’information avant les séances, comme le début des symptômes, leur fréquence, leurs déclencheurs, l’impact fonctionnel et la réponse aux interventions. Cette préparation structurée peut améliorer sensiblement la qualité des entretiens cliniques et réduire le temps consacré à clarifier des éléments de base. Pour les thérapeutes, ces informations organisées peuvent soutenir la formulation d’hypothèses et le raisonnement différentiel. Des motifs émergents liés aux troubles du sommeil, à la fatigue, aux difficultés de régulation émotionnelle, aux plaintes cognitives ou à l’observance thérapeutique peuvent orienter un questionnement plus ciblé ou indiquer la nécessité d’un dépistage formel ou d’une orientation. De cette façon, l’IA fonctionne comme un outil d’appui à la reconnaissance de motifs, et non comme une autorité diagnostique. Cela est particulièrement pertinent dans les contextes neurodéveloppementaux et de santé mentale. Des thèmes récurrents liés aux fonctions exécutives, au traitement sensoriel, à la régulation émotionnelle ou aux ruptures de communication peuvent aider les cliniciens à affiner la planification de l’évaluation et à sélectionner des outils appropriés. L’IA n’appose pas d’étiquettes et ne confirme pas de diagnostics, mais elle peut faire émerger des regroupements cliniquement significatifs qui justifient une évaluation professionnelle. En orthophonie et disciplines associées, cela peut enrichir le profil fonctionnel. Les clients peuvent utiliser l’outil pour formuler des difficultés de compréhension, d’expression, de fatigue vocale, des préoccupations de déglutition, ou une charge cognitive élevée dans la communication quotidienne. Cela peut approfondir les données d’anamnèse et soutenir des évaluations plus ciblées ainsi que la définition d’objectifs. Il est essentiel de distinguer clairement le soutien au diagnostic de l’autorité diagnostique. ChatGPT Health ne doit jamais être utilisé pour poser des diagnostics, exclure des pathologies ou fournir des conclusions cliniques. En revanche, il peut soutenir les thérapeutes en aidant les clients à organiser leurs expériences, à améliorer la description des symptômes, à mettre en évidence des motifs à explorer et à mieux se préparer à l’évaluation. Les thérapeutes restent responsables de l’interprétation, du raisonnement clinique et de la prise de décision. Une pratique éthique impliquera de discuter explicitement ces limites avec les clients et de rappeler que les apports générés par l’IA sont informationnels, non diagnostiques. Pour les patients, cet outil peut renforcer la littératie en santé, la confiance et l’engagement. Arriver mieux préparé aux rendez‑vous et aux séances peut réduire l’anxiété et favoriser des soins plus collaboratifs. Toutefois, un accompagnement est nécessaire pour éviter la surinterprétation ou un faux sentiment de sécurité. Les thérapeutes jouent un rôle clé pour aider les clients à contextualiser l’information, à traiter les réactions émotionnelles aux données de santé et à identifier quand un avis médical professionnel s’impose. Le développement de ChatGPT Health a impliqué une collaboration étroite avec des médecins de multiples spécialités, ce qui a façonné la manière de communiquer l’incertitude et d’encourager l’orientation vers des soins professionnels lorsque cela s’avère nécessaire. Cela renforce son rôle de ressource préparatoire et réflexive plutôt que directive. À mesure que l’IA investit les champs de la santé et de la thérapie, sa valeur clinique dépendra de la clarté des rôles et des limites. Utilisés comme outils d’organisation, de réflexion et de soutien aux hypotheses, plutôt que de diagnostic ou de traitement, des systèmes comme ChatGPT Health peuvent accroître l’efficacité clinique, améliorer la communication et favoriser une participation plus éclairée aux soins, tout en maintenant le jugement professionnel au premier plan. L’avenir de l’IA en santé ne consiste pas à remplacer le diagnostic. Il s’agit de soutenir de meilleures anamnèses, des questions plus claires et un raisonnement clinique plus réfléchi.

Uncategorized

Google vient d’intégrer l’IA à Gmail

Trois milliards de boîtes de réception sont sur le point de changer. Notre analyse de l’ère Gemini de l’e-mail Google a officiellement intégré l’IA à Gmail, et il ne s’agit pas d’une simple mise à jour de productivité. L’e-mail est l’un des systèmes les plus exigeants sur le plan cognitif que les personnes utilisent au quotidien, et désormais l’IA y est directement intégrée. Avec Gemini, les utilisateurs peuvent résumer instantanément de longs fils de messages, poser des questions à leur boîte de réception en langage naturel, rédiger ou peaufiner des e-mails gratuitement, recevoir des suggestions de réponse qui reflètent réellement leur voix, et vérifier le ton, la grammaire et la clarté. Bientôt, Gmail filtrera automatiquement l’encombrement, signalera les messages VIP et mettra en avant les e-mails à forts enjeux. Le déploiement commence en anglais (États-Unis), d’autres langues suivront, et certaines fonctionnalités avancées nécessiteront des formules Pro ou Ultra. Du point de vue thérapeutique, ce changement est plus important qu’il n’y paraît. L’e-mail n’est pas qu’un moyen de communication. C’est la fonction exécutive à l’œuvre. Il mobilise la planification, la priorisation, la mémoire de travail, la régulation émotionnelle et les compétences en langage pragmatique. Pour de nombreux clients, et de nombreux cliniciens, l’e-mail est une source quotidienne de surcharge cognitive. Ce que fait Gemini, c’est externaliser une partie de cette charge. Résumer les fils de discussion réduit les exigences liées à la mémoire de travail. Poser des questions à la boîte de réception permet de contourner des stratégies de recherche inefficaces. Les vérifications de ton et de clarté soutiennent le langage pragmatique. L’aide à la rédaction abaisse les barrières à l’initiation. Ces fonctions reflètent de près les soutiens déjà utilisés en thérapie, faisant de Gemini un échafaudage cognitif plutôt qu’un substitut à la pensée. Alors, comment les thérapeutes peuvent-ils concrètement en bénéficier ? Pour les orthophonistes, Gemini peut soutenir une communication écrite professionnelle sans compromettre l’intention clinique. Rédiger des e-mails aux parents, des correspondances scolaires ou des notes pluridisciplinaires exige souvent un ton, une clarté et une pragmatique précis. L’assistance à la rédaction et l’ajustement du ton par l’IA peuvent alléger la charge linguistique tout en permettant au thérapeute de conserver la maîtrise du contenu et des limites. Sur le plan clinique, ces mêmes fonctionnalités peuvent servir à modéliser des réponses appropriées par e-mail avec des clients plus âgés ou des adolescents travaillant la communication fonctionnelle et les habiletés pragmatiques. Pour les psychologues et les professionnels de la santé mentale, l’intérêt réside dans la régulation cognitive et émotionnelle. Les e-mails difficiles déclenchent souvent évitement, anxiété ou suranalyse. La rédaction assistée par l’IA peut aider les clients à initier leurs réponses, réduire la rumination et se concentrer sur le message plutôt que sur le stress lié au choix des mots. En thérapie, cela ouvre un espace pour discuter de la prise de décision, des limites et d’un usage réfléchi plutôt que de l’évitement. Pour les clients neurodivergents, en particulier ceux avec TDAH ou TSA, Gemini peut réduire les obstacles liés à l’initiation, à l’organisation et à l’interprétation de longs fils d’e-mails. Utilisé de manière intentionnelle, il peut faciliter l’accès sans masquer les besoins. Utilisé sans recul, il risque de court-circuiter le développement des compétences. C’est précisément là que l’accompagnement clinique est essentiel. Il existe aussi des considérations éthiques à ne pas ignorer. Gmail n’est pas une plateforme clinique. Des informations identifiables concernant des clients ne doivent jamais être saisies dans des systèmes d’IA sans garanties. L’assistance par l’IA ne retire en rien la responsabilité professionnelle en matière de confidentialité, de jugement et de nuances relationnelles. Le changement plus vaste est le suivant. L’IA n’est plus un outil distinct que l’on choisit d’ouvrir. Elle devient une composante de l’environnement cognitif dans lequel nos clients vivent. Cela signifie que la thérapie ne peut pas l’ignorer. Notre rôle n’est pas de résister à ces outils ni de leur déléguer la pensée. Notre rôle est d’aider clients et cliniciens à utiliser l’IA de manière réfléchie, comme un soutien plutôt qu’une autorité. Trois milliards de boîtes de réception sont sur le point de changer. Le jugement humain, le raisonnement clinique et une éthique de soin doivent continuer de guider.

English, Uncategorized

Teletherapy in 2026: Our Clinical Take on What AI Is Actually Changing

As therapists working daily in teletherapy, we have all felt the shift. AI is no longer something happening “out there” in tech headlines it is quietly entering our platforms, our workflows, and our clinical decision-making spaces. The question for us has never been whether AI will be used in therapy, but how it can be used without compromising ethics, clinical judgment, or the therapeutic relationship. Over the past year, we have actively explored, tested, and critically evaluated several AI-driven tools in teletherapy contexts. What stands out most is this: the most useful AI tools are not the loudest ones. They are the ones that reduce friction, cognitive load, and therapist burnout while preserving our role as the clinical authority. Expanding Access Without Diluting Care One of the most meaningful developments we’ve seen recently is how AI is being used to expand access to therapy rather than replace it. Platforms such as Constant Therapy have expanded their AI-driven speech and cognitive therapy programs into additional languages, including Spanish and Indian English. This matters clinically. It allows us to assign culturally and linguistically relevant home practice that aligns with what we are targeting in sessions, instead of relying on generic or mismatched materials. From our experience, this kind of AI-supported practice increases carryover without increasing preparation time something teletherapy clinicians deeply need. Conversational AI That Supports Continuity, Not Dependency Mental health platforms like Wysa, particularly with the introduction of Wysa Copilot, reflect a growing shift toward hybrid models where AI supports therapists rather than attempts to replace them. These systems help structure between-session support, guide reflective exercises, and support homework completion, all while keeping the clinician in the loop. When we tested similar conversational AI tools, what we valued most was not the chatbot itself, but the continuity. Clients arrived to sessions more regulated, more reflective, and more ready to engage because the therapeutic thread had not been completely paused between sessions. Speech and Language AI: Practice, Not Diagnosis Advances in automatic speech recognition have significantly improved the quality of AI-assisted speech practice tools. In articulation and fluency work, we’ve used AI-supported practice platforms to increase repetition, consistency, and feedback during teletherapy homework. Clinically, we see these tools as structured practice partners not assessors and certainly not diagnosticians. They help us gather cleaner data and observe patterns, but interpretation remains firmly in our hands. When used this way, AI becomes an efficiency tool rather than a clinical shortcut. Voice Biomarkers as Clinical Signals, Not Labels Another emerging area is the use of voice biomarkers tools that analyze vocal features to flag possible emotional or mental health risk markers. Tools like Kintsugi and Ellipsis Health are increasingly discussed in clinical AI spaces. When we explored these tools, we found them useful as conversation starters, not conclusions. In teletherapy, where subtle nonverbal cues can be harder to read, having an additional signal can help us ask better questions earlier in the session. We are very clear, however: these tools support clinical curiosity; they do not replace clinical judgment. Ethics, Regulation, and Our Responsibility Not all AI adoption has been smooth and rightly so. In 2025, several regions introduced restrictions on AI use in psychotherapeutic decision-making. From our perspective, this is not a step backward. It reflects a necessary pause to protect clients, clarify consent, and reinforce professional boundaries. As therapists, we carry responsibility not just for outcomes, but for process. Any AI tool we use must be transparent, ethically integrated, and clearly secondary to human clinical reasoning. What We’re Taking Forward Into Our Telepractice Based on what we’ve tested and observed, these are the principles guiding our use of AI in teletherapy: We use AI to reduce administrative and cognitive load, not to replace thinking.We choose tools grounded in clinical logic, not generic productivity hype.We prioritize transparency with families and clients about how technology is used.We treat AI outputs as data points, never as decisions. What feels different about teletherapy in 2026 is not the presence of AI it’s the maturity of how we engage with it. When AI is positioned as a background support rather than a clinical authority, it allows us to show up more present, more regulated, and more attuned to our clients. Teletherapy does not need less humanity. It needs protection of it. Used responsibly, AI helps us do exactly that.

English, Uncategorized

Wrapping Up 2025 A Year of AI in Therapy What We Learned and What We Expect Next

As we reach the end of the year, many of us are reflecting not just on our caseloads or outcomes, but on how much our daily practice has shifted. 2025 was not the year AI took over therapy. Instead, it was the year AI quietly settled into our workflows and pushed us as clinicians to become more intentional about protecting clinical judgment while embracing useful innovation. From speech therapy and mental health to teletherapy platforms, AI moved from experimental to practical. What matters now is how we, as therapists, choose to use it. AI This Year From Hype to Real Clinical Use One of the most noticeable changes in 2025 is how AI tools are being designed around clinicians rather than instead of them. Platforms such as Wysa, particularly through clinician supported tools like Wysa Copilot, reflect this shift. These systems are no longer simple chatbots. They now function as structured supports that help maintain therapeutic continuity between sessions while keeping clinicians in control. From our own testing and use, the value has not been in AI talking to clients, but in how it supports reflection, homework follow through, and emotional regulation between sessions. Clients arrive more prepared, and sessions feel less like a restart and more like a continuation. Speech and Language Practice Where AI Truly Helps In speech and language therapy, AI had its strongest impact this year in practice intensity and consistency. AI assisted articulation and voice practice tools now offer more accurate feedback and structured repetition that is difficult to achieve consistently between teletherapy sessions. We have used these tools as practice partners rather than assessors. They help us collect clearer data and observe patterns over time, while interpretation remains human. Their strength lies in freeing our cognitive space so we can focus on planning, adapting, and responding within sessions. Accessibility and Reach A Quiet Win Another important development this year has been the expansion of AI driven therapy platforms into additional languages and regions. Tools like Constant Therapy expanding into multiple languages signal something important. AI can reduce access barriers without lowering clinical standards. For teletherapy, this has translated into better carryover, more culturally relevant practice materials, and stronger engagement outside live sessions. Voice Based AI and Emotional Signals Used With Caution 2025 also brought increased attention to voice based AI tools that analyze speech patterns for emotional or mental health signals. Tools such as Kintsugi and Ellipsis Health are often mentioned in this context. From our experience, these tools work best as signals rather than answers. In teletherapy, where subtle cues can be harder to detect, they can guide deeper clinical questioning. They do not diagnose, and they should never replace observation, clinical interviews, or professional judgment. Ethics and Regulation Took Center Stage This year also reminded us that innovation without boundaries is risky. Increased regulation around AI use in therapy particularly related to crisis detection, consent, and transparency has been a necessary step. As clinicians, this aligns with what we already practice. Therapeutic work requires accountability, clarity, and human responsibility. AI must remain secondary to the therapeutic relationship. How We Are Using AI Going Forward As we close the year, these principles guide our clinical use of AI. We use AI to reduce administrative and cognitive load rather than replace thinking.We choose tools grounded in clinical logic and therapeutic models.We remain transparent with clients and families about AI use.We treat AI outputs as supportive data rather than clinical decisions. When used this way, AI becomes an ally rather than a distraction. Looking Ahead If 2025 was the year of testing and learning, the year ahead will likely focus on refinement. We expect clearer standards, better clinician informed design, and deeper conversations around ethics, inclusion, and sustainability. Most importantly, we expect the focus to return again and again to what matters most. Human connection, clinical reasoning, and ethical care. AI will continue to evolve. Our role as therapists remains unchanged. We interpret. We adapt. We connect.

French, Uncategorized

Téléthérapie en 2026 : notre point de vue clinique sur ce que l’IA change réellement

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

French, Uncategorized

Clore 2025: Une année d’IA en thérapie : ce que nous avons appris et ce que nous anticipons

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

Uncategorized

Zoom AI and Humanity’s Last Exam: Why This Matters for Therapists

Recently, Zoom announced that its AI system scored 48.1% on a benchmark called Humanity’s Last Exam, or HLE. At first, that number might not seem impressive. On a typical test, it would be a failing grade. But what makes this milestone interesting is what the exam actually measures and how Zoom’s AI achieved it. HLE was designed to test reasoning rather than memorisation. Most AI benchmarks measure pattern recognition. If a model has seen enough examples, it can often produce a correct answer without really understanding. HLE removes that safety net. Its questions cover a broad academic spectrum, from medicine and law to literature and philosophy. They are unfamiliar on purpose, requiring multi-step reasoning, problem-solving, and justification. A model must interpret a scenario, weigh possible explanations, and defend a final conclusion. It is not enough to recall information. The exam rewards logical thinking. What we found particularly interesting is how Zoom approached the problem. Instead of relying on one massive AI, they used multiple smaller models working together. Each model explores the problem from its own perspective, verifies the reasoning, and contributes to a final answer. Zoom calls this approach Explore, Verify, Federate. It mirrors the way we often work in clinical settings. When complex decisions arise, we collaborate with other specialists, weigh evidence, and integrate insights to reach the best conclusion. Smaller models focusing on what they do best can produce stronger reasoning than a single, oversized system. So why should therapists care about this? While AI is still far from human-level reasoning, this breakthrough hints at tools that could support clinical work in meaningful ways. We can imagine AI helping us analyse case notes and track patterns over time. It could suggest potential therapy activities, generate personalised visual or interactive tools, or provide structured summaries during teletherapy sessions. These systems could reduce repetitive tasks and free us to focus on the human connection that drives therapy outcomes. The federated approach also suggests AI could become more efficient and transparent. Instead of massive, opaque models, we could see networks of smaller reasoning engines that explain how they arrive at conclusions. For us, that means more trust in AI’s suggestions and better integration into multidisciplinary teams. HLE is not a signal that AI can replace therapists. It is a step toward reasoning-focused tools that work with us. By testing AI in challenging, unfamiliar scenarios, researchers are showing that the technology can begin to reason rather than just produce fluent text. For therapists, especially in teletherapy, this opens doors to smarter support systems, more personalised client engagement, and tools that help us plan, track, and refine interventions efficiently. We are still early in this journey, but milestones like Humanity’s Last Exam give us a glimpse into a future where AI can truly enhance our clinical practice. It won’t replace our judgment, but it can become a powerful partner in delivering thoughtful, data-informed, and engaging therapy

Uncategorized

AI Group Chats: A New Dimension of Clinical Collaboration

AI is evolving at a pace that is beginning to reshape how therapists plan, create, and communicate. The newest feature to emerge from OpenAI—group chats within ChatGPT—opens a door to something far broader than individual support. It invites us into a shared thinking space, where professionals can co-create, exchange knowledge, and build clinical ideas together in real time. The concept is simple: instead of interacting with ChatGPT alone, up to twenty people can now join a single conversation. Each participant can add content, ask questions, bring examples from their field, or collaborate on documents while the AI remains available as a full conversation member. This creates a shared cognitive environment where ideas can move faster and develop in richer directions. From a therapy and rehabilitation perspective, this feels significant. Many of us work inside multidisciplinary teams. We collaborate with occupational therapists, psychologists, physical therapists, special educators, literacy specialists, and colleagues across languages and disciplines. Much of that collaboration happens through email threads, delayed messages, and informal discussions squeezed between appointments. The new group environment allows that entire process to become more fluid and immediate. When tested in clinical, content-building, and planning scenarios, it revealed an interesting strength. The AI is not simply answering questions. It behaves like a supportive peer who can step back, observe, and intervene only when needed. In interdisciplinary content creation, this becomes particularly powerful. Imagine a group of professionals drafting therapy materials together. Speech therapists contribute language goals, OTs focus on sensory integration or motor sequencing, psychologists add emotional framing, and educators ensure academic alignment. Instead of sending documents back and forth, you can see the draft evolve live, with the AI suggesting formulations, rephrasing language to be child-friendly, comparing two versions of an activity, or helping structure visual supports. In planning interdisciplinary sessions, the group chat can support goal alignment. You can outline each objective, ask the AI to check overlap or redundancy, and generate a structured session design in minutes. For therapists who constantly balance workload with documentation demands, this creates a major time advantage. Creative brainstorming also becomes more dynamic. When producing visuals, prompts, narrative story frames, or creative play ideas, the presence of several minds and a responsive AI provides diversity of thought that is difficult to replicate alone. All that said, the technology brings more than excitement. It brings responsibility.The strongest benefit appears when clinicians enter the space with intentionality. AI should not guide clinical decisions; it should support infrastructure, wording, creativity, and clarity. It cannot replace judgment, assessment skill, or reasoning. What it can do is amplify them. Privacy naturally remains a key focus. OpenAI’s structure places group decision-making and consent at the front of the design. Group chats are optional and separate from personal chats. Memory from private conversations does not carry into the shared environment, and the AI does not merge histories between users. However, that does not replace our ethical obligations. Patient-identifiable information should never be included. Notes, reports, names, or confidential data must remain protected within secure clinical systems. What emerges is a model of collaboration we have not experienced before. Instead of isolated conversations with the AI, we now have a genuine shared panel where professionals can think together. The result blends human insight with technical support in a way that potentially transforms workflow. Some early applications in therapy and rehabilitation may include: • Interdisciplinary brainstorming sessions for complex cases using de-identified clinical themes.• Co-writing therapy manuals, parent handouts, home programs, and lesson plans.• Developing school-based or clinic-based intervention frameworks that integrate multiple viewpoints.• Group training sessions for students or interns learning clinical reasoning. The value does not lie in AI producing answers for us. It lies in the structure it offers. Consistency, clarity, and streamlined collaboration are not small achievements in a field where time and cognitive load are serious challenges. For therapists working in modern healthcare environments, this may signal a shift. We are moving from individual AI interaction toward collective AI-supported teamwork. And that change appears to be arriving faster than expected. AI will not decide how you treat a patient. It will not evaluate speech samples for you or diagnose a disorder. But it can help you outline a treatment pathway, compare therapy approaches, or turn fragmented ideas into polished, shareable documents. Used wisely, group chats become a thinking enhancer rather than a thinking replacement. This development is not a promise of what might happen in five years. It is available now, and early users are already exploring its potential. As therapists, we can decide how deeply we want to engage, how responsibly we want to shape this tool, and how creatively we want to use the new collaborative space it provides.

Shopping Cart