Uncategorized

English, Uncategorized

Google Just Put AI Inside Gmail: Three Billion Inboxes Are About to Change.

Google has officially embedded AI into Gmail, and this is not just another productivity update. Email is one of the most cognitively demanding systems people use daily, and now AI is sitting directly inside it. With Gemini, users can summarise long email threads instantly, ask their inbox questions in plain English, write or polish emails for free, receive reply suggestions that actually sound like them, and check tone, grammar, and clarity. Soon, Gmail will also auto-filter clutter, flag VIP messages, and surface high-stakes emails. The rollout starts in U.S. English, with more languages coming, and some advanced features requiring Pro or Ultra plans. From a therapy perspective, this shift matters more than it appears. Email is not just communication. It is executive functioning in action. It requires planning, prioritisation, working memory, emotional regulation, and pragmatic language skills. For many clients, and many clinicians, email is a daily source of cognitive overload. What Gemini is doing is externalising parts of that cognitive load. Summarising threads reduces working memory demands. Asking the inbox questions bypasses inefficient search strategies. Tone and clarity checks support pragmatic language. Drafting assistance lowers initiation barriers. These functions closely mirror the supports we already use in therapy, making Gemini function like a cognitive scaffold rather than a replacement for thinking. So how might therapists actually benefit from this? For speech and language therapists, Gemini can support professional written communication without compromising clinical intent. Writing parent emails, school correspondence, or multidisciplinary updates often requires precise tone, clarity, and pragmatics. AI-assisted drafting and tone refinement can reduce linguistic load while allowing the therapist to retain full control over content and boundaries. Clinically, these same features can be used to model appropriate email responses with older clients or adolescents working on functional communication and pragmatic skills. For psychologists and mental health professionals, the benefit lies in cognitive and emotional regulation. Difficult emails often trigger avoidance, anxiety, or overthinking. AI-supported drafting can help clients initiate responses, reduce rumination, and focus on the message rather than the stress of wording. In therapy, this opens space to discuss decision-making, boundaries, and reflective use rather than avoidance. For neurodivergent clients, particularly those with ADHD or ASD, Gemini may reduce barriers related to initiation, organisation, and interpretation of long email threads. Used intentionally, it can support access without masking needs. Used uncritically, it risks bypassing skill development. This distinction is where clinical guidance matters. There are also ethical considerations we cannot ignore. Gmail is not a clinical platform. Identifiable client information should never be entered into AI systems without safeguards. AI assistance does not remove professional responsibility for confidentiality, judgment, or relational nuance. The larger shift is this. AI is no longer a separate tool we choose to open. It is becoming part of the cognitive environment our clients live in. That means therapy cannot ignore it. Our role is not to resist these tools or to hand thinking over to them. Our role is to help clients and clinicians use AI reflectively, as support rather than authority. Three billion inboxes are about to change. Human judgment, clinical reasoning, and ethical care still need to lead.

English, Uncategorized

Transforming Health Conversations: What ChatGPT Health Means for Clinical Practice

The way people seek and process health information is evolving. Increasingly, individuals turn to digital tools to understand symptoms, test results, and medical terminology before or after interacting with healthcare professionals. The introduction of ChatGPT Health reflects this shift and represents a more structured approach to how health related conversations are supported by AI. Health questions are rarely neutral. They are often driven by uncertainty, anxiety, or difficulty interpreting complex information. ChatGPT Health has been designed as a dedicated environment for these conversations, acknowledging that health information requires clearer boundaries, higher safety standards, and careful framing to avoid misunderstanding or harm. One of the most clinically relevant features is the option for users to connect their own health data. This may include laboratory results, sleep patterns, activity levels, or nutrition tracking. When information is grounded in personal context, explanations become more meaningful and cognitively accessible. From a therapeutic standpoint, this can reduce information overload and support clearer self reporting, particularly for individuals who struggle with medical language or fragmented recall. Privacy and user control are central to this design. Health related conversations are kept separate from other interactions, and users can manage or delete connected data at any time. Information shared within this space is protected and not used beyond the individual’s experience. This emphasis on consent and transparency is essential for maintaining trust in any clinical or health adjacent tool. ChatGPT Health is not positioned as a diagnostic or treatment system. However, its value for therapists lies in how it can support diagnostic thinking without replacing professional judgement. In clinical practice, many clients present with disorganised histories, vague symptom descriptions, or difficulty identifying patterns over time. AI supported tools can help clients structure information prior to sessions, such as symptom onset, frequency, triggers, functional impact, and response to interventions. This structured preparation can significantly improve the quality of clinical interviews and reduce time spent clarifying basic details. For therapists, this organised information can support hypothesis generation and differential thinking. Patterns emerging from sleep disruption, fatigue, emotional regulation difficulties, cognitive complaints, or medication adherence may prompt more targeted questioning or indicate the need for formal screening or referral. In this way, AI functions as a pattern recognition support tool rather than a diagnostic authority. This is particularly relevant in neurodevelopmental and mental health contexts. Recurrent themes related to executive functioning, sensory processing, emotional regulation, or communication breakdowns can help clinicians refine assessment planning and select appropriate tools. The AI does not label conditions or confirm diagnoses, but it may help surface clinically meaningful clusters that warrant professional evaluation. In speech and language therapy and related fields, this can enhance functional profiling. Clients may use the tool to articulate difficulties with comprehension, expression, voice fatigue, swallowing concerns, or cognitive load in daily communication. This can enrich case history data and support more focused assessment and goal setting. It is essential to clearly distinguish diagnostic support from diagnostic authority. ChatGPT Health should never be used to assign diagnoses, rule out medical conditions, or provide clinical conclusions. Instead, it can support therapists by helping clients organise experiences, improving symptom description, highlighting patterns for exploration, and increasing preparedness for assessment. Therapists remain responsible for interpretation, clinical reasoning, and decision making. Part of ethical practice will involve explicitly discussing these boundaries with clients and reinforcing that AI generated insights are informational, not diagnostic. For patients, this tool may increase health literacy, confidence, and engagement. Being better prepared for appointments and therapy sessions can reduce anxiety and support more collaborative care. However, patients also require guidance to avoid overinterpretation or false reassurance. Therapists play a key role in helping clients contextualise information, process emotional reactions to health data, and identify when professional medical input is necessary. The development of ChatGPT Health involved extensive collaboration with physicians across multiple specialties, shaping how uncertainty is communicated and when escalation to professional care is encouraged. This strengthens its role as a preparatory and reflective resource rather than a directive one. As AI continues to enter health and therapy spaces, its clinical value will depend on how clearly roles and boundaries are defined. When used as a tool for organisation, reflection, and hypothesis support, rather than diagnosis or treatment, systems like ChatGPT Health can enhance clinical efficiency, improve communication, and support more informed participation in care while keeping professional judgement firmly at the centre. The future of AI in healthcare is not about replacing diagnosis. It is about supporting better histories, clearer questions, and more thoughtful clinical reasoning.

English, Uncategorized

Teletherapy in 2026: Our Clinical Take on What AI Is Actually Changing

As therapists working daily in teletherapy, we have all felt the shift. AI is no longer something happening “out there” in tech headlines it is quietly entering our platforms, our workflows, and our clinical decision-making spaces. The question for us has never been whether AI will be used in therapy, but how it can be used without compromising ethics, clinical judgment, or the therapeutic relationship. Over the past year, we have actively explored, tested, and critically evaluated several AI-driven tools in teletherapy contexts. What stands out most is this: the most useful AI tools are not the loudest ones. They are the ones that reduce friction, cognitive load, and therapist burnout while preserving our role as the clinical authority. Expanding Access Without Diluting Care One of the most meaningful developments we’ve seen recently is how AI is being used to expand access to therapy rather than replace it. Platforms such as Constant Therapy have expanded their AI-driven speech and cognitive therapy programs into additional languages, including Spanish and Indian English. This matters clinically. It allows us to assign culturally and linguistically relevant home practice that aligns with what we are targeting in sessions, instead of relying on generic or mismatched materials. From our experience, this kind of AI-supported practice increases carryover without increasing preparation time something teletherapy clinicians deeply need. Conversational AI That Supports Continuity, Not Dependency Mental health platforms like Wysa, particularly with the introduction of Wysa Copilot, reflect a growing shift toward hybrid models where AI supports therapists rather than attempts to replace them. These systems help structure between-session support, guide reflective exercises, and support homework completion, all while keeping the clinician in the loop. When we tested similar conversational AI tools, what we valued most was not the chatbot itself, but the continuity. Clients arrived to sessions more regulated, more reflective, and more ready to engage because the therapeutic thread had not been completely paused between sessions. Speech and Language AI: Practice, Not Diagnosis Advances in automatic speech recognition have significantly improved the quality of AI-assisted speech practice tools. In articulation and fluency work, we’ve used AI-supported practice platforms to increase repetition, consistency, and feedback during teletherapy homework. Clinically, we see these tools as structured practice partners not assessors and certainly not diagnosticians. They help us gather cleaner data and observe patterns, but interpretation remains firmly in our hands. When used this way, AI becomes an efficiency tool rather than a clinical shortcut. Voice Biomarkers as Clinical Signals, Not Labels Another emerging area is the use of voice biomarkers tools that analyze vocal features to flag possible emotional or mental health risk markers. Tools like Kintsugi and Ellipsis Health are increasingly discussed in clinical AI spaces. When we explored these tools, we found them useful as conversation starters, not conclusions. In teletherapy, where subtle nonverbal cues can be harder to read, having an additional signal can help us ask better questions earlier in the session. We are very clear, however: these tools support clinical curiosity; they do not replace clinical judgment. Ethics, Regulation, and Our Responsibility Not all AI adoption has been smooth and rightly so. In 2025, several regions introduced restrictions on AI use in psychotherapeutic decision-making. From our perspective, this is not a step backward. It reflects a necessary pause to protect clients, clarify consent, and reinforce professional boundaries. As therapists, we carry responsibility not just for outcomes, but for process. Any AI tool we use must be transparent, ethically integrated, and clearly secondary to human clinical reasoning. What We’re Taking Forward Into Our Telepractice Based on what we’ve tested and observed, these are the principles guiding our use of AI in teletherapy: We use AI to reduce administrative and cognitive load, not to replace thinking.We choose tools grounded in clinical logic, not generic productivity hype.We prioritize transparency with families and clients about how technology is used.We treat AI outputs as data points, never as decisions. What feels different about teletherapy in 2026 is not the presence of AI it’s the maturity of how we engage with it. When AI is positioned as a background support rather than a clinical authority, it allows us to show up more present, more regulated, and more attuned to our clients. Teletherapy does not need less humanity. It needs protection of it. Used responsibly, AI helps us do exactly that.

English, Uncategorized

Wrapping Up 2025 A Year of AI in Therapy What We Learned and What We Expect Next

As we reach the end of the year, many of us are reflecting not just on our caseloads or outcomes, but on how much our daily practice has shifted. 2025 was not the year AI took over therapy. Instead, it was the year AI quietly settled into our workflows and pushed us as clinicians to become more intentional about protecting clinical judgment while embracing useful innovation. From speech therapy and mental health to teletherapy platforms, AI moved from experimental to practical. What matters now is how we, as therapists, choose to use it. AI This Year From Hype to Real Clinical Use One of the most noticeable changes in 2025 is how AI tools are being designed around clinicians rather than instead of them. Platforms such as Wysa, particularly through clinician supported tools like Wysa Copilot, reflect this shift. These systems are no longer simple chatbots. They now function as structured supports that help maintain therapeutic continuity between sessions while keeping clinicians in control. From our own testing and use, the value has not been in AI talking to clients, but in how it supports reflection, homework follow through, and emotional regulation between sessions. Clients arrive more prepared, and sessions feel less like a restart and more like a continuation. Speech and Language Practice Where AI Truly Helps In speech and language therapy, AI had its strongest impact this year in practice intensity and consistency. AI assisted articulation and voice practice tools now offer more accurate feedback and structured repetition that is difficult to achieve consistently between teletherapy sessions. We have used these tools as practice partners rather than assessors. They help us collect clearer data and observe patterns over time, while interpretation remains human. Their strength lies in freeing our cognitive space so we can focus on planning, adapting, and responding within sessions. Accessibility and Reach A Quiet Win Another important development this year has been the expansion of AI driven therapy platforms into additional languages and regions. Tools like Constant Therapy expanding into multiple languages signal something important. AI can reduce access barriers without lowering clinical standards. For teletherapy, this has translated into better carryover, more culturally relevant practice materials, and stronger engagement outside live sessions. Voice Based AI and Emotional Signals Used With Caution 2025 also brought increased attention to voice based AI tools that analyze speech patterns for emotional or mental health signals. Tools such as Kintsugi and Ellipsis Health are often mentioned in this context. From our experience, these tools work best as signals rather than answers. In teletherapy, where subtle cues can be harder to detect, they can guide deeper clinical questioning. They do not diagnose, and they should never replace observation, clinical interviews, or professional judgment. Ethics and Regulation Took Center Stage This year also reminded us that innovation without boundaries is risky. Increased regulation around AI use in therapy particularly related to crisis detection, consent, and transparency has been a necessary step. As clinicians, this aligns with what we already practice. Therapeutic work requires accountability, clarity, and human responsibility. AI must remain secondary to the therapeutic relationship. How We Are Using AI Going Forward As we close the year, these principles guide our clinical use of AI. We use AI to reduce administrative and cognitive load rather than replace thinking.We choose tools grounded in clinical logic and therapeutic models.We remain transparent with clients and families about AI use.We treat AI outputs as supportive data rather than clinical decisions. When used this way, AI becomes an ally rather than a distraction. Looking Ahead If 2025 was the year of testing and learning, the year ahead will likely focus on refinement. We expect clearer standards, better clinician informed design, and deeper conversations around ethics, inclusion, and sustainability. Most importantly, we expect the focus to return again and again to what matters most. Human connection, clinical reasoning, and ethical care. AI will continue to evolve. Our role as therapists remains unchanged. We interpret. We adapt. We connect.

French, Uncategorized

Téléthérapie en 2026 : notre point de vue clinique sur ce que l’IA change réellement

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

French, Uncategorized

Clore 2025: Une année d’IA en thérapie : ce que nous avons appris et ce que nous anticipons

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

Uncategorized

Zoom AI and Humanity’s Last Exam: Why This Matters for Therapists

Recently, Zoom announced that its AI system scored 48.1% on a benchmark called Humanity’s Last Exam, or HLE. At first, that number might not seem impressive. On a typical test, it would be a failing grade. But what makes this milestone interesting is what the exam actually measures and how Zoom’s AI achieved it. HLE was designed to test reasoning rather than memorisation. Most AI benchmarks measure pattern recognition. If a model has seen enough examples, it can often produce a correct answer without really understanding. HLE removes that safety net. Its questions cover a broad academic spectrum, from medicine and law to literature and philosophy. They are unfamiliar on purpose, requiring multi-step reasoning, problem-solving, and justification. A model must interpret a scenario, weigh possible explanations, and defend a final conclusion. It is not enough to recall information. The exam rewards logical thinking. What we found particularly interesting is how Zoom approached the problem. Instead of relying on one massive AI, they used multiple smaller models working together. Each model explores the problem from its own perspective, verifies the reasoning, and contributes to a final answer. Zoom calls this approach Explore, Verify, Federate. It mirrors the way we often work in clinical settings. When complex decisions arise, we collaborate with other specialists, weigh evidence, and integrate insights to reach the best conclusion. Smaller models focusing on what they do best can produce stronger reasoning than a single, oversized system. So why should therapists care about this? While AI is still far from human-level reasoning, this breakthrough hints at tools that could support clinical work in meaningful ways. We can imagine AI helping us analyse case notes and track patterns over time. It could suggest potential therapy activities, generate personalised visual or interactive tools, or provide structured summaries during teletherapy sessions. These systems could reduce repetitive tasks and free us to focus on the human connection that drives therapy outcomes. The federated approach also suggests AI could become more efficient and transparent. Instead of massive, opaque models, we could see networks of smaller reasoning engines that explain how they arrive at conclusions. For us, that means more trust in AI’s suggestions and better integration into multidisciplinary teams. HLE is not a signal that AI can replace therapists. It is a step toward reasoning-focused tools that work with us. By testing AI in challenging, unfamiliar scenarios, researchers are showing that the technology can begin to reason rather than just produce fluent text. For therapists, especially in teletherapy, this opens doors to smarter support systems, more personalised client engagement, and tools that help us plan, track, and refine interventions efficiently. We are still early in this journey, but milestones like Humanity’s Last Exam give us a glimpse into a future where AI can truly enhance our clinical practice. It won’t replace our judgment, but it can become a powerful partner in delivering thoughtful, data-informed, and engaging therapy

Uncategorized

AI Group Chats: A New Dimension of Clinical Collaboration

AI is evolving at a pace that is beginning to reshape how therapists plan, create, and communicate. The newest feature to emerge from OpenAI—group chats within ChatGPT—opens a door to something far broader than individual support. It invites us into a shared thinking space, where professionals can co-create, exchange knowledge, and build clinical ideas together in real time. The concept is simple: instead of interacting with ChatGPT alone, up to twenty people can now join a single conversation. Each participant can add content, ask questions, bring examples from their field, or collaborate on documents while the AI remains available as a full conversation member. This creates a shared cognitive environment where ideas can move faster and develop in richer directions. From a therapy and rehabilitation perspective, this feels significant. Many of us work inside multidisciplinary teams. We collaborate with occupational therapists, psychologists, physical therapists, special educators, literacy specialists, and colleagues across languages and disciplines. Much of that collaboration happens through email threads, delayed messages, and informal discussions squeezed between appointments. The new group environment allows that entire process to become more fluid and immediate. When tested in clinical, content-building, and planning scenarios, it revealed an interesting strength. The AI is not simply answering questions. It behaves like a supportive peer who can step back, observe, and intervene only when needed. In interdisciplinary content creation, this becomes particularly powerful. Imagine a group of professionals drafting therapy materials together. Speech therapists contribute language goals, OTs focus on sensory integration or motor sequencing, psychologists add emotional framing, and educators ensure academic alignment. Instead of sending documents back and forth, you can see the draft evolve live, with the AI suggesting formulations, rephrasing language to be child-friendly, comparing two versions of an activity, or helping structure visual supports. In planning interdisciplinary sessions, the group chat can support goal alignment. You can outline each objective, ask the AI to check overlap or redundancy, and generate a structured session design in minutes. For therapists who constantly balance workload with documentation demands, this creates a major time advantage. Creative brainstorming also becomes more dynamic. When producing visuals, prompts, narrative story frames, or creative play ideas, the presence of several minds and a responsive AI provides diversity of thought that is difficult to replicate alone. All that said, the technology brings more than excitement. It brings responsibility.The strongest benefit appears when clinicians enter the space with intentionality. AI should not guide clinical decisions; it should support infrastructure, wording, creativity, and clarity. It cannot replace judgment, assessment skill, or reasoning. What it can do is amplify them. Privacy naturally remains a key focus. OpenAI’s structure places group decision-making and consent at the front of the design. Group chats are optional and separate from personal chats. Memory from private conversations does not carry into the shared environment, and the AI does not merge histories between users. However, that does not replace our ethical obligations. Patient-identifiable information should never be included. Notes, reports, names, or confidential data must remain protected within secure clinical systems. What emerges is a model of collaboration we have not experienced before. Instead of isolated conversations with the AI, we now have a genuine shared panel where professionals can think together. The result blends human insight with technical support in a way that potentially transforms workflow. Some early applications in therapy and rehabilitation may include: • Interdisciplinary brainstorming sessions for complex cases using de-identified clinical themes.• Co-writing therapy manuals, parent handouts, home programs, and lesson plans.• Developing school-based or clinic-based intervention frameworks that integrate multiple viewpoints.• Group training sessions for students or interns learning clinical reasoning. The value does not lie in AI producing answers for us. It lies in the structure it offers. Consistency, clarity, and streamlined collaboration are not small achievements in a field where time and cognitive load are serious challenges. For therapists working in modern healthcare environments, this may signal a shift. We are moving from individual AI interaction toward collective AI-supported teamwork. And that change appears to be arriving faster than expected. AI will not decide how you treat a patient. It will not evaluate speech samples for you or diagnose a disorder. But it can help you outline a treatment pathway, compare therapy approaches, or turn fragmented ideas into polished, shareable documents. Used wisely, group chats become a thinking enhancer rather than a thinking replacement. This development is not a promise of what might happen in five years. It is available now, and early users are already exploring its potential. As therapists, we can decide how deeply we want to engage, how responsibly we want to shape this tool, and how creatively we want to use the new collaborative space it provides.

Uncategorized

Conversations de groupe avec l’intelligence artificielle : une nouvelle dimension de la collaboration Clinique

L’intelligence artificielle évolue rapidement et transforme déjà la manière dont les thérapeutes planifient, créent et communiquent. Une nouvelle fonctionnalité de discussions de groupe au sein d’une grande plateforme conversationnelle ouvre un espace allant bien au-delà de l’appui individuel : un espace de réflexion partagé, dans lequel les professionnels peuvent co-créer, confronter leurs points de vue et élaborer ensemble des contenus et des stratégies cliniques en temps réel. Le principe est simple : au lieu d’interagir seul avec l’outil, jusqu’à vingt personnes peuvent désormais participer à une même conversation. Chacun peut ajouter du contenu, poser des questions, apporter des exemples issus de sa discipline ou collaborer sur des documents, tandis que l’assistant reste disponible comme un participant à part entière de l’échange. On obtient ainsi un cadre de travail commun où les idées circulent plus rapidement et s’enrichissent mutuellement. Du point de vue de la thérapie et de la rééducation, l’enjeu est important. Nombre de praticiens travaillent au sein d’équipes pluridisciplinaires, en lien avec des orthophonistes, des ergothérapeutes, des psychologues, des kinésithérapeutes, des enseignants spécialisés ou d’autres professionnels. Or ces échanges se font souvent par courriels, messages différés ou discussions informelles. L’espace de groupe rend ces collaborations plus fluides et plus immédiates. À l’usage, dans des situations de création de contenus et de planification, l’outil montre une force notable : il ne se limite pas à fournir des réponses, mais peut aider à structurer une réflexion, clarifier des objectifs, comparer des options et reformuler des propositions. Dans la co-création interdisciplinaire, cela constitue un véritable appui. Imaginez un groupe de professionnels concevant ensemble des supports thérapeutiques. Les orthophonistes définissent les cibles langagières, les ergothérapeutes travaillent la planification motrice ou l’intégration sensorielle, les psychologues apportent le cadrage émotionnel, et les enseignants veillent à l’alignement avec les exigences scolaires. Plutôt que de faire circuler des documents successifs, chacun voit le contenu évoluer en direct, tandis que l’assistant peut proposer des formulations, adapter le niveau de langage, comparer différentes versions d’une activité ou aider à structurer un support visuel. Pour la planification de séances interdisciplinaires, la discussion de groupe facilite l’alignement des objectifs. Il devient possible de repérer rapidement les recouvrements, d’éviter les redondances et de générer un déroulé cohérent en un temps réduit. Pour des professionnels soumis à une forte charge de travail, le gain de temps peut être significatif. Cette dynamique suppose toutefois une utilisation rigoureuse. L’assistant ne doit pas se substituer au raisonnement clinique. Il ne pose pas de diagnostic, n’évalue pas et ne décide pas du traitement. Son rôle est de soutenir la structure, la formulation et la clarté des échanges, tout en laissant la décision finale aux professionnels. La protection des données reste centrale. Les espaces de groupe sont distincts des échanges privés et ne doivent pas être utilisés comme des dossiers cliniques. Aucune information identifiante ne doit y être introduite, et les obligations de confidentialité et de conformité réglementaire, notamment au regard du RGPD, doivent être strictement respectées. Ce qui émerge est une forme de collaboration nouvelle : un tableau de travail partagé où le discernement humain et l’appui technique se complètent. Cette possibilité existe déjà. À nous, thérapeutes, de décider comment l’intégrer à nos pratiques, avec intention, rigueur et sens critique. Applications précoces possibles en thérapie et en rééducation : La valeur ne réside pas dans des réponses « toutes faites », mais dans la structure fournie : cohérence, clarté et collaboration allégée des avancées décisives dans un domaine où le temps et la charge mentale pèsent lourd. Pour les praticiens exerçant dans des environnements de santé contemporains, cela peut marquer un tournant. Nous passons d’une interaction individuelle avec l’assistant à un travail d’équipe soutenu par l’assistant collectif. Et ce changement arrive plus vite que prévu. L’assistant ne décidera pas du traitement à la place du thérapeute. Il n’évaluera pas les échantillons de parole et ne posera pas de diagnostic. En revanche, il peut aider à tracer un parcours de soin, comparer des approches, ou transformer des idées éparses en documents aboutis et partageables. Bien utilisé, l’échange de groupe devient un amplificateur de pensée, non un substitut. Il ne s’agit pas d’une promesse lointaine : cette possibilité existe déjà, et des utilisateurs en explorent dès à présent le potentiel. À nous, thérapeutes, de choisir jusqu’où nous voulons nous engager, avec quelle rigueur nous souhaitons façonner l’outil, et avec quelle créativité nous ferons vivre ce nouvel espace collaboratif.

Uncategorized

Zoom IA et l’Évaluation Avancée du Raisonnement (EAR) : pourquoi c’est important pour les thérapeutes

Récemment, la plateforme de visioconférence Zoom a annoncé que son système d’intelligence artificielle a obtenu 48,1 % à l’Évaluation avancée du raisonnement (EAR). À première vue, ce score peut sembler peu élevé. Dans un contexte scolaire ou académique classique, il serait considéré comme insuffisant. Pourtant, l’intérêt de cette étape tient à ce que l’évaluation mesure réellement, et à la manière dont l’IA de Zoom y est parvenue. L’EAR a été conçue pour évaluer le raisonnement plutôt que la mémorisation. De nombreuses évaluations d’IA mesurent avant tout la capacité à exploiter des régularités statistiques : lorsqu’un modèle a été exposé à un grand nombre d’exemples, il peut parfois produire une réponse correcte sans compréhension réelle. L’EAR retire ce filet de sécurité. Ses questions sont volontairement inédites et exigent un raisonnement en plusieurs étapes, de la résolution de problèmes et une justification argumentée. Le modèle doit interpréter un scénario, examiner différentes hypothèses explicatives et défendre une conclusion cohérente. Rappeler des informations ne suffit pas : c’est la structuration du raisonnement qui est évaluée. Un autre point particulièrement intéressant réside dans l’approche technique adoptée par Zoom. Plutôt que de s’appuyer sur un modèle unique et massif, l’entreprise a fait collaborer plusieurs modèles plus compacts. Chacun explore le problème selon ses points forts, vérifie le raisonnement et contribue à la réponse finale. Zoom résume cette démarche ainsi : « Explorer, vérifier, fédérer ». Cette logique est proche de la pratique clinique : face à une situation complexe, nous échangeons avec d’autres professionnels, confrontons les indices, discutons des hypothèses, puis intégrons ces éclairages pour parvenir à une décision plus solide. Dans certains contextes, un ensemble de modules spécialisés peut produire un raisonnement plus robuste qu’un système unique surdimensionné. Pourquoi les thérapeutes devraient-ils s’y intéresser ? Même si l’IA est encore loin d’un raisonnement comparable à celui d’un humain, cette étape laisse entrevoir des outils capables de soutenir le travail clinique de manière concrète. On peut imaginer une IA capable d’aider à analyser des notes de suivi et à repérer des évolutions dans le temps, de suggérer des idées d’activités thérapeutiques, de générer des supports visuels ou interactifs personnalisés, ou encore de produire des synthèses structurées utilisables en séance, y compris à distance. De tels systèmes pourraient réduire certaines tâches répétitives et permettre aux thérapeutes de consacrer davantage d’énergie à la relation thérapeutique, véritable moteur des progrès. L’approche dite « fédérée » suggère également des solutions potentiellement plus efficaces et plus lisibles. Plutôt que des modèles gigantesques et opaques, on pourrait voir émerger des assemblages de modules capables d’expliquer plus clairement la manière dont une conclusion est construite. Pour les cliniciens, cela peut renforcer la confiance dans les propositions de l’outil et faciliter son intégration au sein d’équipes pluridisciplinaires. L’EAR ne signifie pas que l’IA puisse remplacer les thérapeutes. Il s’agit d’un pas vers des systèmes centrés sur le raisonnement, conçus pour soutenir la pratique clinique. En mettant l’IA à l’épreuve dans des scénarios exigeants et inédits, cette évaluation montre que la technologie peut commencer à structurer un raisonnement, et pas seulement produire un texte fluide. Pour les thérapeutes, notamment en télésoin, cela ouvre la voie à des outils d’appui plus pertinents, à un engagement des patients plus personnalisé, et à des dispositifs qui aident à planifier, suivre et ajuster les interventions de façon plus efficiente. Nous n’en sommes qu’au début, mais des jalons comme l’examen final de l’humanité nous donnent un aperçu d’un futur où l’IA peut véritablement renforcer notre pratique clinique. Elle ne remplacera pas notre jugement, mais peut devenir un partenaire puissant pour offrir une thérapie réfléchie, fondée sur les données et réellement engageante.

Shopping Cart