Author name: Dr. Rania Kassir

English, Uncategorized

Teletherapy in 2026: Our Clinical Take on What AI Is Actually Changing

As therapists working daily in teletherapy, we have all felt the shift. AI is no longer something happening “out there” in tech headlines it is quietly entering our platforms, our workflows, and our clinical decision-making spaces. The question for us has never been whether AI will be used in therapy, but how it can be used without compromising ethics, clinical judgment, or the therapeutic relationship. Over the past year, we have actively explored, tested, and critically evaluated several AI-driven tools in teletherapy contexts. What stands out most is this: the most useful AI tools are not the loudest ones. They are the ones that reduce friction, cognitive load, and therapist burnout while preserving our role as the clinical authority. Expanding Access Without Diluting Care One of the most meaningful developments we’ve seen recently is how AI is being used to expand access to therapy rather than replace it. Platforms such as Constant Therapy have expanded their AI-driven speech and cognitive therapy programs into additional languages, including Spanish and Indian English. This matters clinically. It allows us to assign culturally and linguistically relevant home practice that aligns with what we are targeting in sessions, instead of relying on generic or mismatched materials. From our experience, this kind of AI-supported practice increases carryover without increasing preparation time something teletherapy clinicians deeply need. Conversational AI That Supports Continuity, Not Dependency Mental health platforms like Wysa, particularly with the introduction of Wysa Copilot, reflect a growing shift toward hybrid models where AI supports therapists rather than attempts to replace them. These systems help structure between-session support, guide reflective exercises, and support homework completion, all while keeping the clinician in the loop. When we tested similar conversational AI tools, what we valued most was not the chatbot itself, but the continuity. Clients arrived to sessions more regulated, more reflective, and more ready to engage because the therapeutic thread had not been completely paused between sessions. Speech and Language AI: Practice, Not Diagnosis Advances in automatic speech recognition have significantly improved the quality of AI-assisted speech practice tools. In articulation and fluency work, we’ve used AI-supported practice platforms to increase repetition, consistency, and feedback during teletherapy homework. Clinically, we see these tools as structured practice partners not assessors and certainly not diagnosticians. They help us gather cleaner data and observe patterns, but interpretation remains firmly in our hands. When used this way, AI becomes an efficiency tool rather than a clinical shortcut. Voice Biomarkers as Clinical Signals, Not Labels Another emerging area is the use of voice biomarkers tools that analyze vocal features to flag possible emotional or mental health risk markers. Tools like Kintsugi and Ellipsis Health are increasingly discussed in clinical AI spaces. When we explored these tools, we found them useful as conversation starters, not conclusions. In teletherapy, where subtle nonverbal cues can be harder to read, having an additional signal can help us ask better questions earlier in the session. We are very clear, however: these tools support clinical curiosity; they do not replace clinical judgment. Ethics, Regulation, and Our Responsibility Not all AI adoption has been smooth and rightly so. In 2025, several regions introduced restrictions on AI use in psychotherapeutic decision-making. From our perspective, this is not a step backward. It reflects a necessary pause to protect clients, clarify consent, and reinforce professional boundaries. As therapists, we carry responsibility not just for outcomes, but for process. Any AI tool we use must be transparent, ethically integrated, and clearly secondary to human clinical reasoning. What We’re Taking Forward Into Our Telepractice Based on what we’ve tested and observed, these are the principles guiding our use of AI in teletherapy: We use AI to reduce administrative and cognitive load, not to replace thinking.We choose tools grounded in clinical logic, not generic productivity hype.We prioritize transparency with families and clients about how technology is used.We treat AI outputs as data points, never as decisions. What feels different about teletherapy in 2026 is not the presence of AI it’s the maturity of how we engage with it. When AI is positioned as a background support rather than a clinical authority, it allows us to show up more present, more regulated, and more attuned to our clients. Teletherapy does not need less humanity. It needs protection of it. Used responsibly, AI helps us do exactly that.

English, Uncategorized

Wrapping Up 2025 A Year of AI in Therapy What We Learned and What We Expect Next

As we reach the end of the year, many of us are reflecting not just on our caseloads or outcomes, but on how much our daily practice has shifted. 2025 was not the year AI took over therapy. Instead, it was the year AI quietly settled into our workflows and pushed us as clinicians to become more intentional about protecting clinical judgment while embracing useful innovation. From speech therapy and mental health to teletherapy platforms, AI moved from experimental to practical. What matters now is how we, as therapists, choose to use it. AI This Year From Hype to Real Clinical Use One of the most noticeable changes in 2025 is how AI tools are being designed around clinicians rather than instead of them. Platforms such as Wysa, particularly through clinician supported tools like Wysa Copilot, reflect this shift. These systems are no longer simple chatbots. They now function as structured supports that help maintain therapeutic continuity between sessions while keeping clinicians in control. From our own testing and use, the value has not been in AI talking to clients, but in how it supports reflection, homework follow through, and emotional regulation between sessions. Clients arrive more prepared, and sessions feel less like a restart and more like a continuation. Speech and Language Practice Where AI Truly Helps In speech and language therapy, AI had its strongest impact this year in practice intensity and consistency. AI assisted articulation and voice practice tools now offer more accurate feedback and structured repetition that is difficult to achieve consistently between teletherapy sessions. We have used these tools as practice partners rather than assessors. They help us collect clearer data and observe patterns over time, while interpretation remains human. Their strength lies in freeing our cognitive space so we can focus on planning, adapting, and responding within sessions. Accessibility and Reach A Quiet Win Another important development this year has been the expansion of AI driven therapy platforms into additional languages and regions. Tools like Constant Therapy expanding into multiple languages signal something important. AI can reduce access barriers without lowering clinical standards. For teletherapy, this has translated into better carryover, more culturally relevant practice materials, and stronger engagement outside live sessions. Voice Based AI and Emotional Signals Used With Caution 2025 also brought increased attention to voice based AI tools that analyze speech patterns for emotional or mental health signals. Tools such as Kintsugi and Ellipsis Health are often mentioned in this context. From our experience, these tools work best as signals rather than answers. In teletherapy, where subtle cues can be harder to detect, they can guide deeper clinical questioning. They do not diagnose, and they should never replace observation, clinical interviews, or professional judgment. Ethics and Regulation Took Center Stage This year also reminded us that innovation without boundaries is risky. Increased regulation around AI use in therapy particularly related to crisis detection, consent, and transparency has been a necessary step. As clinicians, this aligns with what we already practice. Therapeutic work requires accountability, clarity, and human responsibility. AI must remain secondary to the therapeutic relationship. How We Are Using AI Going Forward As we close the year, these principles guide our clinical use of AI. We use AI to reduce administrative and cognitive load rather than replace thinking.We choose tools grounded in clinical logic and therapeutic models.We remain transparent with clients and families about AI use.We treat AI outputs as supportive data rather than clinical decisions. When used this way, AI becomes an ally rather than a distraction. Looking Ahead If 2025 was the year of testing and learning, the year ahead will likely focus on refinement. We expect clearer standards, better clinician informed design, and deeper conversations around ethics, inclusion, and sustainability. Most importantly, we expect the focus to return again and again to what matters most. Human connection, clinical reasoning, and ethical care. AI will continue to evolve. Our role as therapists remains unchanged. We interpret. We adapt. We connect.

French, Uncategorized

Téléthérapie en 2026 : notre point de vue clinique sur ce que l’IA change réellement

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

French, Uncategorized

Clore 2025: Une année d’IA en thérapie : ce que nous avons appris et ce que nous anticipons

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

Uncategorized

Zoom AI and Humanity’s Last Exam: Why This Matters for Therapists

Recently, Zoom announced that its AI system scored 48.1% on a benchmark called Humanity’s Last Exam, or HLE. At first, that number might not seem impressive. On a typical test, it would be a failing grade. But what makes this milestone interesting is what the exam actually measures and how Zoom’s AI achieved it. HLE was designed to test reasoning rather than memorisation. Most AI benchmarks measure pattern recognition. If a model has seen enough examples, it can often produce a correct answer without really understanding. HLE removes that safety net. Its questions cover a broad academic spectrum, from medicine and law to literature and philosophy. They are unfamiliar on purpose, requiring multi-step reasoning, problem-solving, and justification. A model must interpret a scenario, weigh possible explanations, and defend a final conclusion. It is not enough to recall information. The exam rewards logical thinking. What we found particularly interesting is how Zoom approached the problem. Instead of relying on one massive AI, they used multiple smaller models working together. Each model explores the problem from its own perspective, verifies the reasoning, and contributes to a final answer. Zoom calls this approach Explore, Verify, Federate. It mirrors the way we often work in clinical settings. When complex decisions arise, we collaborate with other specialists, weigh evidence, and integrate insights to reach the best conclusion. Smaller models focusing on what they do best can produce stronger reasoning than a single, oversized system. So why should therapists care about this? While AI is still far from human-level reasoning, this breakthrough hints at tools that could support clinical work in meaningful ways. We can imagine AI helping us analyse case notes and track patterns over time. It could suggest potential therapy activities, generate personalised visual or interactive tools, or provide structured summaries during teletherapy sessions. These systems could reduce repetitive tasks and free us to focus on the human connection that drives therapy outcomes. The federated approach also suggests AI could become more efficient and transparent. Instead of massive, opaque models, we could see networks of smaller reasoning engines that explain how they arrive at conclusions. For us, that means more trust in AI’s suggestions and better integration into multidisciplinary teams. HLE is not a signal that AI can replace therapists. It is a step toward reasoning-focused tools that work with us. By testing AI in challenging, unfamiliar scenarios, researchers are showing that the technology can begin to reason rather than just produce fluent text. For therapists, especially in teletherapy, this opens doors to smarter support systems, more personalised client engagement, and tools that help us plan, track, and refine interventions efficiently. We are still early in this journey, but milestones like Humanity’s Last Exam give us a glimpse into a future where AI can truly enhance our clinical practice. It won’t replace our judgment, but it can become a powerful partner in delivering thoughtful, data-informed, and engaging therapy

Uncategorized

AI Group Chats: A New Dimension of Clinical Collaboration

AI is evolving at a pace that is beginning to reshape how therapists plan, create, and communicate. The newest feature to emerge from OpenAI—group chats within ChatGPT—opens a door to something far broader than individual support. It invites us into a shared thinking space, where professionals can co-create, exchange knowledge, and build clinical ideas together in real time. The concept is simple: instead of interacting with ChatGPT alone, up to twenty people can now join a single conversation. Each participant can add content, ask questions, bring examples from their field, or collaborate on documents while the AI remains available as a full conversation member. This creates a shared cognitive environment where ideas can move faster and develop in richer directions. From a therapy and rehabilitation perspective, this feels significant. Many of us work inside multidisciplinary teams. We collaborate with occupational therapists, psychologists, physical therapists, special educators, literacy specialists, and colleagues across languages and disciplines. Much of that collaboration happens through email threads, delayed messages, and informal discussions squeezed between appointments. The new group environment allows that entire process to become more fluid and immediate. When tested in clinical, content-building, and planning scenarios, it revealed an interesting strength. The AI is not simply answering questions. It behaves like a supportive peer who can step back, observe, and intervene only when needed. In interdisciplinary content creation, this becomes particularly powerful. Imagine a group of professionals drafting therapy materials together. Speech therapists contribute language goals, OTs focus on sensory integration or motor sequencing, psychologists add emotional framing, and educators ensure academic alignment. Instead of sending documents back and forth, you can see the draft evolve live, with the AI suggesting formulations, rephrasing language to be child-friendly, comparing two versions of an activity, or helping structure visual supports. In planning interdisciplinary sessions, the group chat can support goal alignment. You can outline each objective, ask the AI to check overlap or redundancy, and generate a structured session design in minutes. For therapists who constantly balance workload with documentation demands, this creates a major time advantage. Creative brainstorming also becomes more dynamic. When producing visuals, prompts, narrative story frames, or creative play ideas, the presence of several minds and a responsive AI provides diversity of thought that is difficult to replicate alone. All that said, the technology brings more than excitement. It brings responsibility.The strongest benefit appears when clinicians enter the space with intentionality. AI should not guide clinical decisions; it should support infrastructure, wording, creativity, and clarity. It cannot replace judgment, assessment skill, or reasoning. What it can do is amplify them. Privacy naturally remains a key focus. OpenAI’s structure places group decision-making and consent at the front of the design. Group chats are optional and separate from personal chats. Memory from private conversations does not carry into the shared environment, and the AI does not merge histories between users. However, that does not replace our ethical obligations. Patient-identifiable information should never be included. Notes, reports, names, or confidential data must remain protected within secure clinical systems. What emerges is a model of collaboration we have not experienced before. Instead of isolated conversations with the AI, we now have a genuine shared panel where professionals can think together. The result blends human insight with technical support in a way that potentially transforms workflow. Some early applications in therapy and rehabilitation may include: • Interdisciplinary brainstorming sessions for complex cases using de-identified clinical themes.• Co-writing therapy manuals, parent handouts, home programs, and lesson plans.• Developing school-based or clinic-based intervention frameworks that integrate multiple viewpoints.• Group training sessions for students or interns learning clinical reasoning. The value does not lie in AI producing answers for us. It lies in the structure it offers. Consistency, clarity, and streamlined collaboration are not small achievements in a field where time and cognitive load are serious challenges. For therapists working in modern healthcare environments, this may signal a shift. We are moving from individual AI interaction toward collective AI-supported teamwork. And that change appears to be arriving faster than expected. AI will not decide how you treat a patient. It will not evaluate speech samples for you or diagnose a disorder. But it can help you outline a treatment pathway, compare therapy approaches, or turn fragmented ideas into polished, shareable documents. Used wisely, group chats become a thinking enhancer rather than a thinking replacement. This development is not a promise of what might happen in five years. It is available now, and early users are already exploring its potential. As therapists, we can decide how deeply we want to engage, how responsibly we want to shape this tool, and how creatively we want to use the new collaborative space it provides.

Uncategorized

Conversations de groupe avec l’intelligence artificielle : une nouvelle dimension de la collaboration Clinique

L’intelligence artificielle évolue rapidement et transforme déjà la manière dont les thérapeutes planifient, créent et communiquent. Une nouvelle fonctionnalité de discussions de groupe au sein d’une grande plateforme conversationnelle ouvre un espace allant bien au-delà de l’appui individuel : un espace de réflexion partagé, dans lequel les professionnels peuvent co-créer, confronter leurs points de vue et élaborer ensemble des contenus et des stratégies cliniques en temps réel. Le principe est simple : au lieu d’interagir seul avec l’outil, jusqu’à vingt personnes peuvent désormais participer à une même conversation. Chacun peut ajouter du contenu, poser des questions, apporter des exemples issus de sa discipline ou collaborer sur des documents, tandis que l’assistant reste disponible comme un participant à part entière de l’échange. On obtient ainsi un cadre de travail commun où les idées circulent plus rapidement et s’enrichissent mutuellement. Du point de vue de la thérapie et de la rééducation, l’enjeu est important. Nombre de praticiens travaillent au sein d’équipes pluridisciplinaires, en lien avec des orthophonistes, des ergothérapeutes, des psychologues, des kinésithérapeutes, des enseignants spécialisés ou d’autres professionnels. Or ces échanges se font souvent par courriels, messages différés ou discussions informelles. L’espace de groupe rend ces collaborations plus fluides et plus immédiates. À l’usage, dans des situations de création de contenus et de planification, l’outil montre une force notable : il ne se limite pas à fournir des réponses, mais peut aider à structurer une réflexion, clarifier des objectifs, comparer des options et reformuler des propositions. Dans la co-création interdisciplinaire, cela constitue un véritable appui. Imaginez un groupe de professionnels concevant ensemble des supports thérapeutiques. Les orthophonistes définissent les cibles langagières, les ergothérapeutes travaillent la planification motrice ou l’intégration sensorielle, les psychologues apportent le cadrage émotionnel, et les enseignants veillent à l’alignement avec les exigences scolaires. Plutôt que de faire circuler des documents successifs, chacun voit le contenu évoluer en direct, tandis que l’assistant peut proposer des formulations, adapter le niveau de langage, comparer différentes versions d’une activité ou aider à structurer un support visuel. Pour la planification de séances interdisciplinaires, la discussion de groupe facilite l’alignement des objectifs. Il devient possible de repérer rapidement les recouvrements, d’éviter les redondances et de générer un déroulé cohérent en un temps réduit. Pour des professionnels soumis à une forte charge de travail, le gain de temps peut être significatif. Cette dynamique suppose toutefois une utilisation rigoureuse. L’assistant ne doit pas se substituer au raisonnement clinique. Il ne pose pas de diagnostic, n’évalue pas et ne décide pas du traitement. Son rôle est de soutenir la structure, la formulation et la clarté des échanges, tout en laissant la décision finale aux professionnels. La protection des données reste centrale. Les espaces de groupe sont distincts des échanges privés et ne doivent pas être utilisés comme des dossiers cliniques. Aucune information identifiante ne doit y être introduite, et les obligations de confidentialité et de conformité réglementaire, notamment au regard du RGPD, doivent être strictement respectées. Ce qui émerge est une forme de collaboration nouvelle : un tableau de travail partagé où le discernement humain et l’appui technique se complètent. Cette possibilité existe déjà. À nous, thérapeutes, de décider comment l’intégrer à nos pratiques, avec intention, rigueur et sens critique. Applications précoces possibles en thérapie et en rééducation : La valeur ne réside pas dans des réponses « toutes faites », mais dans la structure fournie : cohérence, clarté et collaboration allégée des avancées décisives dans un domaine où le temps et la charge mentale pèsent lourd. Pour les praticiens exerçant dans des environnements de santé contemporains, cela peut marquer un tournant. Nous passons d’une interaction individuelle avec l’assistant à un travail d’équipe soutenu par l’assistant collectif. Et ce changement arrive plus vite que prévu. L’assistant ne décidera pas du traitement à la place du thérapeute. Il n’évaluera pas les échantillons de parole et ne posera pas de diagnostic. En revanche, il peut aider à tracer un parcours de soin, comparer des approches, ou transformer des idées éparses en documents aboutis et partageables. Bien utilisé, l’échange de groupe devient un amplificateur de pensée, non un substitut. Il ne s’agit pas d’une promesse lointaine : cette possibilité existe déjà, et des utilisateurs en explorent dès à présent le potentiel. À nous, thérapeutes, de choisir jusqu’où nous voulons nous engager, avec quelle rigueur nous souhaitons façonner l’outil, et avec quelle créativité nous ferons vivre ce nouvel espace collaboratif.

Uncategorized

Zoom IA et l’Évaluation Avancée du Raisonnement (EAR) : pourquoi c’est important pour les thérapeutes

Récemment, la plateforme de visioconférence Zoom a annoncé que son système d’intelligence artificielle a obtenu 48,1 % à l’Évaluation avancée du raisonnement (EAR). À première vue, ce score peut sembler peu élevé. Dans un contexte scolaire ou académique classique, il serait considéré comme insuffisant. Pourtant, l’intérêt de cette étape tient à ce que l’évaluation mesure réellement, et à la manière dont l’IA de Zoom y est parvenue. L’EAR a été conçue pour évaluer le raisonnement plutôt que la mémorisation. De nombreuses évaluations d’IA mesurent avant tout la capacité à exploiter des régularités statistiques : lorsqu’un modèle a été exposé à un grand nombre d’exemples, il peut parfois produire une réponse correcte sans compréhension réelle. L’EAR retire ce filet de sécurité. Ses questions sont volontairement inédites et exigent un raisonnement en plusieurs étapes, de la résolution de problèmes et une justification argumentée. Le modèle doit interpréter un scénario, examiner différentes hypothèses explicatives et défendre une conclusion cohérente. Rappeler des informations ne suffit pas : c’est la structuration du raisonnement qui est évaluée. Un autre point particulièrement intéressant réside dans l’approche technique adoptée par Zoom. Plutôt que de s’appuyer sur un modèle unique et massif, l’entreprise a fait collaborer plusieurs modèles plus compacts. Chacun explore le problème selon ses points forts, vérifie le raisonnement et contribue à la réponse finale. Zoom résume cette démarche ainsi : « Explorer, vérifier, fédérer ». Cette logique est proche de la pratique clinique : face à une situation complexe, nous échangeons avec d’autres professionnels, confrontons les indices, discutons des hypothèses, puis intégrons ces éclairages pour parvenir à une décision plus solide. Dans certains contextes, un ensemble de modules spécialisés peut produire un raisonnement plus robuste qu’un système unique surdimensionné. Pourquoi les thérapeutes devraient-ils s’y intéresser ? Même si l’IA est encore loin d’un raisonnement comparable à celui d’un humain, cette étape laisse entrevoir des outils capables de soutenir le travail clinique de manière concrète. On peut imaginer une IA capable d’aider à analyser des notes de suivi et à repérer des évolutions dans le temps, de suggérer des idées d’activités thérapeutiques, de générer des supports visuels ou interactifs personnalisés, ou encore de produire des synthèses structurées utilisables en séance, y compris à distance. De tels systèmes pourraient réduire certaines tâches répétitives et permettre aux thérapeutes de consacrer davantage d’énergie à la relation thérapeutique, véritable moteur des progrès. L’approche dite « fédérée » suggère également des solutions potentiellement plus efficaces et plus lisibles. Plutôt que des modèles gigantesques et opaques, on pourrait voir émerger des assemblages de modules capables d’expliquer plus clairement la manière dont une conclusion est construite. Pour les cliniciens, cela peut renforcer la confiance dans les propositions de l’outil et faciliter son intégration au sein d’équipes pluridisciplinaires. L’EAR ne signifie pas que l’IA puisse remplacer les thérapeutes. Il s’agit d’un pas vers des systèmes centrés sur le raisonnement, conçus pour soutenir la pratique clinique. En mettant l’IA à l’épreuve dans des scénarios exigeants et inédits, cette évaluation montre que la technologie peut commencer à structurer un raisonnement, et pas seulement produire un texte fluide. Pour les thérapeutes, notamment en télésoin, cela ouvre la voie à des outils d’appui plus pertinents, à un engagement des patients plus personnalisé, et à des dispositifs qui aident à planifier, suivre et ajuster les interventions de façon plus efficiente. Nous n’en sommes qu’au début, mais des jalons comme l’examen final de l’humanité nous donnent un aperçu d’un futur où l’IA peut véritablement renforcer notre pratique clinique. Elle ne remplacera pas notre jugement, mais peut devenir un partenaire puissant pour offrir une thérapie réfléchie, fondée sur les données et réellement engageante.

Uncategorized

Les tout derniers outils d’IA pour la recherche scientifique à surveiller de près

Chaque année, une nouvelle vague d’outils d’IA arrive dans le paysage de la recherche, tous prétendant « transformer la science ». La plupart parviennent à accélérer les workflows. Bien moins nombreux sont ceux qui améliorent réellement la qualité du raisonnement scientifique. Ce qui distingue la génération actuelle d’outils d’IA dédiés à la recherche, ce n’est pas seulement la vitesse, mais l’endroit où ils interviennent dans le processus scientifique. De plus en plus, ces systèmes influencent la manière de formuler les questions, d’évaluer les preuves et de synthétiser les idées. De notre point de vue, cela représente un changement substantiel dans la façon même de mener l’enquête scientifique. L’un des développements les plus marquants est l’essor de l’« intelligence documentaire » pilotée par l’IA (des systèmes qui lisent, relient et comparent de grands volumes d’articles scientifiques pour identifier les motifs, les convergences et les contradictions). Des outils comme Elicit, Consensus, Scite, ainsi que les fonctionnalités enrichies par l’IA de Semantic Scholar, vont au‑delà de la recherche par mots‑clés en s’appuyant sur des « embeddings » sémantiques (des représentations mathématiques du sens plutôt que de la simple forme des mots). Cela permet de regrouper les études par proximité conceptuelle plutôt que par terminologie partagée. Pour les chercheurs évoluant dans des domaines denses et en rapide mutation (comme les neurosciences, la psychologie et les sciences de la santé) cela reconfigure la revue de littérature en un processus de synthèse active, aidant à clarifier où les preuves convergent, où elles divergent et où subsistent des lacunes. Étroitement lié à cela, on observe l’émergence de la génération d’hypothèses assistée par l’IA (exploration et affinement des questions de recherche à partir de la littérature existante et des jeux de données). Des plateformes comme BenchSci, ainsi que des copilotes de recherche intégrés aux environnements statistiques et de code, aident les chercheurs à repérer, dès la phase de conception, les variables pertinentes, les contrôles manquants et les facteurs de confusion potentiels. Beaucoup de ces systèmes s’appuient sur l’apprentissage par renforcement (une approche d’entraînement où l’IA s’améliore par retours itératifs et ajustements), de sorte que les suggestions évoluent vers un raisonnement plus clair et de meilleurs résultats méthodologiques. Bien utilisés, ces outils ne remplacent pas le jugement scientifique ; ils favorisent une réflexion plus précoce et un design d’étude plus délibéré. Un autre domaine en plein essor est l’IA multimodale (des modèles capables d’intégrer textes, images, tableaux, graphiques et données numériques au sein d’un même cadre de raisonnement). Des outils comme DeepLabCut pour l’analyse du mouvement et Cellpose pour la segmentation d’images biomédicales illustrent comment l’IA peut unifier des flux de données comportementales, visuelles et quantitatives traditionnellement analysés séparément. En recherche sur le cerveau et le comportement, cette intégration est particulièrement précieuse. Relier comportements observés, résultats d’imagerie et notes cliniques écrites favorise une interprétation plus cohérente et réduit la fragmentation qui freine souvent la recherche interdisciplinaire. Nous constatons également des progrès notables en analyse de données et en découverte de motifs pilotées par l’IA (des systèmes qui aident à identifier des tendances et relations significatives au sein de jeux de données complexes). Les plateformes d’AutoML et les outils statistiques augmentés par l’IA abaissent les barrières techniques, permettant aux chercheurs d’explorer plus efficacement plusieurs approches analytiques. Si les bases de la statistique restent non négociables, ces outils peuvent faire émerger plus tôt des pistes prometteuses, guidant des hypothèses et des analyses plus ciblées plutôt qu’encourageant une automatisation indiscriminée. Tout aussi important, l’accent grandissant mis sur la transparence et la reproductibilité (la capacité à retracer les sources, les étapes analytiques et les trajectoires de raisonnement). Des outils comme Scite indiquent explicitement si un article a été étayé ou contredit par des travaux ultérieurs, tandis que de nouvelles plateformes de recherche propulsées par l’IA documentent de plus en plus comment les conclusions sont produites. À l’heure où les inquiétudes envers la « boîte noire » scientifique s’intensifient, cette philosophie de conception compte. Une IA qui renforce la rigueur tout en rendant le raisonnement visible est bien plus alignée avec les valeurs fondamentales de la démarche scientifique que des systèmes qui se limitent à générer des résultats soignés. De notre point de vue, chez Happy Brain Training, la pertinence de ces outils dépasse largement le milieu académique. La pratique fondée sur les preuves exige une recherche non seulement de haute qualité, mais aussi interprétable et applicable. Lorsque l’IA soutient une synthèse plus claire, un design d’étude plus robuste et une interprétation des données plus intégrée, les bénéfices se répercutent jusqu’aux cliniciens, aux enseignants, aux thérapeutes et, in fine, aux personnes qu’ils accompagnent. Le fossé entre la recherche et la pratique se resserre lorsque le savoir devient plus cohérent pas seulement plus rapide à produire. Limites et questions d’accès Malgré leur potentiel, ces outils comportent des limites importantes qui appellent à la vigilance. Beaucoup de plateformes d’IA dédiées à la recherche fonctionnent désormais sur abonnement, avec des niveaux d’accès très variables selon le tarif. La profondeur de la couverture bibliographique, le nombre de requêtes, les fonctionnalités d’analyse avancées et les options d’export évoluent souvent à la hausse avec les formules plus onéreuses. Résultat : l’accès aux capacités les plus puissantes peut être conditionné par le financement institutionnel ou la capacité de chacun à payer. Par ailleurs, la disponibilité des fonctionnalités et les performances des modèles peuvent évoluer au fil des mises à jour. C’est pourquoi les chercheurs devraient vérifier les niveaux d’accès, les sources de données et les limitations auprès de la documentation officielle des plateformes ou des ressources de leur institution avant d’intégrer ces outils à des workflows critiques. Les résumés et recommandations générés par l’IA doivent toujours être recoupés avec les sources originales, en particulier dans les contextes clinique, éducatif ou liés aux politiques publiques. Dans le même temps, la prudence reste de mise. Ces systèmes sont puissants, mais pas neutres. Ils reflètent les données sur lesquelles ils ont été entraînés, les incitations qui orientent leur conception et les hypothèses incorporées dans leurs modèles. L’avenir de la recherche scientifique n’est pas

Uncategorized

Tout ce qu’il faut savoir sur DeepSeek V3.2: notre point de vue

De temps en temps, une sortie d’IA ne se contente pas d’ajouter une fonction ou d’améliorer légèrement des scores de benchmark : elle redéfinit silencieusement ce qui paraît possible. DeepSeek V3.2 fait partie de celles‑là. Si le nom « DeepSeek » fait autant de bruit dans les cercles tech américains en ce moment, c’est parce qu’il l’a mérité non pas en jouant la carte du spectacle, mais en bousculant, de manière systématique, les idées reçues sur les coûts, l’échelle et qui est réellement en mesure de faire avancer l’innovation. Avec V3.2 et sa déclinaison plus avancée, V3.2‑Speciale, DeepSeek force à nouveau l’industrie à repenser la façon dont le raisonnement à long contexte doit fonctionner. Au cœur de cette version, on trouve un concept en apparence simple : l’attention éparse (sparse attention). La plupart des grands modèles de langage tentent aujourd’hui de « prêter attention » à tout, en même temps, dans une conversation ou un document. À mesure que le contexte s’allonge, le coût de calcul explose. Concrètement, cela signifie que les longs rapports, les historiques de cas étendus ou les raisonnements multi‑étapes complexes deviennent rapidement coûteux et lents. L’approche de DeepSeek est différente : l’attention clairsemée permet au modèle de se concentrer uniquement sur les parties de l’entrée qui comptent vraiment pour la tâche en cours, plutôt que de tout relire à chaque fois. Conceptuellement, on se rapproche davantage de notre façon humaine de faire : survoler, prioriser, puis zoomer là où la pertinence est maximale. L’impact de ce choix d’architecture est considérable. Avec des mécanismes d’attention classiques, traiter un document dix fois plus long coûte à peu près dix fois plus cher parfois pire. Avec l’attention clairsemée de DeepSeek, cette hausse est fortement contenue, plus proche d’une croissance linéaire que d’une explosion exponentielle. En pratique, cela rend enfin l’IA à long context, que beaucoup d’entre nous souhaitent, mais utilisent peu en profondeur, nettement plus accessible. Pour tous ceux qui manipulent des documents volumineux, des échanges prolongés ou des données cumulatives dans le temps, ce changement pèse plus lourd que bien des « features » mises en avant dans les annonces. Vient ensuite V3.2‑Speciale, qui fait passer DeepSeek du statut « intéressant » à « impossible à ignorer ». Ce modèle a atteint un niveau « médaille d’or » sur certains des benchmarks de raisonnement les plus exigeants au monde, notamment l’Olympiade internationale de mathématiques et d’autres compétitions d’élite utilisées pour éprouver les systèmes de raisonnement avancés. Sur des benchmarks de référence comme AIME (un concours de mathématiques américain de niveau avancé) et HMMT (un tournoi de mathématiques très compétitif organisé par des étudiants de Harvard et du MIT), Speciale égale ou dépasse des modèles issus de laboratoires bien plus dotés et plus connus. Ce qui frappe, au‑delà des performances brutes, c’est le timing : DeepSeek a livré ce niveau de raisonnement avant plusieurs laboratoires occidentaux dont beaucoup pensaient qu’ils arriveraient les premiers. Il existe, bien sûr, un compromis. Speciale génère davantage de tokens par problème complexe, il « pense à voix haute » plus que certains modèles concurrents. Normalement, cela se traduirait par des coûts plus élevés. Pourtant, DeepSeek casse tellement les prix que, même avec une consommation de tokens accrue, le coût total reste nettement inférieur. Si l’on prend du recul et qu’on fait le calcul, les utilisateurs réalisent malgré tout des économies substantielles pour les tâches de raisonnement avancé. À lui seul, ce positionnement tarifaire rebat les cartes : il élargit réellement le cercle de celles et ceux qui peuvent expérimenter avec des modèles de raisonnement profond et réduit le risque d’exclusion. Tout aussi important : la manière dont DeepSeek a conçu et partagé ce travail. L’équipe s’est fortement appuyée sur l’apprentissage par renforcement à grande échelle, en entraînant le modèle sur des milliers d’itérations et d’environnements simulés couvrant le code, les mathématiques, le raisonnement sur bases de données et des tâches à forte composante logique. Elle a également introduit un entraînement en deux étapes : d’abord apprendre à un système plus petit à identifier ce qui compte dans une interaction, puis utiliser cette « connaissance d’orientation » pour guider l’attention clairsemée du modèle complet. Ce qui distingue DeepSeek, c’est la transparence : l’article technique ne se contente pas de célébrer les réussites, il documente les méthodes, les choix de conception et même les cas d’échec. Dans un secteur où le secret reste souvent la norme, cette ouverture accélère les progrès bien au‑delà d’un seul laboratoire. De notre point de vue, à Happy Brain Training, l’enjeu majeur de DeepSeek V3.2 n’est pas de dépasser tel ou tel modèle au classement. Il s’agit d’accès. Quand le raisonnement à long contexte devient dix fois moins cher, il cesse d’être une option de luxe et devient un outil pratique. Les implications sont fortes pour l’éducation, la santé, la recherche et la pratique clinique, où le contexte est rarement court et où la nuance compte. La capacité à exploiter des historiques étendus, des informations superposées et des trajectoires narratives évolutives correspond exactement à la direction que doit prendre l’IA pour être réellement utile. Pour la suite, on imagine mal les laboratoires occidentaux ne pas réagir. L’attention clairsemée et l’apprentissage par renforcement à grande échelle sont trop efficaces pour être ignorés, et des approches similaires devraient apparaître dans les six à douze prochains mois. DeepSeek a, en quelque sorte, accéléré le calendrier. Pour l’heure, V3.2 est disponible via API, et Speciale est accessible via un point d’accès temporaire pendant la phase de collecte de retours. Nous suivrons cela de près, non pas seulement en observateurs des avancées de l’IA, mais en praticiens soucieux d’intégrer ces outils de manière responsable, réfléchie, et au service du travail humain, sans le submerger.

Shopping Cart