Author name: Dr. Rania Kassir

English

PhD-Intelligences” Is Nonsense – What Demis Hassabis’ Statement Means for AI in Research and Healthcare

In a recent interview, Demis Hassabis, CEO of Google DeepMind, dismissed claims that today’s AI models possess “PhD-level intelligence.” His message was clear: while AI can sometimes match or outperform humans in narrow tasks, it is far from demonstrating general intelligence. Calling these models “PhD-intelligences,” he argues, is misleading and risks creating unrealistic expectations for what AI can do in fields like healthcare and research. Hassabis notes that models such as Gemini or GPT-style systems show “pockets of PhD-level performance” in areas like protein folding, medical imaging, or advanced problem-solving. However, these systems also fail at basic reasoning tasks, cannot learn continuously, and often make elementary mistakes that no human researcher would. According to Hassabis, true Artificial General Intelligence (AGI)—a system that can learn flexibly across domains—remains 5–10 years away. What This Means for Research and Healthcare AI’s current limitations don’t mean it has no place in our work. Instead, they point to how we should use it responsibly and strategically. Practical Takeaways: Example Applications by Discipline Field Current Benefits of AI Limitations / Risks Healthcare Research Protein structure prediction (e.g., AlphaFold); drug discovery pipelines; imaging diagnostics. Errors in generalization; opaque reasoning; bias in data. Therapy & Psychology Drafting therapy materials; generating behavior scenarios; transcribing sessions. Risk of over-reliance; errors in sensitive contexts. Special Education Differentiated content creation; progress tracking; accessible learning supports. Potentially inaccurate recommendations without context. Looking Ahead Even without AGI, today’s AI tools can dramatically accelerate workflows and augment human expertise. But the caution from Hassabis reminds us: AI is not a replacement for human intelligence—it is a partner in progress. As researchers and clinicians, our responsibility is two-fold: In our next editions, we’ll explore how to integrate AI into research more concretely, with examples from therapy and healthcare studies. References

English

Meta’s New Glasses Just Changed Everything – What It Means for Therapists and Patients

Meta’s latest innovation—the Ray-Ban Display AI glasses paired with a neural EMG wristband—is creating waves well beyond the tech world. For years, smart glasses promised more than they delivered, but this time, the combination of a heads-up lens display, AI integration, and subtle gesture control suggests wearables are stepping into a new era. For therapists and patients, the potential is huge. At the core of the innovation is a full-color display inside the right lens, giving users discreet, real-time access to information without reaching for a phone. Paired with the Meta Neural Band, which detects wrist and finger movements via electromyography (EMG), the glasses allow hands-free control—ideal for users with mobility limitations or professionals needing quick interactions. Live captions, translations, messaging, and navigation can now appear directly in your line of sight. Key Features Therapists Should Know: Clinical Applications and Patient Benefits Therapy Area Potential Benefits Considerations Speech & Language Therapy Live captions for hearing-impaired clients; on-screen prompts for language tasks; gesture-based engagement Display size/readability; learning curve; potential distraction Occupational Therapy EMG control supports limited dexterity; interactive visual prompts for task sequencing Calibration required; less effective with tremors/severe motor impairments Psychomotor Therapy Movement guidance in real time; visual cues for coordination exercises Must keep exercises embodied, not screen-bound Psychology & Special Education Personalized reminders, translations, discreet coping prompts; increased independence Privacy, data security, risk of over-reliance on prompts What to Watch For The Funny Part: During the demo, the glasses completely malfunctioned—the captions started translating “Hello” into what looked like Morse code! But here’s the twist: even in chaos, the potential for therapy applications shone through. Imagine hands-free prompts during speech therapy, or gesture-controlled task sequences for occupational therapy—this is just the beginning. The bigger picture? These glasses mark a step toward assistive augmented reality. As battery life improves and features like lip-reading captions, real-time therapy overlays, and telehealth integration emerge, therapists could gain a whole new medium for intervention. Awareness now is key—understanding what these devices can and cannot do will help us prepare for the future. Stay tuned for our next edition, where we’ll dive deeper into practical ways to integrate wearables into therapy sessions.

French

Les nouvelles lunettes de Meta viennent de tout changer – Ce que cela signifie pour les thérapeutes et les patient·e·s

La dernière innovation de Meta – les lunettes Ray-Ban Display AI couplées à un bracelet neural EMG – fait bien plus que buzz dans le monde tech. Pendant des années, les lunettes intelligentes ont promis plus qu’elles n’ont tenu, mais cette fois, la combinaison d’un affichage tête haute, d’une intégration IA et d’un contrôle par gestes subtils suggère que les wearables entrent dans une nouvelle ère. Pour les thérapeutes et les patient·e·s, les possibilités sont immenses. Au cœur de cette innovation : un écran couleur intégré dans la lentille droite, offrant un accès discret et en temps réel à l’information, sans avoir à sortir son téléphone. Associé au Meta Neural Band – qui détecte les mouvements du poignet et des doigts via l’électromyographie (EMG) – ces lunettes permettent un contrôle sans les mains, idéal pour les utilisateur·rice·s à mobilité réduite ou les professionnel·le·s ayant besoin d’interactions rapides. Sous-titres en direct, traductions, messagerie et navigation s’affichent désormais directement dans votre champ de vision. Fonctionnalités clés à connaître pour les thérapeutes ✔ Affichage visuel : Instructions, sous-titres et rappels sans les mains. ✔ Contrôle par gestes : Le bracelet EMG permet des actions discrètes avec les doigts ou le poignet. ✔ Communication assistée : Traduction et sous-titrage en temps réel. ✔ Design classique : Élégant et discret, réduisant la stigmatisation liée aux “gadgets tech”. Applications cliniques et bénéfices pour les patient·e·s Domaine thérapeutique Avantages potentiels Points de vigilance Orthophonie Sous-titres en direct pour les malentendant·e·s ; rappels visuels pour les tâches langagières ; engagement par gestes. Taille/lisibilité de l’affichage ; courbe d’apprentissage ; risque de distraction. Ergothérapie Contrôle EMG pour les personnes à dexterité limitée ; prompts visuels interactifs pour le séquençage des tâches.   Calibrage nécessaire ; moins efficace en cas de tremblements ou troubles moteurs sévères. Psychomotricité Guidage visuel en temps réel pour les exercices ; indices pour la coordination. Garder les exercices ancrés dans le corps, pas seulement sur écran. Psychologie & Éducation spéciale Rappels personnalisés, traductions, prompts discrets pour la gestion du stress ; autonomie accrue. Vie privée, sécurité des données, risque de dépendance aux rappels. Points à surveiller Le détail amusant : Pendant la démo, les lunettes ont complètement bugué – les sous-titres ont commencé à traduire « Hello » en ce qui ressemblait à du code Morse ! Mais voici le paradoxe : même dans le chaos, le potentiel pour les applications thérapeutiques était évident. Imaginez des rappels mains libres en orthophonie, ou des séquences de tâches contrôlées par gestes en ergothérapie… Ce n’est qu’un début. La vision d’ensemble ? Ces lunettes marquent une étape vers une réalité augmentée assistive. À mesure que l’autonomie de la batterie s’améliore et que des fonctionnalités comme les sous-titres par lecture labiale, les superpositions thérapeutiques en temps réel ou l’intégration télésoin émergent, les thérapeutes pourraient disposer d’un tout nouveau média d’intervention. Se préparer dès maintenant est essentiel – comprendre ce que ces dispositifs peuvent (et ne peuvent pas) faire nous aidera à anticiper l’avenir. Restez à l’écoute pour notre prochaine édition, où nous plongerons plus profondément dans des méthodes pratiques pour intégrer les wearables aux séances de thérapie.

French

« PhD-Intelligences » est une absurdité- Ce que la déclaration de Demis Hassabis change pour la recherche et la santé

Dans un entretien récent, Demis Hassabis, PDG de Google DeepMind, a balayé l’idée selon laquelle les modèles d’IA actuels posséderaient une « intelligence de niveau doctoral ». Son message est sans équivoque : si l’IA peut parfois égaler, voire surpasser, les humains dans des tâches très spécifiques, elle reste loin d’une intelligence générale. Qualifier ces systèmes de « doctorants artificiels » est non seulement trompeur, mais risque d’alimenter des attentes irréalistes, notamment en santé et en recherche. Hassabis souligne que des modèles comme Gemini ou les systèmes de type GPT affichent certes des « poches de performance doctorale » – en pliage de protéines, en imagerie médicale ou en résolution de problèmes complexes. Pourtant, ces mêmes outils échouent à des tâches de raisonnement élémentaire, incapables d’apprentissage continu, et commettent des erreurs grossières qu’un·e chercheur·se humain·e ne ferait jamais. Selon lui, une véritable Intelligence Artificielle Générale (IAG) – capable d’apprendre de manière flexible à travers différents domaines – n’est pas pour avant 5 à 10 ans. Ce que cela implique pour la recherche et la santé Ces limites ne signifient pas que l’IA n’a pas sa place dans notre travail. Elles nous rappellent simplement comment l’utiliser : de manière responsable et stratégique. Points clés à retenir : Applications concrètes par discipline Domaine Avantages actuels de l’IA Limites / Risques Recherche médicale Prédiction de structures protéiques (ex. AlphaFold) ; accélération de la découverte de médicaments ; diagnostics par imagerie.   Erreurs de généralisation ; raisonnement opaque ; biais dans les données. Thérapie & Psychologie Rédaction de supports thérapeutiques ; génération de scénarios comportementaux ; transcription de séances.   Risque de dépendance excessive ; erreurs dans des contextes délicats. Éducation spécialisée Création de contenus différenciés ; suivi des progrès ; supports d’apprentissage accessibles. Recommandations potentiellement inadaptées sans contexte. Perspectives d’avenir Même sans IAG, les outils actuels peuvent accélérer considérablement les processus et renforcer l’expertise humaine. Mais l’avertissement de Hassabis reste valable : l’IA n’est pas un substitut à l’intelligence humaine, mais un partenaire dans le progrès. En tant que chercheur·se·s et clinicien·ne·s, notre responsabilité est double : Dans nos prochains numéros, nous explorerons des cas concrets d’intégration de l’IA en recherche, avec des exemples tirés de la thérapie et des sciences médicales. Références

French

IA et recherche scientifique — Nouvelles tendances et évolutions

L’intelligence artificielle (IA) ne se contente pas d’accélérer la recherche scientifique : elle en transforme les processus, les possibilités et les défis. Pour les thérapeutes, chercheurs et éducateurs, il est essentiel de comprendre ces changements, même si nous ne les appliquons pas encore directement. Voici un aperçu des récentes avancées et des tendances à surveiller. Les nouveautés en IA et recherche Les systèmes d’IA ne se limitent plus à un rôle d’assistance : ils commencent à formuler des hypothèses, concevoir des expériences, analyser des données et même rédiger des rapports scientifiques avec une intervention humaine minimale. Par exemple, l’étude From AI for Science to Agentic Science (Wei et al., 2025) montre comment l’IA évolue vers une forme d’« agentivité » dans la découverte scientifique, passant d’un outil d’aide à un véritable partenaire de recherche. arXiv Un autre exemple est The AI Scientist-v2, qui a soumis des manuscrits entièrement générés par IA à des ateliers de révision par les pairs. Bien qu’une supervision humaine reste nécessaire, cette avancée marque un tournant : l’IA réalise désormais des tâches autrefois réservées aux humains. arXiv L’efficacité de l’IA dépend étroitement des données : plus elles sont nombreuses, riches et variées (texte, image, vidéo, génomique), et mieux les outils informatiques les traitent. On observe ainsi l’émergence de supercalculateurs dédiés à la recherche en IA (comme Doudna au Berkeley Lab) et d’investissements dans des « environnements tests prêts pour l’IA », où les chercheurs peuvent expérimenter en toute sécurité. AP News+1 Cependant, l’augmentation rapide de la taille des modèles d’IA (jeux de données, puissance de calcul) soulève des questions sur leur efficacité et leur coût environnemental. Stanford HAI Face à l’explosion des publications scientifiques, l’IA aide les chercheurs à trier la littérature plus rapidement. Des outils émergent pour identifier les revues prédatrices, repérer les pratiques de citation problématiques ou détecter les biais dans les études. Crescendo.ai+1 Des « assistants de recherche virtuels » sont également en développement (par exemple à Oxford), réduisant la charge de travail en filtrant les pistes prometteuses dans de vastes ensembles de données (comme les signaux astronomiques), permettant aux scientifiques de se concentrer sur l’essentiel. Windows Central Ce que cela signifie pour nous (thérapeutes, éducateurs et chercheurs) — « Et alors ? » À surveiller dans les prochains numéros Voici quelques thèmes que je compte approfondir : Références

French

Claude AI — Nouveautés et applications pour les orthophonistes, ergothérapeutes, éducateurs spécialisés et psychologues

Claude, développé par Anthropic, est l’un des modèles de langage les plus avancés (LLM). Ses évolutions récentes offrent des opportunités pertinentes pour les domaines de la thérapie, de l’éducation spécialisée, de la psychologie et des disciplines connexes. Voici un résumé des dernières mises à jour de Claude, ainsi que des idées (et des précautions) pour une utilisation professionnelle adaptée. Nouvelles fonctionnalités de Claude En milieu d’année 2025, Anthropic a lancé deux modèles améliorés : Claude Opus 4 et Claude Sonnet 4. Ces versions offrent un raisonnement plus poussé, une meilleure intégration d’outils externes et une compréhension plus précise des consignes. Anthropic+2Google Cloud+2 Elles permettent également un « raisonnement étendu » (travail avec des outils externes, analyse en arrière-plan) et une mémoire accrue du contexte utilisateur. De plus, leurs capacités en codage et en analyse via les outils API sont renforcées. Anthropic Claude Sonnet 4 (pour les utilisateurs de l’API) peut désormais gérer une fenêtre de contexte de 1 million de tokens (un token correspond à un fragment de mot ou un mot court ; 1 million de tokens équivaut à des milliers de pages). Cela permet d’intégrer des textes plus longs (comptes rendus, rapports, travaux antérieurs) comme contexte, améliorant ainsi la continuité et réduisant la nécessité de réexpliquer le contexte à chaque interaction. TechCrunch Claude a introduit ou amélioré des fonctionnalités permettant de mémoriser les conversations passées, les préférences des utilisateurs, les fichiers ou projets téléchargés, etc. Ces fonctionnalités sont optionnelles (il est possible de désactiver la mémoire), mais elles peuvent être très utiles pour un suivi continu (par exemple, pour suivre les progrès ou affiner les objectifs au fil du temps). The Verge Les nouveaux outils éducatifs de Claude (comme Claude for Education) ne se contentent pas de fournir des réponses directes : ils guident les utilisateurs dans leur raisonnement, posent des questions et favorisent une compréhension approfondie (style socratique). Venturebeat+1 Claude intègre désormais des mécanismes pour limiter les interactions nuisibles ou abusives, y compris la possibilité de mettre fin aux conversations qui violent les normes de sécurité. Les options de confidentialité (comme les modes incognito ou sans mémoire) sont également renforcées. The Verge+1 Comment ces fonctionnalités peuvent nous aider ? Voici des applications concrètes pour les orthophonistes, ergothérapeutes, éducateurs spécialisés et psychologues, ainsi que les précautions à prendre : Fonction / Tâche Comment Claude peut aider Points de vigilance et bonnes pratiques Planification d’objectifs / PPS Rédaction ou affinement d’objectifs pour les Projets Personnalisés de Scolarisation (PPS), génération de stratégies basées sur des preuves pour des objectifs en langage, motricité fine, fonctions exécutives, etc. Grâce à sa mémoire contextuelle, Claude peut conserver les détails du profil de l’élève pour assurer une cohérence.   Toujours relire attentivement les propositions. Vérifier que le langage respecte les normes légales et réglementaires. Adapter les suggestions au cas individuel. Ne pas utiliser l’IA pour poser un diagnostic. Anonymiser les données sensibles.   Création de supports thérapeutiques Génération de stimuli thérapeutiques : histoires sociales, supports visuels, fiches d’activités, scripts de pratique, prompts pour l’articulation ou le langage, textes adaptés. La fenêtre de contexte élargie permet de créer des séquences complexes (par exemple, une série de séances) sans avoir à recharger les matériaux.   Vérifier l’exactitude, l’adéquation culturelle et le niveau de développement. Éviter les contenus trop génériques. Adapter avec un regard humain.   Suivi des progrès et analyse de données   Aide à la rédaction de rapports de progression, analyse de données (par exemple, logs de performance ou scores d’évaluation), identification de tendances, suggestions de modifications dans les plans thérapeutiques. Avec son raisonnement amélioré, Claude peut proposer des interventions alternatives en cas de stagnation.   Éviter de surinterpréter les suggestions de l’IA. Garantir la qualité des données. Conserver la responsabilité humaine dans les décisions.   Soutien à l’apprentissage et à la généralisation   Utilisation des modes d’apprentissage pour aider les élèves à réfléchir : plutôt que de donner des réponses, Claude peut structurer le raisonnement, guider les stratégies métacognitives ou soutenir la rédaction de réflexions. Pour les psychologues, il peut aider à la psychoéducation (par exemple, aider les élèves avec un TDAH à planifier des tâches).   S’assurer que l’élève apprend le processus et ne contourne pas la réflexion. Surveiller les biais ou contenus inappropriés. Vérifier les informations, surtout si elles sont médicales ou psychologiques.   Efficacité administrative et documentation   Utilisation des outils de Claude pour créer des documents formatés, des comptes rendus, des plans thérapeutiques, des synthèses de réunions ou des rapports adaptés aux parents. La mémoire et le contexte élargi aident à maintenir des détails cohérents sans répéter les informations de base.   Toujours vérifier l’exactitude des documents. Respecter les politiques de confidentialité et de protection des données. Vérifier que l’utilisation des données est conforme aux lois en vigueur.   Précautions et considérations éthiques À tester prochainement Références Anthropic. (2025, May 22). Introducing Claude 4. https://www.anthropic.com/news/claude-4 Anthropic Anthropic. (2025, August 12). Claude Sonnet 4 model now has a 1 million token context window. TechCrunch. TechCrunch Anthropic. (2025, August 11). Claude AI memory upgrade & incognito mode. The Verge. The Verge Anthropic. (n.d.). Claude for Education: Reimagining AI’s Role in K-12 Learning. Eduscape. Eduscape

French

Comment l’IA Vient de Sauver des Patients: Ce que l’Outil de Détection des AVC du NHS Nous Apprend sur l’Importance du Timing en Thérapie

En matière de santé cérébrale, le timing n’est pas seulement important—il est tout. Une avancée récente en Angleterre montre à quel point l’intelligence artificielle peut être transformative lorsque la rapidité et la précision font la différence entre un handicap permanent et une récupération significative. Le NHS (système de santé britannique) a introduit un outil basé sur l’IA dans les 107 centres de traitement des AVC en Angleterre. Cet outil analyse les scanners cérébraux en moins d’une minute, permettant aux médecins d’identifier instantanément le type et la gravité d’un AVC. Les résultats sont impressionnants : le temps de traitement moyen est passé de 140 minutes à 79 minutes, et la proportion de patients récupérant avec peu ou pas de séquelles a presque triplé, passant de 16 % à 48 % (The Guardian, 2025). Pourquoi les Thérapeutes Devraient Prêter Attention Bien que la plupart d’entre nous ne travaillions pas dans des services d’urgence, la leçon s’applique puissamment à notre domaine : plus l’intervention est précoce, meilleurs sont les résultats. Tout comme le dicton « time is brain » (le temps, c’est du cerveau) en matière d’AVC, le temps, c’est du potentiel en thérapie développementale. Pour les enfants présentant des retards de langage, des troubles du spectre autistique (TSA), un TDAH ou une dyslexie, l’intervention précoce est prouvée pour redéfinir les trajectoires développementales. Les recherches montrent systématiquement que les enfants recevant une thérapie ciblée tôt présentent de meilleurs résultats en communication, en socialisation et en apprentissage, comparés à ceux qui commencent plus tard. En thérapie de la déglutition, détecter un problème d’alimentation avant qu’il ne s’aggrave peut éviter des hospitalisations et améliorer la santé nutritionnelle. Le succès de l’IA dans la prise en charge des AVC nous rappelle deux choses : Parallèles pour la Thérapie Imaginez un assistant IA qui analyse rapidement un échantillon de parole d’un enfant et met en évidence, en quelques minutes, les processus phonologiques ou les erreurs syntaxiques—libérant ainsi du temps pour le thérapeute afin qu’il se concentre sur l’intervention directe. Ou un système qui vous alerte lorsque les schémas d’attention d’un client, enregistrés sur plusieurs séances, suggèrent la nécessité d’un changement de stratégie. Comme l’outil du NHS pour les AVC, ces systèmes ne « feraient pas la thérapie » à notre place, mais ils pourraient nous fournir des informations plus rapidement, nous permettant d’agir au moment où cela compte le plus. Intégration Éthique : Les Mesures de Sécurité Essentielles Le modèle du NHS nous enseigne également comment intégrer l’IA en toute sécurité : elle travaille avec les cliniciens, pas à leur place. Pour la thérapie, cela signifie : Boîte à Outils : « Intégrer l’IA de Manière Efficace en Thérapie» Voici quatre questions pour guider une utilisation sûre et efficace de l’IA dans votre pratique : Réflexions Finales L’histoire du NHS est inspirante, non seulement en raison de son impact immédiat sur la sauvegarde de vies, mais aussi parce qu’elle montre comment l’IA et les cliniciens peuvent collaborer. Pour nous, thérapeutes, la leçon est claire : lorsque les interventions sont plus précoces, les vies changent plus profondément. Avec l’IA comme partenaire—et non comme substitut—nous pourrions apporter un soutien opportun à encore plus de clients qui en ont besoin.

French

Quand le Droit Rencontre l’IA : l’Illinois Interdit la Thérapie par IA—Voici Ce Que Cela Signifie pour la Pratique Clinique

L’IA progresse plus vite que la réglementation ne peut suivre, et la santé mentale se trouve désormais au cœur de ce débat. En août 2025, l’Illinois est devenu le troisième État américain (après l’Utah et le Nevada) à interdire l’utilisation de l’IA dans la prise de décision thérapeutique. La loi interdit aux thérapeutes agréés d’utiliser l’IA pour le diagnostic, la planification du traitement ou la communication directe avec les clients. Les entreprises sont également empêchées de commercialiser des services de « thérapie par IA » qui contournent les professionnels agréés (Washington Post, 2025 ; NY Post, 2025).Cette mesure reflète des préoccupations croissantes concernant la « Hallucination induite par l’IA », la désinformation et le manque de responsabilité lorsque des personnes vulnérables se tournent vers des chatbots pour une thérapie. Pourquoi Cela Concerne Tous les ThérapeutesMême si vous n’exercez pas en Illinois, les effets d’entraînement sont considérables. Les réglementations commencent souvent localement avant de s’étendre à l’échelle nationale—voire mondiale. Cela soulève des questions clés pour nous tous : • Où se situe la limite entre une utilisation acceptable de l’IA (par exemple, le soutien administratif, la prise de notes, la planification) et une utilisation clinique interdite ? • Comment garantir la transparence lors de l’utilisation de ressources générées par l’IA ? • Quelles garanties protègent nos clients de l’idée que les outils d’IA sont des substituts aux soins dispensés par des professionnels agréés ? Ce Qui Reste AutoriséIl est important de noter que la loi de l’Illinois n’interdit pas totalement l’IA. Les thérapeutes peuvent toujours l’utiliser pour : Responsabilité des Thérapeutes : Transparence et LimitesAvec ou sans réglementation, les thérapeutes doivent : La Perspective Globale : Plaidoyer et Éthique Si certains perçoivent ces interdictions comme excessivement restrictives, elles reflètent des préoccupations réelles concernant la sécurité des clients et la désinformation. Plutôt que de rejeter l’IA en bloc, les thérapeutes peuvent jouer un rôle de plaidoyer—en aidant à façonner des politiques qui trouvent un équilibre entre innovation et protection.On peut imaginer un avenir où les régulateurs, les cliniciens et les développeurs collaborent pour définir des « zones sûres » d’utilisation de l’IA en thérapie. Par exemple, l’IA pourrait continuer à soutenir les thérapeutes dans l’organisation des données, les signaux de dépistage précoce et le suivi des progrès—tandis que les humains resteraient les seuls décideurs finaux. Feuille de Route : « Utiliser l’IA Sans Franchir la Ligne »Voici une vérification en trois étapes pour une utilisation éthique de l’IA : Réflexions FinalesL’interdiction de l’Illinois ne vise pas à bloquer la technologie, mais à tracer des limites plus claires pour protéger les clients vulnérables. Pour les thérapeutes, le message est simple : l’IA peut être un outil, mais jamais le thérapeute. À mesure que le paysage juridique évolue, rester proactif, transparent et éthique garantira que nous maintenons à la fois l’innovation et l’humanité au cœur de notre pratique.

English

AI Tools vs. Therapists: Navigating Mental Health in the Age of Chatbots

When AI Steps In—and When It Steps Over the Line In recent months, AI chatbots like ChatGPT have surged in popularity as a source of mental health support, largely due to accessibility, affordability, and the promise of immediate responses. While these tools can offer meaningful assistance, troubling incidents have highlighted the limitations of AI and reinforced that it is not a replacement for trained mental health professionals. Real Cases That Raised Alarms Some recent events have drawn urgent attention to the risks of unsupervised AI in mental health. In one case, a 16-year-old tragically died by suicide after extensive interactions with ChatGPT. Reports suggest that the chatbot failed to direct him toward professional help and may have inadvertently reinforced harmful behavior. Similarly, a man in Connecticut allegedly committed a murder-suicide after ChatGPT appeared to amplify delusional beliefs regarding his mother. Psychiatrists have described instances of “AI psychosis,” where prolonged interaction with AI chatbots contributed to delusional or psychosis-like symptoms among vulnerable adults. These cases are stark reminders that AI, while capable of simulating empathy, lacks the nuanced understanding, ethical judgment, and crisis awareness inherent to human-led mental health care. The Benefits—and the Balance Despite these serious concerns, AI support tools can provide meaningful benefits. Chatbots can offer low-cost, immediate support for individuals experiencing mild distress or who face barriers to traditional therapy, such as financial constraints, geographic limitations, or social stigma. Trials of AI-driven tools indicate modest reductions in symptoms of depression and anxiety for mild-to-moderate cases, showing that AI can serve as a valuable adjunct rather than a replacement. Clinicians have also found AI useful for administrative and psychoeducational tasks, allowing them to dedicate more time to person-centered care. Yet, these advantages are contingent upon thoughtful use, clear boundaries, and professional oversight. Risks and Ethical Considerations AI’s limitations are clear. Emotional overattachment to chatbots may reinforce harmful beliefs, while privacy concerns and a lack of confidentiality create systemic risks. Critically, AI may mismanage crises, provide inaccurate or “hallucinated” advice, and fail to detect nonverbal cues and complex emotional signals. Without ethical safeguards, these tools can exacerbate vulnerability instead of alleviating it. Legislative action in several states has begun addressing these risks by restricting AI therapy use without licensed professional oversight. Proposed regulations emphasize the need for human supervision, accurate marketing, and clearly defined boundaries between administrative support and therapeutic guidance. Developers and AI engineers play a crucial role as well. They can design safer systems by integrating crisis detection protocols, employing human-in-the-loop review models, and avoiding anthropomorphic language that may create undue emotional dependence. Therapists, too, have a key role in guiding clients to use AI responsibly, integrating outputs as prompts for discussion rather than definitive advice, and advocating for ethical AI development aligned with clinical practice. Summary: AI as a Tool, Not a Replacement AI chatbots have potential to expand access and provide interim support, particularly for underserved populations. However, recent tragedies illustrate the risks of unsupervised use. Thoughtful regulation, clinician involvement, ethical design, and public education are essential to ensure AI supplements, rather than replaces, human therapeutic care. By using AI responsibly, we can enhance access to mental health resources while preserving the core human connection that is central to effective therapy. References

English

AI and Neurodegenerative Disorders: From Early Detection to Smarter, Compassionate Care

Neurodegenerative disorders, such as Alzheimer’s and Parkinson’s disease, are becoming an increasing challenge worldwide, particularly as populations age. Early detection is crucial; the sooner these conditions are identified, the greater the potential for effective intervention. Artificial intelligence (AI) is rapidly emerging as a transformative ally for clinicians—not to replace their expertise, but to enhance decision-making, efficiency, and patient-centered care. A Growing Field: AI in Neurodegenerative Research Research in AI applications for neurodegenerative disorders has grown exponentially over the past decade. A bibliometric review analyzing over 1,400 publications from 2000 to early 2025 found a significant surge in studies since 2017, driven by advances in deep learning, neural networks, and multimodal data integration. The United States and China lead in research output, while the UK produces studies with the highest citation impact (Zhang et al., 2025). This growth underscores that AI is not a distant innovation—it is actively reshaping research and clinical practice today. Early Detection: Uncovering Subtle Signals One of AI’s most promising contributions is in the early identification of neurodegenerative disorders, often before traditional clinical signs become apparent. The Alzheimer’s Disease Neuroimaging Initiative (ADNI) has demonstrated that deep learning applied to MRI scans and other biomarkers can identify Alzheimer’s disease with more than 95% accuracy and detect mild cognitive impairment with over 82% accuracy (Alzheimer’s Disease Neuroimaging Initiative, 2025). Further, narrative reviews suggest that multi-modal and longitudinal AI models outperform single-modality approaches, offering powerful prognostic insights. While these tools are promising, integrating them into clinical practice and improving interpretability remains a critical focus for researchers (Rudroff et al., 2024). AI is also being applied in novel non-invasive ways. For instance, ophthalmic imaging powered by AI can detect retinal nerve fiber layer thinning, a biomarker for Parkinson’s disease, with diagnostic accuracy reaching an AUC of 0.918 (Tukur et al., 2025). Integrating genetic, imaging, and clinical data through AI has the potential to reshape detection and management, enabling clinicians to intervene earlier and more accurately (Mikić et al., 2025). Beyond Detection: Supporting Clinicians and Enhancing Care AI’s value extends beyond diagnostics. Administrative tasks, particularly documentation, contribute significantly to clinician burnout, reducing time for patient interaction. AI is addressing this by streamlining workflows. For example, a study led by Mass General Brigham found that ambient AI documentation systems reduced physician burnout by 21.2% while increasing documentation-related well-being by 30.7% within a few months (Mass General Brigham-led study, 2025). Similarly, AI scribes at the Permanente Medical Group saved nearly 15,800 hours of documentation in one year, allowing clinicians to focus more on patient care (Permanente Medical Group, 2025). Cleveland Clinic reported that AI reduced average documentation time by two minutes per patient visit, improving interactions without sacrificing accuracy (Cleveland Clinic, 2025). These examples highlight a central principle: AI does not replace human care but enhances it, freeing mental energy for the relational and empathetic aspects of therapy. Does AI Slow Us Down? Some experts caution that overreliance on AI might erode diagnostic skills or reduce transparency in clinical decision-making (Patel, 2025). Yet, neuroscience offers a useful analogy: as the brain adapts to disease, it reorganizes into fewer but more efficient neural networks. AI functions similarly by handling repetitive tasks, allowing clinicians to conserve cognitive resources for critical reasoning, empathy, and therapeutic connection. Importantly, oversight by trained professionals ensures AI serves as a tool rather than a replacement. Integrating AI Thoughtfully and Ethically For AI to fulfill its promise responsibly, certain standards must be maintained. Tools should be validated across diverse patient populations to ensure fairness and generalizability (Zhang et al., 2025). Clinicians must be involved in tool development and receive training to interpret AI outputs accurately (Rudroff et al., 2024). Additionally, protecting patient privacy, mitigating bias, and maintaining clinician autonomy are essential to foster trust and ethical integration. When these safeguards are in place, AI becomes an amplifier of human expertise rather than a substitute, supporting clinicians to deliver more precise, efficient, and compassionate care. Conclusion AI is increasingly shaping the landscape of neurodegenerative care—from early detection and predictive modeling to reducing administrative burdens. Its goal is not to replace clinicians but to empower them to detect disease earlier, work more efficiently, and maintain a human-centered approach to care. By thoughtfully integrating AI into clinical practice, we can preserve the most important aspect of therapy: the connection between clinician and patient. References Alzheimer’s Disease Neuroimaging Initiative. (2025). Diagnosis and prediction of Alzheimer’s from neuroimaging using deep learning. Wikipedia. https://en.wikipedia.org/wiki/Alzheimer%27s_Disease_Neuroimaging_Initiative Cleveland Clinic. (2025, August). Less typing, more talking: AI reshapes clinical workflow at Cleveland Clinic. Cleveland Clinic Consult QD. https://consultqd.clevelandclinic.org/less-typing-more-talking-how-ambient-ai-is-reshaping-clinical-workflow-at-cleveland-clinic Mass General Brigham-led study. (2025, August 21). Ambient documentation technologies reduce physician burnout and restore ‘joy’ in medicine. Mass General Brigham Press Release. https://www.massgeneralbrigham.org/…burnout Mikić, M., et al. (2025). Public hesitancy for AI-based detection of neurodegenerative disorders. Scientific Reports. https://www.nature.com/articles/s41598-025-11917-8 Patel, A. (2025). The case for slowing down clinical AI deployment. Chief Healthcare Executive. https://www.chiefhealthcareexecutive.com/…deployment-viewpoint Permanente Medical Group. (2025, June). AI scribes save 15,000 hours—and restore the human side of medicine. AMA News Wire. https://www.ama-assn.org/…medicine Rudroff, T., Rainio, O., & Klén, R. (2024). AI for the prediction of early stages of Alzheimer’s disease from neuroimaging biomarkers—A narrative review of a growing field. arXiv. https://arxiv.org/abs/2406.17822 Tukur, H. N., et al. (2025). AI-assisted ophthalmic imaging for early detection of neurodegenerative diseases. International Journal of Emergency Medicine, 18, Article 90. https://intjem.biomedcentral.com/articles/10.1186/s12245-025-00870-y Zhang, Y., Yu, L., Lv, Y., Yang, T., & Guo, Q. (2025). Artificial intelligence in neurodegenerative diseases research: A bibliometric analysis since 2000. Frontiers in Neurology. https://doi.org/10.3389/fneur.2025.1607924

Shopping Cart