Author name: Dr. Rania Kassir

English

Two approaches to using AI in therapy: procedural vs. collaborative (and how we actually benefit)

We keep noticing that when clinicians talk about “using AI,” we’re often talking about two very different approaches, even if we’re using the same tool. And the confusion usually shows up around one word: automation. People hear “automation” and imagine a cold replacement of therapy, or they assume it’s basically the same thing as collaboration. In practice, automation in clinical work is simpler and more grounded than that. It is not “AI doing therapy.” It is the clinician delegating repeatable steps in the workflow, then supervising the output the way we would supervise an assistant or a trainee. In procedural mode, AI becomes a substitute for execution. We ask, it answers; we paste, we send. The output is used for efficiency: quicker drafts, quicker wording, quicker structure. That can genuinely reduce load, especially on days when we’re holding multiple cases and still trying to document, plan, and communicate clearly. But procedural mode also has a built-in risk: it can bypass the step where we ask, “What claim did this just make, and do I actually have the clinical data to stand behind it?” In therapy, where work is high-stakes and context-sensitive, skipping that step is never a small thing. Collaborative mode looks different. Here, AI is treated more like a thinking partner that helps us refine what we already know. We provide context, constraints, and objectives, and we actively evaluate and revise what comes back. The benefit isn’t only speed, it’s quality. As goals become more complex, the work doesn’t disappear; it shifts upward into framing, supervision, and judgment. That shift is the point, because it mirrors what good therapy already is. The core value isn’t “doing tasks.” The core value is choosing what matters, staying accountable to the formulation, and tracking whether what we are doing is actually helping this client in this moment. With that clarity, the question “where does automation fit?” becomes easier: automation belongs around the session, not inside the relationship. It supports the repetitive work that quietly drains clinicians, so you show up with more focus and presence. In practical terms, this often starts with answering emails: drafting scheduling replies, boundaries, first-contact responses, follow-ups, and coordination messages with parents or schools. AI can give you a clean draft fast, but the clinician still protects tone, confidentiality, and the therapeutic frame before anything is sent. Automation can also support assessment workflows, especially the mechanical parts like cotation and report organization. It can help format tables, structure sections consistently, and draft neutral descriptions, saving time without pretending to “interpret.” Similarly, it can help with filling questions for you: generating intake questions, check-in prompts, or between-session reflection questions tailored to your model and the client’s goals. That doesn’t replace clinical judgment; it simply gives you a clearer scaffold for information-gathering and tracking change. Another high-impact area is session preparation. If you provide a brief, non-identifying summary of the last session, AI can help draft a focused plan: key themes to revisit, hypotheses to test, reminders of what was agreed on, and possible questions or interventions that match your orientation. The point is not to “script therapy,” but to reduce the mental load of reconstructing the thread so you can start the session grounded. More sensitive, but sometimes very helpful, is using automation around session recording and documentation (only with explicit consent and a privacy-safe system). AI can assist with transcripts, highlight themes, and draft a note structure or summary. Still, this must remain supervised: AI can miss nuance, misinterpret meaning, or phrase things too strongly. In clinical documentation, accuracy and accountability matter more than speed, so the clinician always verifies what’s written, especially around risk, safety planning, and any diagnostic or medical claim. Finally, automation can support what many clinicians want but struggle to do consistently: progress comparison over time. Whether you use outcome measures, session ratings, goals, homework follow-through, or narrative markers, AI can help summarize shifts from baseline, spot patterns across sessions, and draft a short “what’s improving / what’s stuck / what to adjust next” reflection. The tool organizes and surfaces patterns; you decide what it means and what the next clinical step is. All of this only works if we pay attention to data and privacy. We avoid entering identifying information unless we are using an approved, privacy-compliant system. We do not treat AI output as truth, especially for diagnosis, risk assessment, medication-related topics, or any medical claim. And we keep the clinician role explicit: AI can generate language, options, and structure, but we provide judgment, ethics, and accountability. This is also why many clinicians are drawn to running a private generative model locally on their laptop, offline, so data does not leave the device. Even then, strong device security and clear consent practices still matter, but the direction is sound: protect client information first, then build workflow support around it. When we use AI with this mindset, the payoff is real. We gain time and mental space for what cannot be automated: attunement, formulation, pacing, rupture-repair, and the relationship. The tool handles parts of the scaffolding and we protect the heart of therapy, which is slow, context-sensitive, and deeply human work.

English

Prism: the kind of writing workspace researchers wish existed when they’re trying to publish

If we’ve ever tried to write a real manuscript after a full day of research work, we already know the problem usually isn’t that we don’t have ideas. We do. The problem is that academic writing demands a specific kind of mental steadiness. We have to hold a thread, keep structure in mind, track definitions precisely, and build a coherent argument while our brains are already full of meetings, supervision, grant deadlines, data cleaning, reviewer comments, and the constant micro-decisions that come with running studies. So when OpenAI announced Prism, it caught our attention for a surprisingly practical reason. It sounds like it’s designed to reduce overwhelm in the writing process, not by writing the paper for us, but by making the environment less fragmenting and more supportive of sustained attention. OpenAI describes Prism as a free, cloud-based, LaTeX-native workspace for scientific writing and collaboration, with an AI assistant integrated into the document workflow. And that phrase, integrated into the workflow, matters. Many of us still write in a patchwork setup. The draft lives in one place, citations in another, PDFs in folders we swear are organized, tables in spreadsheets, figures in separate tools, and formatting rules that feel like a moving target. If we use AI, it often sits off to the side in a separate window, with no real awareness of what the document actually contains. Prism is pitching something different. One workspace where drafting, revising, compiling, and collaborating live together, so we don’t constantly switch contexts and lose momentum. That sounds less like automation and more like good research infrastructure. Something that helps us keep the argument intact while we spend our limited energy on what actually matters: methods, logic, interpretation, and the discipline of not overclaiming. What we also appreciate is that Prism seems aimed at the boring practical problems that quietly wreck productivity. Collaboration, comments, proofreading support, citation help, and literature workflow features are not flashy, but they are exactly the kind of friction that makes us close the laptop and tell ourselves we’ll do it tomorrow because we can feel the administrative drag consuming what’s left of our focus. And if we’ve ever co-authored a paper, we know how much time gets lost to version control, merging edits, and re-checking what the “current draft” even is. A shared cloud workspace can reduce that overhead by keeping writing and collaboration in one place. Here is where the researcher angle comes in. Researchers are trained to track nuance, uncertainty, and the limits of what data can actually support. Many of us can write well when we have space to think. But research rarely gives writing prime attention. Writing happens in stolen hours between analyses, teaching, project management, and funding applications. That changes what “helpful technology” looks like. We don’t just need a tool that generates text. We need a tool that helps us stay oriented so we can turn results into clear contributions publishable, teachable, and useful. Prism might support that kind of work, especially for researchers who publish, teach, supervise trainees, or collaborate across institutions and need their writing process to be less chaotic. If it truly reduces friction, it could help more of us finish what we start—not because the tool has better ideas than we do, but because it helps protect the continuity of our thinking. At the same time, we should say the quiet part out loud. A smoother writing workflow doesn’t automatically mean better science. AI can help us sound coherent and academic, and that can be useful, but it is also where risk shows up because polished writing can hide weak reasoning. So if we use Prism, we should treat it like a very fast assistant. It can reduce friction and help us express what we mean, but it is not the source of truth. We still own the reasoning, the claims, the citations, and the integrity of the work. And of course, Prism is not the only tool that exists. Most of us have already used other AI tools before, along with specific writing and reference managers that keep our workflow moving. What makes Prism feel different, at least from the way it is described, is the promise of one integrated workspace and the fact that it is free. If it delivers even half of that, we honestly cannot wait to explore it more. Where we land is simple. Prism sounds promising because it aims at the real pain points in research writing: context switching, formatting drudgery, collaboration friction, and the cognitive load of keeping a complex document coherent over time. Not magic. Not a replacement for expertise. But possibly the most researcher-friendly kind of productivity tool—the kind that helps us keep the thread.

French

Deux approaches d’usage de l’IA en thérapie : procédure vs collaboration (et comment en tirer un vrai bénéfice)

Nous le remarquons sans cesse : quand les cliniciens parlent d’« utiliser l’IA », ils décrivent en réalité deux approches très différentes, même quand ils emploient le même outil. Et la confusion se cristallise souvent autour d’un mot : automatisation. Beaucoup entendent « automatisation » et imaginent un remplacement froid de la thérapie, ou bien pensent que c’est grosso modo la même chose que la collaboration. En pratique, l’automatisation en clinique est plus simple et plus concrète que cela. Ce n’est pas « l’IA qui fait la thérapie ». C’est le clinicien qui délègue des étapes répétables du flux de travail, puis qui supervise la production comme il le ferait avec un·e assistant·e ou un·e stagiaire. En mode procédural, l’IA devient un substitut d’exécution. On demande, elle répond ; on colle, on envoie. Le résultat sert l’efficacité : textes plus rapides, formulations plus rapides, structures plus rapides. Cela peut réellement alléger la charge, surtout les jours où l’on porte plusieurs cas tout en essayant de documenter, planifier et communiquer clairement. Mais le mode procédural comporte un risque intégré : il peut court-circuiter l’étape où l’on se demande « Quelle affirmation vient d’être faite, et ai‑je réellement les données cliniques pour la soutenir ? » En thérapie, où le travail est à forts enjeux et dépend fortement du contexte, sauter cette étape n’est jamais anodin. Le mode collaboratif est différent. Ici, l’IA est traitée comme un partenaire de réflexion qui nous aide à affiner ce que nous savons déjà. Nous fournissons le contexte, les contraintes et les objectifs, et nous évaluons activement puis révisons ce qui revient. Le bénéfice n’est pas seulement la Vitesse, c’est la qualité. À mesure que les objectifs deviennent plus complexes, le travail ne disparaît pas ; il se déplace vers la formulation, la supervision et le jugement. Ce déplacement est essentiel, car il reflète ce qu’est déjà une bonne thérapie. La valeur centrale n’est pas de « faire des tâches ». La valeur centrale, c’est de choisir ce qui compte, de rester fidèle à la formulation, et de vérifier si ce que nous faisons aide réellement ce client, ici et maintenant. Avec cette clarté, la question « où l’automatisation a‑t‑elle sa place ? » devient plus simple : l’automatisation a sa place autour de la séance, pas au cœur de la relation thérapeutique. Elle soutient le travail répétitif qui épuise silencieusement les cliniciens, pour que vous arriviez avec davantage de focus et de présence. Concrètement, cela commence souvent par la gestion des courriels : proposer des brouillons pour la prise de rendez‑vous, les messages de cadrage et de limites, les premiers contacts, les suivis, ou la coordination avec les parents ou les écoles. L’IA peut vous fournir un brouillon propre très vite, mais le clinicien protège toujours le ton, la confidentialité et le cadre thérapeutique avant tout envoi. L’automatisation peut aussi soutenir les parcours d’évaluation, surtout dans leurs volets mécaniques comme la cotation et l’organisation du rapport. Elle peut aider à mettre en forme des tableaux, à structurer les sections de manière cohérente, et à rédiger des descriptions neutres un gain de temps sans prétendre « interpréter ». De même, elle peut vous aider à préparer des questions : générer des questions d’anamnèse, des invites de check‑in, ou des questions de réflexion entre les séances, adaptées à votre modèle et aux objectifs du client. Cela ne remplace pas le jugement clinique ; cela vous offre simplement un échafaudage plus clair pour recueillir l’information et suivre le changement. Autre levier à fort impact : la préparation de séance. Si vous fournissez un bref résumé non identifiant de la séance précédente, l’IA peut aider à élaborer un plan focalisé : thèmes à revisiter, hypothèses à tester, rappels de ce qui a été convenu, et pistes de questions ou d’interventions alignées sur votre orientation. L’objectif n’est pas de « scénariser la thérapie », mais de réduire la charge mentale liée au fait de reconstruire le fil pour démarrer la séance ancré. Plus sensible, mais parfois très utile, est l’usage de l’automatisation autour de l’enregistrement et de la documentation des séances (uniquement avec consentement explicite et au sein d’un système respectueux de la confidentialité). L’IA peut aider à produire des transcriptions, relever des thèmes, et proposer une trame de note ou un résumé. Cela doit toutefois rester supervisé : l’IA peut manquer une nuance, mal interpréter un sens, ou formuler trop fortement. En documentation clinique, l’exactitude et la responsabilité priment sur la vitesse ; le clinicien vérifie donc toujours ce qui est écrit, en particulier concernant le risque, les plans de sécurité, et toute affirmation diagnostique ou médicale. Enfin, l’automatisation peut soutenir ce que beaucoup de cliniciens souhaitent faire mais peinent à maintenir régulièrement : comparer les progrès dans le temps. Qu’il s’agisse de mesures d’issue, d’évaluations de séance, d’objectifs, de suivi des tâches entre les séances, ou de repères narratifs, l’IA peut aider à résumer les évolutions depuis la ligne de base, repérer des motifs au fil des séances, et proposer un court bilan « ce qui s’améliore / ce qui coince / ce qu’on ajuste ensuite ». L’outil organise et met en évidence les tendances ; vous décidez de ce qu’elles signifient et de la prochaine étape clinique. Tout cela ne fonctionne que si nous restons vigilants sur les données et la confidentialité. Nous évitons d’entrer des informations identifiantes, sauf dans un système approuvé et conforme à la protection de la vie privée. Nous ne traitons pas la sortie de l’IA comme une verité, en particulier pour le diagnostic, l’évaluation du risque, les sujets liés à la médication, ou toute assertion médicale. Et nous gardons le rôle du clinicien explicite : l’IA peut générer du langage, des options et de la structure, mais nous apportons le jugement, l’éthique et la responsabilité. C’est aussi pourquoi de nombreux cliniciens sont attirés par l’idée de faire tourner un modèle génératif privé en local sur leur ordinateur, hors ligne, afin que les données ne quittent pas l’appareil. Même dans ce cas,

French

Prism : l’espace d’écriture dont les chercheurs auraient rêvé au moment de publier

Si nous avons déjà essayé de rédiger un véritable manuscrit après une journée entière de travail de recherche, nous savons que le problème n’est généralement pas l’absence d’idées. Nous en avons. Le problème, c’est que l’écriture académique exige une forme spécifique de stabilité mentale. Nous devons tenir le fil, garder la structure en tête, suivre les définitions avec précision et construire un argument cohérent alors que notre esprit est déjà saturé de réunions, de supervision, d’échéances de financement, de nettoyage de données, de commentaires de relecteurs et de la série ininterrompue de micro‑décisions qui accompagnent la conduite des études. C’est pourquoi l’annonce de Prism par OpenAI a retenu notre attention pour une raison étonnamment pragmatique. L’outil semble conçu pour réduire la surcharge dans le processus d’écriture, non pas en rédigeant l’article à notre place, mais en rendant l’environnement moins fragmenté et plus propice à une attention soutenue. OpenAI présente Prism comme un espace de travail gratuit, dans le cloud, natif LaTeX, dédié à la rédaction scientifique et à la collaboration, avec un assistant IA intégré au flux de travail du document. Et cette expression, intégré au flux de travail, compte. Beaucoup d’entre nous écrivent encore dans une configuration en patchwork. Le brouillon vit à un endroit, les références ailleurs, les PDF dans des dossiers que nous jurons être organisés, les tableaux dans des feuilles de calcul, les figures dans des outils séparés, et des règles de mise en forme qui semblent mouvantes. Si nous utilisons l’IA, elle se trouve souvent sur le côté, dans une fenêtre distincte, sans réelle conscience de ce que contient le document. Prism propose autre chose. Un espace unique où la rédaction, la révision, la compilation et la collaboration cohabitent, pour éviter de changer constamment de contexte et perdre notre élan. Cela ressemble moins à de l’automatisation qu’à une véritable infrastructure pour la recherche. Quelque chose qui nous aide à préserver l’intégrité de l’argumentation tandis que nous consacrons notre énergie limitée à ce qui compte vraiment : les méthodes, la logique, l’interprétation et la discipline qui consiste à ne pas surestimer nos résultats. Nous apprécions aussi que Prism semble viser les problèmes pratiques, certes peu glamour, qui minent silencieusement la productivité. La collaboration, les commentaires, l’aide à la relecture, l’assistance aux citations et les fonctions liées au flux de travail documentaire ne sont pas tape‑à‑l’œil, mais ce sont précisément ces frictions qui nous font fermer l’ordinateur en nous disant qu’on s’y remettra demain, parce que l’inertie administrative dévore ce qu’il reste de notre attention. Et si nous avons déjà co‑signé un article, nous savons combien de temps se perd en contrôle de versions, en fusion d’annotations et en vérification de ce qu’est « la version actuelle ». Un espace de travail partagé dans le cloud peut réduire cette surcharge en réunissant écriture et collaboration au même endroit. C’est ici que l’angle « chercheur » intervient. Les chercheurs sont formés à suivre la nuance, l’incertitude et les limites de ce que les données peuvent réellement étayer. Beaucoup d’entre nous écrivent bien lorsque nous avons l’espace pour réfléchir. Mais la recherche accorde rarement à l’écriture la priorité absolue. Elle se fait dans des heures volées, entre analyses, enseignement, gestion de projet et demandes de financement. Cela change ce que « technologie utile » signifie. Nous n’avons pas seulement besoin d’un outil qui génère du texte. Nous avons besoin d’un outil qui nous aide à rester orientés pour transformer des résultats en contributions claires, publiables, enseignables et utiles. Prism pourrait soutenir ce type de travail, en particulier pour les chercheurs qui publient, enseignent, encadrent des doctorants ou collaborent entre institutions et qui ont besoin d’un processus d’écriture moins chaotique. S’il réduit réellement la friction, il pourrait aider davantage d’entre nous à terminer ce que nous commençons, non pas parce que l’outil a de meilleures idées que nous, mais parce qu’il aide à protéger la continuité de notre pensée. En même temps, il faut dire tout haut ce que l’on pense tout bas. Un flux d’écriture plus fluide ne signifie pas automatiquement une meilleure science. L’IA peut nous aider à paraître cohérents et académiques et cela peut être utile, mais c’est aussi là que réside le risque, car une prose soignée peut dissimuler un raisonnement faible. Donc, si nous utilisons Prism, traitons‑le comme un assistant très rapide. Il peut réduire la friction et nous aider à exprimer ce que nous voulons dire, mais il n’est pas la source de vérité. Nous restons responsables du raisonnement, des affirmations, des références et de l’intégrité du travail. Et, bien sûr, Prism n’est pas le seul outil disponible. La plupart d’entre nous ont déjà utilisé d’autres outils d’IA, ainsi que des logiciels spécialisés de rédaction et de gestion bibliographique qui font avancer notre flux de travail. Ce qui donne à Prism une allure différente, du moins telle qu’il est décrit, c’est la promesse d’un espace de travail intégré et le fait qu’il soit gratuit. S’il tient ne serait‑ce que la moitié de cette promesse, nous avons sincèrement hâte d’en explorer davantage. Notre conclusion est simple. Prism paraît prometteur parce qu’il vise les véritables points douloureux de l’écriture scientifique : le passage incessant d’un contexte à l’autre, la corvée de mise en forme, les frictions de la collaboration et la charge cognitive nécessaire pour maintenir la cohérence d’un document complexe dans le temps. Pas de magie. Pas de remplacement de l’expertise. Mais peut‑être le type d’outil de productivité le plus adapté aux chercheurs, celui qui nous aide à garder le fil.

Uncategorized

Guided Learning par Google Gemini. Quand la technologie commence à ressembler à un bon enseignement

En tant que cliniciens, nous enseignons rarement comme les manuels. Nous ne « livrons » pas l’information en une longue explication en espérant qu’elle atteigne sa cible. Nous ralentissons. Nous vérifions la compréhension. Nous ajustons le langage, les exemples, le rythme. Nous mettons en place un étayage. Dans la vraie vie, l’apprentissage est guidé. C’est pourquoi la nouvelle fonctionnalité de Google Gemini, Guided Learning, a retenu notre attention. Pas parce qu’il s’agit d’intelligence artificielle, mais parce que le modèle d’apprentissage qui la sous‑tend nous est familier. Guided Learning permet aux utilisateurs d’explorer n’importe quel sujet étape par étape, comme avec un tuteur disponible et réactif. Au lieu de submerger l’apprenant d’informations, elle construit la compréhension de manière graduelle et intentionnelle. D’un point de vue clinique, cela compte. Nous constatons chaque jour que les difficultés d’apprentissage relèvent rarement d’un manque de capacités. Elles tiennent à la surcharge, à un séquençage inadéquat et à un mode de transmission inadapté. Beaucoup d’apprenants se désengagent non pas parce que le contenu est trop complexe, mais parce qu’il arrive trop vite, de façon trop dense, ou sans soutien suffisant. Guided Learning répond à cela en modifiant la manière dont l’information est délivrée, et non ce qui est enseigné. Plutôt que de présenter d’emblée une explication complète, Gemini introduit les concepts par étapes. Il s’arrête pour vérifier la compréhension avant d’avancer. Si l’apprenant éprouve des difficultés, il reformule ou ralentit. S’il montre de l’aisance, il progresse. Cela reflète notre façon de travailler en séance, que nous soutenions le développement du langage, les fonctions exécutives, la compréhension émotionnelle ou les compétences académiques. Ce qui nous a également frappés, c’est le rôle actif de l’apprenant. Guided Learning ne positionne pas l’utilisateur comme un consommateur passif d’informations. Elle pose des questions, encourage la réflexion et s’appuie sur les réponses. Cela s’aligne fortement avec les données de la psychologie de l’éducation selon lesquelles l’engagement actif et la récupération en mémoire sont essentiels à un apprentissage significatif et à la rétention. Pour nombre d’enfants, d’adolescents et d’adultes avec lesquels nous travaillons, la charge cognitive constitue un obstacle majeur. Les plateformes d’apprentissage traditionnelles supposent souvent que « plus d’informations » signifie « mieux ». Guided Learning adopte l’approche inverse. Elle privilégie la structure, le rythme et la profondeur plutôt que le volume. Ce changement, à lui seul, peut transformer l’expérience d’apprentissage. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Un langage dense, des explications abstraites et un contexte limité sont des raisons fréquentes de désengagement. Une approche guidée et adaptative permet une exposition graduelle, de la répétition et de la clarification. C’est essentiel pour les apprenants avec un trouble développemental du langage, une dyslexie, un TDAH ou des besoins d’apprentissage en langue seconde. Il existe aussi une dimension émotionnelle qui mérite l’attention. Les expériences répétées de confusion et d’échec façonnent l’estime de soi des apprenants. Lorsque l’apprentissage est soutenu et prévisible, la confiance grandit. Guided Learning réduit le sentiment d’être perdu. Elle offre une structure sans rigidité, ce à quoi nous veillons intentionnellement dans le travail clinique. Comment nous avons utilisé Guided Learning Nous avons voulu vivre Guided Learning en utilisateurs, et pas seulement en lire la description. L’accès a été agréablement simple. Nous avons ouvert Google Gemini sur le web, démarré une nouvelle conversation, puis sélectionné Guided Learning dans la liste des modes. À partir de là, nous avons soit posé une question, soit téléversé un document à étudier. Aucune configuration, aucun plugin, aucun réglage. Ce qui nous a frappés immédiatement, c’est le rythme. Gemini ne s’est pas précipité pour fournir une réponse complète. Il a introduit le sujet étape par étape, vérifié notre compréhension, et n’a avancé que lorsque cela avait du sens. Cela seul a rendu l’expérience plus intentionnelle et moins accablante. Ce qui distingue Guided Learning La force de Guided Learning réside dans la structuration de l’information. Les leçons sont conçues pour la profondeur plutôt que pour des synthèses superficielles. Les concepts sont superposés de façon réfléchie, de sorte que la compréhension se construise naturellement. Le support multimédia est également solide. Selon le sujet, les explications peuvent inclure des images, des vidéos ou des éléments interactifs. Cela reflète la manière dont nous varions les modalités en thérapie en fonction des besoins et des préférences de l’apprenant. Autre caractéristique notable : l’utilisation de courts quiz et de questions réflexives. Ils apparaissent naturellement dans le flux d’apprentissage et aident à consolider la compréhension avant de poursuivre. Cette approche s’aligne bien avec les recherches sur la pratique de récupération et la consolidation des apprentissages. Surtout, le système s’adapte. Lorsque l’apprenant démontre sa compréhension, il progresse. En cas d’incertitude, il ralentit et reformule. Cette réactivité donne à l’expérience un caractère guidé plutôt que scénarisé. Bien sûr, Guided Learning n’est pas une thérapie. Elle ne remplace pas le raisonnement clinique, la définition individualisée d’objectifs ni la relation thérapeutique. Elle ne tient pas pleinement compte des besoins de régulation sensorielle, des états émotionnels ou d’histoires développementales complexes. Il existe aussi un risque de dépendance excessive si ces outils sont utilisés sans discernement professionnel. Cela dit, en tant qu’outil de soutien, son potentiel est clair. Guided Learning peut favoriser le transfert entre les séances, en particulier pour les apprenants plus âgés et les adultes. Elle peut aider les clients à construire des connaissances de base, à renforcer des concepts introduits en thérapie ou à explorer des sujets de façon structurée. Pour les cliniciens, elle peut aussi servir de compagnon d’apprentissage pour la formation continue, permettant d’explorer de nouveaux thèmes sans surcharge cognitive. Ce qui ressort le plus La philosophie qui sous‑tend cette fonctionnalité. Guided Learning part du principe que la compréhension se construit, elle ne se « délivre » pas. Que l’apprentissage bénéficie du rythme, du feedback et de la structure. Ce ne sont pas des idées nouvelles pour les thérapeutes. Elles sont au cœur d’une intervention efficace. Sous bien des aspects, cette fonctionnalité ressemble moins à de l’intelligence artificielle qu’à un étayage numérique. Utilisée avec discernement, elle complète

Uncategorized

L’apprentissage n’est pas une taille unique : pourquoi « Learn Your Way » arrive si tard

Si les manuels fonctionnaient comme ils sont censés le faire, nous n’aurions pas à réaliser la moitié des adaptations que nous faisons chaque jour en thérapie. Nous avons tous accompagné un enfant ou un élève brillant, curieux et capable, mais complètement bloqué par de longs paragraphes, un langage abstrait ou une explication rigide et unique. D’une manière ou d’une autre, c’est toujours à l’apprenant de s’adapter. Nous savons que c’est faux. L’apprentissage n’a jamais été une taille unique. Les cerveaux sont complexes, non linéaires et merveilleusement différents. Certains apprenants ont besoin de voir. D’autres ont besoin d’entendre. Certains ont besoin qu’on leur explique trois fois et de trois manières avant que cela fasse tilt. Beaucoup ont besoin de l’autorisation d’aborder l’information de biais plutôt que de face. C’est pourquoi le nouveau projet de Google Research, Learn Your Way, a retenu notre attention. Il utilise l’IA générative pour transformer des manuels statiques en expériences d’apprentissage dynamiques et adaptées. Au lieu de contraindre chaque apprenant à suivre le même chemin, le contenu s’adapte à leur manière de penser, de poser des questions et de donner du sens au monde. D’un point de vue clinique, cela résonne immédiatement. Que faisons-nous en séance toute la journée, sinon cela ? Nous reformulons les consignes. Nous simplifions le langage. Nous ajoutons des supports visuels. Nous ralentissons ou nous accélérons. Nous guettons ce moment où le visage d’un apprenant change, et l’on sait que quelque chose a enfin fait sens. Les manuels n’ont jamais su faire cela, ils ne peuvent pas remarquer la confusion ni s’ajuster. Jusqu’à maintenant. Les manuels traditionnels présupposent un apprenant idéal qui lit couramment, traite rapidement et reste concentré du début à la fin. Pour nos patients, en particulier ceux qui sont neurodivergents, présentent des difficultés langagières, des troubles de l’attention ou des différences d’apprentissage, le manuel devient souvent lui-même la barrière. Learn Your Way remet en question ce modèle. Les apprenants peuvent demander une explication plus simple, solliciter un exemple, explorer une version visuelle ou relier le contenu à quelque chose de familier. Il n’y a aucune honte à redemander, aucune pression pour suivre le rythme de la page. Cela, à lui seul, peut transformer la relation d’un apprenant à l’apprentissage. Sur le plan émotionnel, cela compte. Beaucoup d’enfants et d’adultes avec lesquels nous travaillons portent des années de frustration silencieuse, convaincus qu’ils « ne font pas assez d’efforts » alors qu’en réalité, c’est le format qui n’a jamais fonctionné pour eux. Un contenu adaptatif envoie un message différent : vous n’êtes pas le problème. C’était le format. Du point de vue du langage et de la communication, c’est particulièrement pertinent. Une syntaxe dense et des explications abstraites constituent des obstacles fréquents. Une IA qui réduit la charge linguistique tout en préservant le sens peut soutenir la compréhension sans sur‑simplifier, au bénéfice des apprenants avec un trouble développemental du langage, une dyslexie ou des besoins de seconde langue. Bien sûr, l’IA n’est pas un thérapeute. Elle ne remplace pas l’accordage humain, le raisonnement clinique ni la sécurité relationnelle. Personnaliser, ce n’est pas comprendre le profil sensoriel d’un apprenant, son état émotionnel ou son histoire. Mais en tant qu’outil, elle a du potentiel. Nous pouvons imaginer utiliser des explications adaptatives pour le transfert entre les séances, orienter les familles vers des ressources qui rejoignent l’enfant là où il en est, ou collaborer avec les enseignants autour de supports partagés et flexibles. Ce qui ressort le plus, c’est le changement d’état d’esprit. Learn Your Way reflète ce que les cliniciens ont toujours su : la variabilité n’est pas l’exception, c’est la base. Lorsque les environnements d’apprentissage sont flexibles, davantage d’apprenants réussissent sans devoir être « corrigés » au préalable. Les manuels n’ont jamais été neutres. Ils ont favorisé une frange étroite d’apprenants tandis que les autres étaient sommés de rattraper. Ce virage vers l’apprentissage adaptatif ressemble au moment où le bon sens rattrape enfin son retard. Pour ceux d’entre nous qui travaillent chaque jour avec de vrais cerveaux, de vraies difficultés et un vrai potentiel, cela ressemble moins à l’avenir qu’à une validation qui arrive à point nommé.

Uncategorized

Fatigue liée à l’IA chez les cliniciens: Pourquoi davantage d’outils ne sont pas toujours mieux et comment choisir ce qu’ignorer

Au cours de l’année écoulée, de nombreux cliniciens ont constaté l’apparition d’une nouvelle forme d’épuisement dans leur travail. Il ne s’agit ni de la fatigue émotionnelle bien connue qui accompagne le fait de « tenir l’espace » pour autrui, ni d’un simple burn-out administratif. C’est quelque chose de plus subtil. Un flux constant de nouveaux outils d’IA, de mises à jour, de prompts, de plateformes et de promesses, tous prétendant rendre la pratique plus simple, plus rapide et plus intelligente. Au lieu d’un soulagement, beaucoup de cliniciens se sentent dépassés, distraits et incertains quant à leurs priorités. C’est à cela que ressemble la fatigue liée à l’IA en pratique clinique. Au fond, la fatigue liée à l’IA ne concerne pas la technologie en elle-même. Elle tient à la surcharge cognitive. Les cliniciens gèrent déjà des files actives complexes, des responsabilités éthiques, des exigences de documentation et une charge émotionnelle. Lorsque l’IA s’invite sans frontières ni objectif clairs, elle ajoute du bruit plutôt que de la clarté. Le résultat n’est pas une meilleure prise en charge, mais une attention fragmentée et une présence clinique diminuée. L’une des raisons principales du développement de cette fatigue est l’hypothèse selon laquelle davantage d’outils se traduiraient automatiquement par de meilleurs résultats. En réalité, le travail clinique ne bénéficie pas des bascules incessantes. Chaque nouvelle plateforme requiert un apprentissage, une évaluation et une dépense d’énergie mentale. Quand les cliniciens tentent de suivre chaque nouvelle sortie, ils passent souvent plus de temps à gérer des outils qu’à réfléchir cliniquement. Cela érode l’une des ressources les plus précieuses en thérapie : le raisonnement profond et ininterrompu. Autre facteur contributif, la pression d’utiliser l’IA simplement parce qu’elle existe. Une crainte implicite de « prendre du retard » ou de ne pas être assez innovant. Or, l’excellence clinique n’a jamais consisté à utiliser le plus grand nombre d’outils. Elle a toujours consisté à utiliser les bons, de manière délibérée et éthique. L’innovation sans intention améliore rarement la pratique. Il est également important de reconnaître que tous les outils d’IA ne sont pas conçus en pensant aux cliniciens. Beaucoup visent la vitesse, la génération de contenu ou une productivité superficielle. La thérapie, l’évaluation et le diagnostic exigent autre chose : de la nuance, l’acceptation de l’incertitude et une tolérance à la complexité. Les outils qui promettent des réponses instantanées peuvent insidieusement saper la réflexion analytique, surtout lorsque les cliniciens sont déjà fatigués. Choisir ce qu’ignorer n’est donc pas un échec. C’est une compétence clinique. Un point de départ utile consiste à poser une question simple avant d’adopter un outil d’IA : quelle charge cognitive cela réduit-il réellement ? Si un outil fait gagner du temps sur des tâches administratives comme la rédaction de rapports, la synthèse de notes ou l’organisation des informations, il peut préserver l’énergie mentale pour le raisonnement clinique. S’il ajoute un système de plus à consulter, une production de plus à évaluer ou un flux de travail de plus à gérer, il coûte peut-être plus qu’il ne rapporte. Un autre filtre clé est l’alignement avec les valeurs cliniques. Les outils doivent soutenir une pensée fondée sur les preuves, et non la court-circuiter. Ils devraient aider les cliniciens à penser plus clairement, pas moins. Si un outil encourage le copier-coller, la dépendance excessive ou l’acceptation non critique des sorties, il mérite du scepticisme. Un bon usage de l’IA est ressenti comme un soutien, pas comme une injonction. Il est également pertinent de limiter le nombre d’outils utilisés simultanément. Dans la pratique, la plupart des cliniciens n’ont besoin que d’un ou deux appuis d’IA qui s’intègrent naturellement à leur flux de travail. Par exemple, un outil pour le raisonnement structuré ou l’aide à la documentation. Un autre pour la communication ou l’explication. Au-delà, chaque outil doit justifier clairement sa place. La fatigue liée à l’IA diminue aussi lorsque les cliniciens passent de la chasse aux outils à la clarté d’intention. Au lieu de demander quel nouvel outil d’IA est disponible, demandez-vous où se situent les points de friction dans votre pratique. Rédaction de rapports ? Communication avec les parents ? Conceptualisation de cas ? Arriéré administratif ? Commencez par le problème, pas par la plateforme. Cela, à lui seul, filtre la plupart des bruits inutiles. Un point crucial : l’IA ne doit jamais remplacer les pauses réflexives. Certaines des intuitions cliniques les plus importantes émergent du fait de tolérer l’incertitude, de revoir des schémas sur la durée ou de discuter des cas avec des collègues. Si l’usage de l’IA évince ces processus, c’est qu’elle est mal employée. La technologie doit créer de l’espace pour penser, pas remplir chaque interstice. Il existe aussi une dimension culturelle à prendre en compte. Les cliniciens ont besoin de la permission de se désengager des mises à jour constantes. Toutes les nouveautés ne sont pas pertinentes. Toutes les fonctionnalités n’ont pas besoin d’être testées. Rester informé ne signifie pas être submergé. Une pratique durable exige des limites, y compris numériques. Au bout du compte, l’objectif n’est pas de devenir un clinicien « dopé à l’IA ». C’est de rester un clinicien réfléchi, présent et fondé sur les preuves dans un environnement en rapide évolution. L’IA peut être un soutien précieux lorsqu’elle est utilisée avec intention. Elle peut réduire les frictions, organiser la complexité et préserver le temps. Mais seulement lorsque les cliniciens gardent la main sur le quand, le pourquoi et le comment de son utilisation. Dans un champ fondé sur la relation humaine et le jugement clinique, l’usage le plus responsable de l’IA peut parfois consister à choisir de ne pas l’utiliser du tout.

Uncategorized

Claude for Healthcare et ChatGPT Health: À quoi ressemble réellement le nouveau tournant de l’IA clinique

Au cours de la semaine passée, le champ de l’IA en santé est passé de la simple possibilité à une intention affirmée. D’abord est intervenu le lancement de ChatGPT Health, une expérience dédiée à la santé, conçue pour aider les personnes à comprendre leurs informations médicales. Peu après, Anthropic a présenté Claude for Healthcare, une plateforme pensée spécifiquement pour les environnements cliniques, administratifs et de recherche. Ensemble, ces annonces signalent un changement net. L’IA n’est plus positionnée comme un assistant généraliste qui parle de santé au passage. Elle est désormais façonnée autour des réalités mêmes du système de soins. Du point de vue clinique et thérapeutique, cette distinction est importante. ChatGPT Health est centré sur l’histoire personnelle de santé. Il crée, au sein de l’application, un espace de santé distinct et protégé où les utilisateurs peuvent connecter leurs dossiers médicaux et leurs données de bien-être. L’accent est mis sur l’interprétation plutôt que sur l’injonction. Les résultats de laboratoire, les habitudes de vie et les antécédents de santé sont traduits dans un langage clair et accessible. L’expérience est conçue pour aider les individus et les familles à arriver aux rendez-vous mieux préparés, avec des questions plus précises et une compréhension plus solide de leurs propres données. L’un des traits définitoires de ChatGPT Health est son focus sur la communication. Le système adapte ses explications au niveau de compréhension et à l’état émotionnel de l’utilisateur. C’est particulièrement pertinent en contexte thérapeutique, où les familles se sentent souvent dépassées par le langage médical et des informations fragmentées. En réduisant la confusion et la charge cognitive, l’outil favorise des échanges plus substantiels entre cliniciens et familles. Il est important de préciser qu’il ne pose pas de diagnostic, ne prescrit pas et ne remplace pas la prise en charge professionnelle. Son rôle est interprétatif et de soutien. Claude for Healthcare part d’un point de départ très différent. Il est construit autour des systèmes de santé plutôt que des récits individuels. Ses fonctionnalités sont conçues pour gérer la complexité de l’infrastructure clinique, incluant la codification médicale, la littérature scientifique, les cadres réglementaires et les flux de travail administratifs. Cela positionne Claude moins comme un interprète conversationnel que comme un outil de raisonnement et de synthèse pour les professionnels. Pour les cliniciens, cela signifie un appui sur des tâches souvent en arrière-plan des soins, mais très consommatrices de temps et d’énergie mentale. Résumer des dossiers denses, aligner la documentation sur les preuves, naviguer dans les exigences de prise en charge et intégrer la recherche au raisonnement clinique sont autant de domaines où la conception de Claude est particulièrement solide. Sa capacité à maintenir la cohérence sur de longues entrées complexes reflète la manière dont les cliniciens raisonnent au fil du temps, plutôt que par moments isolés. Une manière claire de penser la différence Élément ChatGPT Health Claude for Healthcare Utilisateur principal Individus et familles Cliniciens, organisations, chercheurs Rôle central Interprétation et compréhension Raisonnement, synthèse et structuration Focalisation Informations personnelles de santé Systèmes cliniques et flux de travail Point fort Communication et clarté Profondeur, cohérence et alignement sur les preuves Pertinence pour la thérapie Soutenir la compréhension et l’engagement des familles Soutenir la documentation clinique et la décision Accent éthique Contrôle individuel des données et séparation Conformité organisationnelle et alignement réglementaire Lorsqu’on compare les deux outils, la question n’est pas de savoir lequel est « meilleur », mais ce que chacun est conçu pour porter. ChatGPT Health porte le versant humain de l’information en santé. Il aide à comprendre, à réfléchir et à s’engager. Claude for Healthcare porte le versant structurel. Il soutient l’organisation, la justification et le raisonnement à l’échelle des systèmes. Cette distinction devient particulièrement pertinente en pratique thérapeutique. ChatGPT Health peut aider les familles à comprendre les comptes rendus, à repérer des schémas et à se préparer, sur les plans émotionnel et cognitif, aux séances de thérapie. Claude for Healthcare peut soutenir les cliniciens pour garantir que évaluations, objectifs et documents soient alignés sur les données probantes actuelles et les attentes réglementaires. Le premier renforce la communication relationnelle. Le second renforce la structure clinique. La confidentialité et l’éthique sont centrales pour les deux plateformes, mais abordées différemment. ChatGPT Health privilégie la séparation des données individuelles et le contrôle par l’utilisateur, renforçant la confiance au niveau personnel. Claude for Healthcare met l’accent sur la sécurité et la conformité au niveau de l’organisation, renforçant la confiance au sein des structures de santé. Ces approches reflètent les problèmes différents que chaque outil est conçu pour résoudre. Il est essentiel de se rappeler qu’aucun de ces outils ne remplace le jugement clinique. La thérapie n’est pas un problème de données à résoudre. C’est un processus relationnel et contextuel qui exige observation, interprétation et discernement éthique. L’IA peut soutenir la réflexion, réduire la charge administrative et organiser l’information. Elle ne peut pas capter l’atmosphère d’une séance, percevoir les nuances émotionnelles ni construire l’alliance thérapeutique. Ce que nous observons aujourd’hui, c’est l’émergence de deux rôles complémentaires de l’IA en santé. L’un soutient la compréhension et l’engagement. L’autre soutient le raisonnement et les systèmes. Utilisés avec discernement, les deux peuvent protéger le temps et les ressources cognitives des cliniciens, laissant davantage d’espace à ce qui compte le plus en thérapie : la pensée approfondie, la relation humaine et des soins fondés sur les preuves.

Uncategorized

Transformer les échanges sur la santé : ce que ChatGPT Health change pour la pratique clinique

La manière dont les personnes recherchent et traitent l’information en santé évolue. De plus en plus, elles se tournent vers des outils numériques pour comprendre des symptômes, des résultats d’examens et la terminologie médicale, avant ou après l’échange avec des professionnels de santé. L’introduction de ChatGPT Health reflète ce mouvement et propose une approche plus structurée de l’accompagnement des conversations liées à la santé par l’IA. Les questions de santé sont rarement neutres. Elles sont souvent motivées par l’incertitude, l’anxiété ou la difficulté à interpréter des informations complexes. ChatGPT Health a été conçu comme un environnement dédié à ces échanges, en reconnaissant que l’information de santé exige des limites plus claires, des normes de sécurité plus élevées et un cadrage rigoureux pour éviter les malentendus ou les préjudices. L’une des fonctionnalités les plus pertinentes sur le plan clinique est l’option permettant aux utilisateurs de connecter leurs propres données de santé. Cela peut inclure des résultats de laboratoire, des profils de sommeil, des niveaux d’activité ou un suivi nutritionnel. Lorsque l’information est ancrée dans un contexte personnel, les explications gagnent en pertinence et en accessibilité cognitive. D’un point de vue thérapeutique, cela peut réduire la surcharge informationnelle et favoriser un auto‑rapport plus clair, en particulier chez les personnes qui peinent avec le langage médical ou des souvenirs fragmentés. La confidentialité et le contrôle par l’utilisateur sont au cœur de cette conception. Les conversations liées à la santé sont distinctes des autres interactions, et les utilisateurs peuvent gérer ou supprimer à tout moment les données connectées. Les informations partagées dans cet espace sont protégées et ne sont pas utilisées au‑delà de l’expérience individuelle. Cet accent mis sur le consentement et la transparence est essentiel pour maintenir la confiance dans tout outil clinique ou para‑clinique. ChatGPT Health n’est pas positionné comme un système de diagnostic ou de traitement. Toutefois, sa valeur pour les thérapeutes tient à sa capacité à soutenir le raisonnement diagnostique sans se substituer au jugement professionnel. En pratique clinique, de nombreux clients se présentent avec des antécédents désorganisés, des descriptions de symptômes vagues ou des difficultés à identifier des motifs dans le temps. Les outils assistés par l’IA peuvent aider les clients à structurer l’information avant les séances, comme le début des symptômes, leur fréquence, leurs déclencheurs, l’impact fonctionnel et la réponse aux interventions. Cette préparation structurée peut améliorer sensiblement la qualité des entretiens cliniques et réduire le temps consacré à clarifier des éléments de base. Pour les thérapeutes, ces informations organisées peuvent soutenir la formulation d’hypothèses et le raisonnement différentiel. Des motifs émergents liés aux troubles du sommeil, à la fatigue, aux difficultés de régulation émotionnelle, aux plaintes cognitives ou à l’observance thérapeutique peuvent orienter un questionnement plus ciblé ou indiquer la nécessité d’un dépistage formel ou d’une orientation. De cette façon, l’IA fonctionne comme un outil d’appui à la reconnaissance de motifs, et non comme une autorité diagnostique. Cela est particulièrement pertinent dans les contextes neurodéveloppementaux et de santé mentale. Des thèmes récurrents liés aux fonctions exécutives, au traitement sensoriel, à la régulation émotionnelle ou aux ruptures de communication peuvent aider les cliniciens à affiner la planification de l’évaluation et à sélectionner des outils appropriés. L’IA n’appose pas d’étiquettes et ne confirme pas de diagnostics, mais elle peut faire émerger des regroupements cliniquement significatifs qui justifient une évaluation professionnelle. En orthophonie et disciplines associées, cela peut enrichir le profil fonctionnel. Les clients peuvent utiliser l’outil pour formuler des difficultés de compréhension, d’expression, de fatigue vocale, des préoccupations de déglutition, ou une charge cognitive élevée dans la communication quotidienne. Cela peut approfondir les données d’anamnèse et soutenir des évaluations plus ciblées ainsi que la définition d’objectifs. Il est essentiel de distinguer clairement le soutien au diagnostic de l’autorité diagnostique. ChatGPT Health ne doit jamais être utilisé pour poser des diagnostics, exclure des pathologies ou fournir des conclusions cliniques. En revanche, il peut soutenir les thérapeutes en aidant les clients à organiser leurs expériences, à améliorer la description des symptômes, à mettre en évidence des motifs à explorer et à mieux se préparer à l’évaluation. Les thérapeutes restent responsables de l’interprétation, du raisonnement clinique et de la prise de décision. Une pratique éthique impliquera de discuter explicitement ces limites avec les clients et de rappeler que les apports générés par l’IA sont informationnels, non diagnostiques. Pour les patients, cet outil peut renforcer la littératie en santé, la confiance et l’engagement. Arriver mieux préparé aux rendez‑vous et aux séances peut réduire l’anxiété et favoriser des soins plus collaboratifs. Toutefois, un accompagnement est nécessaire pour éviter la surinterprétation ou un faux sentiment de sécurité. Les thérapeutes jouent un rôle clé pour aider les clients à contextualiser l’information, à traiter les réactions émotionnelles aux données de santé et à identifier quand un avis médical professionnel s’impose. Le développement de ChatGPT Health a impliqué une collaboration étroite avec des médecins de multiples spécialités, ce qui a façonné la manière de communiquer l’incertitude et d’encourager l’orientation vers des soins professionnels lorsque cela s’avère nécessaire. Cela renforce son rôle de ressource préparatoire et réflexive plutôt que directive. À mesure que l’IA investit les champs de la santé et de la thérapie, sa valeur clinique dépendra de la clarté des rôles et des limites. Utilisés comme outils d’organisation, de réflexion et de soutien aux hypotheses, plutôt que de diagnostic ou de traitement, des systèmes comme ChatGPT Health peuvent accroître l’efficacité clinique, améliorer la communication et favoriser une participation plus éclairée aux soins, tout en maintenant le jugement professionnel au premier plan. L’avenir de l’IA en santé ne consiste pas à remplacer le diagnostic. Il s’agit de soutenir de meilleures anamnèses, des questions plus claires et un raisonnement clinique plus réfléchi.

Uncategorized

Google vient d’intégrer l’IA à Gmail

Trois milliards de boîtes de réception sont sur le point de changer. Notre analyse de l’ère Gemini de l’e-mail Google a officiellement intégré l’IA à Gmail, et il ne s’agit pas d’une simple mise à jour de productivité. L’e-mail est l’un des systèmes les plus exigeants sur le plan cognitif que les personnes utilisent au quotidien, et désormais l’IA y est directement intégrée. Avec Gemini, les utilisateurs peuvent résumer instantanément de longs fils de messages, poser des questions à leur boîte de réception en langage naturel, rédiger ou peaufiner des e-mails gratuitement, recevoir des suggestions de réponse qui reflètent réellement leur voix, et vérifier le ton, la grammaire et la clarté. Bientôt, Gmail filtrera automatiquement l’encombrement, signalera les messages VIP et mettra en avant les e-mails à forts enjeux. Le déploiement commence en anglais (États-Unis), d’autres langues suivront, et certaines fonctionnalités avancées nécessiteront des formules Pro ou Ultra. Du point de vue thérapeutique, ce changement est plus important qu’il n’y paraît. L’e-mail n’est pas qu’un moyen de communication. C’est la fonction exécutive à l’œuvre. Il mobilise la planification, la priorisation, la mémoire de travail, la régulation émotionnelle et les compétences en langage pragmatique. Pour de nombreux clients, et de nombreux cliniciens, l’e-mail est une source quotidienne de surcharge cognitive. Ce que fait Gemini, c’est externaliser une partie de cette charge. Résumer les fils de discussion réduit les exigences liées à la mémoire de travail. Poser des questions à la boîte de réception permet de contourner des stratégies de recherche inefficaces. Les vérifications de ton et de clarté soutiennent le langage pragmatique. L’aide à la rédaction abaisse les barrières à l’initiation. Ces fonctions reflètent de près les soutiens déjà utilisés en thérapie, faisant de Gemini un échafaudage cognitif plutôt qu’un substitut à la pensée. Alors, comment les thérapeutes peuvent-ils concrètement en bénéficier ? Pour les orthophonistes, Gemini peut soutenir une communication écrite professionnelle sans compromettre l’intention clinique. Rédiger des e-mails aux parents, des correspondances scolaires ou des notes pluridisciplinaires exige souvent un ton, une clarté et une pragmatique précis. L’assistance à la rédaction et l’ajustement du ton par l’IA peuvent alléger la charge linguistique tout en permettant au thérapeute de conserver la maîtrise du contenu et des limites. Sur le plan clinique, ces mêmes fonctionnalités peuvent servir à modéliser des réponses appropriées par e-mail avec des clients plus âgés ou des adolescents travaillant la communication fonctionnelle et les habiletés pragmatiques. Pour les psychologues et les professionnels de la santé mentale, l’intérêt réside dans la régulation cognitive et émotionnelle. Les e-mails difficiles déclenchent souvent évitement, anxiété ou suranalyse. La rédaction assistée par l’IA peut aider les clients à initier leurs réponses, réduire la rumination et se concentrer sur le message plutôt que sur le stress lié au choix des mots. En thérapie, cela ouvre un espace pour discuter de la prise de décision, des limites et d’un usage réfléchi plutôt que de l’évitement. Pour les clients neurodivergents, en particulier ceux avec TDAH ou TSA, Gemini peut réduire les obstacles liés à l’initiation, à l’organisation et à l’interprétation de longs fils d’e-mails. Utilisé de manière intentionnelle, il peut faciliter l’accès sans masquer les besoins. Utilisé sans recul, il risque de court-circuiter le développement des compétences. C’est précisément là que l’accompagnement clinique est essentiel. Il existe aussi des considérations éthiques à ne pas ignorer. Gmail n’est pas une plateforme clinique. Des informations identifiables concernant des clients ne doivent jamais être saisies dans des systèmes d’IA sans garanties. L’assistance par l’IA ne retire en rien la responsabilité professionnelle en matière de confidentialité, de jugement et de nuances relationnelles. Le changement plus vaste est le suivant. L’IA n’est plus un outil distinct que l’on choisit d’ouvrir. Elle devient une composante de l’environnement cognitif dans lequel nos clients vivent. Cela signifie que la thérapie ne peut pas l’ignorer. Notre rôle n’est pas de résister à ces outils ni de leur déléguer la pensée. Notre rôle est d’aider clients et cliniciens à utiliser l’IA de manière réfléchie, comme un soutien plutôt qu’une autorité. Trois milliards de boîtes de réception sont sur le point de changer. Le jugement humain, le raisonnement clinique et une éthique de soin doivent continuer de guider.

Shopping Cart