Author name: Dr. Rania Kassir

English

When Algorithms Enter the Clinic: Why AI Giants Are Turning Toward Healthcare

AI in healthcare is no longer a concept. It’s a reality in motion and we’re now watching it mature in a more serious, more structured way. For a long time, healthcare was treated like a “possible use case” for general AI. But in practice, it has already been one of the most common real-world arenas where people test what these systems can do. Patients ask questions after clinic hours because anxiety doesn’t follow office schedules. Caregivers try to interpret lab results while waiting for a follow-up appointment. People navigating chronic conditions search for plain-language explanations of complex treatment plans. Clinicians, meanwhile, are under relentless documentation pressure and are constantly looking for tools that reduce cognitive load without sacrificing safety. The demand wasn’t hypothetical, it was already here. What’s changing now is that major AI companies are building healthcare-specific products that admit, plainly, that medicine is not “one size fits all.” Two launches make the shift easy to see: Claude for Healthcare and ChatGPT Health. They’re often discussed in the same breath, but clinically and ethically, we shouldn’t treat them as interchangeable. They point to two different problems and two different audiences, and that distinction matters because it shapes how risk shows up. ChatGPT Health is best understood as a patient-oriented space: a place where individuals can connect personal health or wellness information and receive explanations, summaries, and context in language that feels human. The promise is clarity. Healthcare is full of jargon, fragmented portals, and rushed appointments; a tool that helps someone understand their own information could reduce confusion and improve follow-through. When used appropriately, it can support better conversations with clinicians because patients arrive with sharper questions and less overwhelm. But that same strength is also its most predictable risk. When a system explains something smoothly, people can mistake fluency for clinical authority. We’ve all seen it: a confident tone can feel like certainty, even when the underlying situation is ambiguous. In healthcare, that gap is not academic, it can shape real decisions. So the safety challenge for a patient-facing tool isn’t just accuracy in a narrow sense. It’s expectation-setting, clear boundaries, and guardrails that prevent “informational support” from being interpreted as diagnosis or medical instruction. Claude for Healthcare, on the other hand, is more naturally framed as an enterprise and workflow tool. The emphasis is less “ask me anything” and more “connect me to the work.” Healthcare organizations don’t just need answers; they need operational support: interpreting and summarizing complex information at scale, reducing administrative friction, supporting research and internal processes, and fitting into existing systems without turning every task into another tab and another login. If we’re honest about what burns clinicians out, a large portion of it lives here, in documentation, administrative tasks, and the endless effort of finding and re-finding information across messy workflows. That’s why workflow-oriented tools feel so attractive: they target the pressure points that are actually breaking the system. But again, the risk is different. When AI becomes part of a workflow, it can scale both efficiency and error. If an output is wrong and nobody catches it, the mistake doesn’t just affect one conversation it can become embedded in documentation, passed forward, copied, and normalized. The more “plugged in” the tool is, the more essential it becomes to design for oversight rather than speed alone. This is where the compliance conversation becomes more than a checkbox. Once these systems touch sensitive health information, the question isn’t simply “is it HIPAA -compliant?” or “is it GDPR-compliant?” The deeper question is: how will data governance work in real life, with real people, under real time pressure? HIPAA (Health Insurance Portability and Accountability Act) and GDPR (General Data Protection Regulation) are different frameworks, but both push toward the same discipline: clear rules about what data is collected, why it’s collected, who can access it, how long it’s kept, and what happens when something goes wrong. And here’s the point we can’t afford to gloss over: compliance is not something a company can fully “grant” to a user through a product announcement. Even if a system is designed to be HIPAA-ready or offers strong security features, organizations still need to deploy it responsibly. That means access controls, role-based permissions, audit trails, staff training, retention policies, incident response planning, and crystal-clear boundaries around what data should and should not be entered into the system. For patient-facing AI like ChatGPT Health, privacy and consent have to be especially legible, because patients don’t always realize what they’re sharing when they upload documents, connect accounts, or paste text from portals. The tool needs to prevent accidental oversharing and make it obvious when a question crosses into “you need a clinician” territory. For workflow-oriented AI like Claude for Healthcare, the burden shifts toward institutional controls: connector permissions, least-privilege access, monitoring, and accountability structures that keep “helpful automation” from becoming invisible decision-making. What’s genuinely promising in all of this is the direction of travel. We’re moving away from the idea that one generic assistant can safely serve every healthcare scenario. We’re seeing specialization: tools designed for patient understanding, and tools designed for clinical and organizational workflows. That specialization makes it easier to define what the system is for, how it should be evaluated, and where the boundaries must be enforced. Our take is simple: we’re watching healthcare AI diversify, and that’s a sign the sector is being taken seriously. But seriousness comes with obligations. These tools should assist, not diagnose. They should reduce burden, not quietly introduce new error channels. And they should handle sensitive data with governance that is operational, not rhetorical. If we build with those principles, AI can improve clarity and relieve real pressure in healthcare. If we don’t, it will scale confident-sounding uncertainty into the one domain where people can least afford it.

English

From Manuscript to Model: Rethinking Academic Illustration in the Age of AI

As researchers, we spend a surprising amount of time doing work that is not, strictly speaking, research. We design studies, refine hypotheses, collect and analyze data, and engage deeply with theory and then we open PowerPoint or Illustrator and begin the meticulous process of turning our methods and findings into figures. We adjust arrows, realign boxes, standardize fonts, correct axis labels, and export multiple versions to meet submission guidelines. The science may be rigorous, but the path from text to publication-ready visuals often feels inefficient and cognitively draining. Lately, we’ve been looking at PaperBanana, a text-to-figure AI tool that’s clearly targeting researchers who want to speed up figure creation without sacrificing academic clarity. The core promise is simple: turn method descriptions into structured methodology diagrams, and turn data into charts in a way that’s meant to stay faithful to what we actually did (not just “look plausible”). The detail that makes it feel more “research-first” than generic image generators is the idea of a closed-loop workflow: instead of one-shot output, the tool aims to draft, check, and refine—so the figure is more likely to match the logic of the method. The “plus” here isn’t that we get a pretty figure in seconds. The real added value is that we get cheap iteration. When iteration is cheap, we stop freezing figures too early. We can generate multiple drafts, compare them, and treat figure-building like writing: draft → critique → revise. That’s where quality usually improves, not because the AI is perfect, but because our feedback loop gets faster and less exhausting. At the same time, it’s worth being honest: Illustrae plays a different game. It’s typically the better fit when the job is not just “create one diagram,” but assemble a full visual story, multi-panel figures, posters, teaching material, and lots of manual layout decisions. Illustrae tends to offer more features and flexibility, with more ready-to-use options to manage variables, layouts, iterations, and visual adjustments. The tradeoff many people feel is cost: it’s often described as significantly more expensive (and/or less predictable) than a straightforward researcher subscription, which can be a barrier for individuals or small labs. PaperBanana, in contrast, feels more minimalist and research-focused. For method diagrams and conceptual figures, especially at the drafting stage, it can be comparable in performance, while being more affordable, which matters a lot for labs, PhD students, and early-career researchers. It’s also commonly framed as being built on NanoBanana Pro, positioned as stronger for structured scientific visuals than general image models like DALL·E 3 (at least for diagram-like outputs where structure and labels matter more than “art style”). Here’s the comparison in a clean table (pricing stars are about budget-friendliness + predictability, not “how expensive the company is in absolute terms”): Tool Best for Pricing style (practically) Public price (USD, as listed) Price predictability (1–5) Value for researchers (1–5) Flexibility / control (1–5) Strengths (advantages) Tradeoffs (be honest) Illustrae Posters, multi-panel figures, teaching material, complex layouts Subscription + credits paid pricing not publicly posted (custom quote) (illustrae.co) 2 4 5 More features; more layout control; strong for assembling and polishing big visuals Can be significantly more expensive / less predictable; cost can block individuals/small labs; still needs expert review to avoid conceptual drift PaperBanana Methods diagrams, conceptual figures, fast drafting of research visuals Subscription + credits From $4.90/mo (annual billing) for 100 credits; $6.90/mo for 400; $19.90/mo for 1,500 (paperbanana.studio) (Alt. “credit plans” page also lists $14.90/mo, $59.90/mo, $119.90/mo tiers.) (paperbanana.org) 4 5 3 Minimalist and research-focused; fast drafting; good for method diagrams; affordable enough to be realistic for students/labs No meaningful free tier for deep exploration (subscription needed); final figures still need human refinement; confidentiality policies may not fully guarantee exclusion of unpublished work from training Now the limits, because this is where “AI for academia” either becomes useful or becomes risky. First, human review remains essential. These tools accelerate drafting, but final figures still need expert refinement: labels, implied causality, statistical meaning, and whether the diagram accidentally over-claims what the method can do. Second, subscription friction is real. If there’s no meaningful free tier, adoption becomes a budgeting decision, not a quick experiment, especially for students. Third, confidentiality is still a question. Unless a tool makes an explicit, strong guarantee that unpublished papers/figures are excluded from model training (and clarifies retention), we should be cautious with sensitive or pre-publication material. And yes, we can always rely on classic AI tools like Notebook or NotebookLM for summarizing, outlining, or restructuring ideas. They’re great at text workflows, but they’re not built specifically for researchers’ visual needs, and they’re typically less precise for scientific diagram conventions, which increases the risk of subtle visual or conceptual inaccuracies compared with tools designed for academic figures. So when we ask “what’s the plus?”, it’s this: we’re buying back attention. Not just time, attention. If figure drafting becomes fast enough that we can iterate without dread, we can redirect our effort to what actually moves research forward: clearer hypotheses, sharper methods, better interpretation, and figures that communicate rather than decorate. Choosing the right tool isn’t about hype, it’s about fitness for scientific purpose.

French

Du manuscrit au modèle : repenser l’illustration académique à l’ère de l’IA

En tant que chercheurs, nous passons un temps surprenant à faire des choses qui ne sont pas, à proprement parler, de la recherche. Nous concevons des études, affinons des hypothèses, collectons et analysons des données, nous engageons dans la théorie… puis nous ouvrons PowerPoint ou Illustrator et entamons le patient travail de transformer méthodes et résultats en figures. Nous ajustons des flèches, réalignons des blocs, standardisons des polices, corrigeons des axes, et exportons plusieurs versions pour respecter les consignes de soumission. La science peut être rigoureuse, mais le passage du texte à des visuels prêts pour la publication est souvent inefficace et cognitivement épuisant. Dernièrement, nous nous sommes penchés sur PaperBanana, un outil d’IA « texte‑vers‑figure » qui vise clairement les chercheurs souhaitant accélérer la création de figures sans sacrifier la clarté académique. La promesse centrale est simple : transformer des descriptions de méthode en schémas méthodologiques structurés, et transformer des données en graphiques d’une manière fidèle à ce que nous avons réellement fait (et pas seulement « plausible » à l’œil). Le détail qui lui donne un côté plus « research‑first » que des générateurs d’images génériques, c’est l’idée d’une boucle fermée de travail : au lieu d’un rendu en un seul jet, l’outil cherche à ébaucher, vérifier et affiner, de sorte que la figure corresponde mieux à la logique de la méthode. Le « plus » ici, ce n’est pas d’obtenir une jolie figure en quelques secondes. La vraie valeur ajoutée, c’est l’itération à faible coût. Quand l’itération ne coûte pas cher, on arrête de « figer » trop tôt les figures. On peut générer plusieurs versions, les comparer et traiter la construction d’une figure comme l’écriture : brouillon → critique → révision. C’est là que la qualité s’améliore en general, non parce que l’IA est parfaite, mais parce que notre boucle de retour s’accélère et s’épuise moins. En parallèle, soyons honnêtes : Illustrae joue un autre jeu. C’est souvent le meilleur choix quand la tâche n’est pas seulement « créer un schéma », mais assembler un récit visuel complet : figures multipanneaux, posters, supports pédagogiques, et beaucoup de décisions de mise en page manuelles. Illustrae offre en général davantage de fonctionnalités et de flexibilité, avec plus d’options prêtes à l’emploi pour gérer variables, dispositions, itérations et ajustements visuels. Le compromis que beaucoup ressentent, c’est le coût : on le décrit souvent comme nettement plus cher (et/ou moins prévisible) qu’un abonnement simple pour chercheurs, ce qui peut constituer un frein pour les individus ou les petits laboratoires. À l’inverse, PaperBanana paraît plus minimaliste et centré sur la recherche. Pour les schémas de méthodes et les figures conceptuelles, surtout au stade de l’ébauche, il peut offrir des performances comparables, tout en restant plus abordable, ce qui compte énormément pour les laboratoires, les doctorants et les jeunes chercheurs. Il est aussi souvent présenté comme bâtissant sur NanoBanana Pro, réputé plus adapté aux visuels scientifiques structurés que des modèles d’images généralistes comme DALL·E 3 (du moins pour des sorties de type schéma, où la structure et les libellés priment sur le « style artistique »). Comparatif synthétique Copy table Outil Idéal pour Modèle tarifaire (en pratique) Prix public (USD, tel qu’indiqué) Prévisibilité du coût (1–5) Valeur pour chercheurs (1–5) Flexibilité / contrôle (1–5) Atouts Compromis Illustrae Posters, figures multipanneaux, pédagogie, mises en page complexes Abonnement + crédits Tarifs payants non publiés (devis) (illustrae.co) 2 4 5 Plus de fonctionnalités ; meilleur contrôle de la mise en page ; solide pour assembler et peaufiner de grands visuels Peut être nettement plus cher / moins prévisible ; le coût peut bloquer individus/petits labos ; nécessite tout de même une relecture experte pour éviter les dérives conceptuelles PaperBanana Schémas de méthodes, figures conceptuelles, ébauches rapides de visuels de recherche Abonnement + crédits À partir de 4,90 $/mois (facturation annuelle) pour 100 crédits ; 6,90 $/mois pour 400 ; 19,90 $/mois pour 1 500 (paperbanana.studio). Autre page « plans de crédits » listant 14,90 $/mois, 59,90 $/mois, 119,90 $/mois (paperbanana.org). 4 5 3 Minimaliste et orienté recherche ; ébauche rapide ; bon pour schémas de méthodes ; suffisamment abordable pour étudiants/labos Pas de véritable offre gratuite pour une exploration poussée (abonnement requis) ; les figures finales exigent une retouche humaine ; les politiques de confidentialité peuvent ne pas garantir explicitement l’exclusion des travaux non publiés de l’entraînement des modèles Les limites, là où « l’IA pour l’académique » devient utile… ou risquée: La relecture humaine reste essentielle, car si ces outils accélèrent l’ébauche, les figures finales exigent une expertise, précision des libellés, causalités implicites, sens statistique, et vérification que le schéma n’exagère pas ce que la méthode peut réellement soutenir. À cela s’ajoute une friction d’abonnement bien réelle: sans véritable palier gratuit, l’adoption devient un choix budgétaire plus qu’une simple expérimentation, surtout pour les étudiants. Enfin, la confidentialité demeure une zone d’ombre: à moins qu’un outil ne garantisse explicitement et fermement l’exclusion des articles ou figures non publiés de l’entraînement (et n’éclaircisse ses politiques de rétention), la prudence s’impose pour tout contenu sensible ou en prépublication. Et oui, on peut toujours s’appuyer sur des outils d’IA « classiques » comme Notebook ou NotebookLM pour résumer, structurer ou remanier des idées. Ils excellent pour les flux de travail textuels, mais ne sont pas conçus spécifiquement pour les besoins visuels des chercheurs ; ils sont en général moins précis sur les conventions des schémas scientifiques, ce qui augmente le risque d’inexactitudes visuelles ou conceptuelles subtiles par rapport à des outils dédiés aux figures académiques. Alors, le véritable « plus », c’est quoi ? Nous rachetons de l’attention. Pas seulement du temps : de l’attention. Si l’ébauche de figures devient assez rapide pour que l’on itère sans appréhension, nous pouvons réinvestir nos efforts là où la recherche progresse vraiment : des hypothèses plus claires, des méthodes plus nettes, une meilleure interprétation et des figures qui communiquent plutôt que de décorer. Le bon choix d’outil n’a rien à voir avec la mode : il tient à son adéquation

French

Quand les algorithmes entrent en clinique : pourquoi les géants de l’IA se tournent vers la santé

L’IA en santé n’est plus une idée abstraite. C’est une réalité en mouvement, que l’on voit désormais gagner en maturité, avec plus de sérieux et de structure. Pendant longtemps, la santé a été traitée comme un « cas d’usage possible » pour une IA généraliste. En pratique, elle a déjà été l’un des terrains les plus courants où l’on teste ces systèmes dans le monde réel. Les patients posent des questions après les heures de consultation, parce que l’anxiété n’obéit pas aux horaires de bureau. Les aidants tentent d’interpréter des résultats de laboratoire en attendant un rendez-vous de suivi. Les personnes vivant avec des maladies chroniques cherchent des explications en langage clair à des plans de traitement complexes. De leur côté, les cliniciens subissent une pression documentaire incessante et recherchent constamment des outils qui allègent la charge cognitive sans sacrifier la sécurité. La demande n’était pas hypothétique, elle était déjà là. Ce qui change aujourd’hui, c’est que les grandes entreprises de l’IA conçoivent des produits spécifiquement dédiés à la santé, en reconnaissant sans détour que la médecine n’est pas un domaine « taille unique ». Deux lancements rendent ce virage particulièrement visible : Claude for Healthcare et ChatGPT Health. On les évoque souvent ensemble, mais cliniquement et éthiquement, il ne faut pas les traiter comme interchangeables. Ils répondent à deux problèmes différents et à deux publics distincts, et cette distinction importe, car elle détermine la façon dont le risque se manifeste. ChatGPT Health se comprend avant tout comme un espace orienté vers le patient : un lieu où chacun peut connecter ses informations personnelles de santé ou de bien‑être et recevoir des explications, des résumés et du contexte dans un langage humain. Sa promesse, c’est la clarté. Le système de santé est saturé de jargon, de portails fragmentés et de consultations pressées ; un outil qui aide une personne à comprendre ses propres informations peut réduire la confusion et améliorer l’adhésion. Utilisé à bon escient, il peut soutenir de meilleures conversations avec les cliniciens, car les patients arrivent avec des questions plus précises et moins de débordement émotionnel. Mais cette force est aussi son risque le plus prévisible. Lorsqu’un système explique les choses avec aisance, on peut confondre fluidité et autorité clinique. Nous l’avons tous constaté : un ton assuré peut donner l’illusion de la certitude, même lorsque la situation sous-jacente demeure ambiguë. En santé, cet écart n’a rien de théorique, il influence des décisions bien réelles. Le défi de sécurité pour un outil tourné vers le patient ne se réduit donc pas à l’exactitude au sens étroit. Il s’agit de cadrer les attentes, de poser des frontières claires et d’ériger des garde‑fous pour empêcher que le « soutien informationnel » ne soit interprété comme un diagnostic ou une consigne médicale. Claude for Healthcare, à l’inverse, s’inscrit plus naturellement comme un outil d’entreprise et de flux de travail. L’enjeu n’est pas tant « demandez‑moi n’importe quoi » que « connectez‑moi au travail ». Les organisations de santé n’ont pas seulement besoin de réponses ; elles ont besoin d’appui opérationnel : interpréter et résumer des informations complexes à grande échelle, réduire les frictions administratives, soutenir la recherche et les processus internes, et s’intégrer aux systèmes existants sans transformer chaque tâche en un onglet et un identifiant supplémentaires. Si l’on est honnête sur ce qui épuise les cliniciens, une large part se situe ici, dans la documentation, les tâches administratives et l’effort sans fin pour retrouver encore et encore l’information au sein de workflows brouillons. C’est pourquoi les outils orientés workflow paraissent si attrayants : ils ciblent les points de pression qui fissurent réellement le système. Mais là encore, le risque est différent. Quand l’IA s’intègre au flux de travail, elle peut amplifier à la fois l’efficacité et l’erreur. Si une sortie est erronée et que personne ne la repère, la faute ne touche pas qu’une conversation : elle s’inscrit dans la documentation, se propage, se recopie et se normalise. Plus l’outil est « branché » au système, plus il devient essentiel de le concevoir pour la supervision et pas seulement pour la vitesse. C’est ici que la conformité dépasse le simple « à cocher ». Dès que ces systèmes manipulent des données de santé sensibles, la question n’est pas seulement « est‑il conforme à la HIPAA ? » ou « est‑il conforme au RGPD ? ». La vraie question est : comment la gouvernance des données fonctionnera‑t‑elle dans la vraie vie, avec de vraies personnes, sous une vraie pression temporelle ? La HIPAA (Health Insurance Portability and Accountability Act) et le RGPD (Règlement général sur la protection des données) sont des cadres différents, mais ils poussent tous deux vers la même discipline : des règles claires sur les données collectées, la raison de leur collecte, qui peut y accéder, combien de temps elles sont conservées et ce qu’il se passe en cas de problème. Et voici un point à ne pas édulcorer : la conformité n’est pas quelque chose qu’une entreprise peut entièrement « octroyer » à un utilisateur par une annonce produit. Même si un système est conçu pour être compatible HIPAA ou propose des fonctions de sécurité robustes, les organisations doivent encore le déployer de manière responsable. Cela implique des contrôles d’accès, des permissions fondées sur les rôles, des pistes d’audit, la formation du personnel, des politiques de rétention, une planification de réponse aux incidents, et des frontières limpides sur les données qui doivent, ou ne doivent pas, être saisies dans le système. Pour une IA tournée vers le patient comme ChatGPT Health, la confidentialité et le consentement doivent être particulièrement lisibles, car les patients ne mesurent pas toujours ce qu’ils partagent lorsqu’ils téléversent des documents, connectent des comptes ou collent des textes issus de portails. L’outil doit prévenir la sur‑divulgation accidentelle et rendre évident le moment où une question franchit la limite du « vous avez besoin d’un clinicien ». Pour une IA orientée workflow comme Claude for Healthcare, la charge se déplace vers les contrôles institutionnels

French

Quand l’IA commence à faire le travail des « jeunes diplômés » : ce que cela signifie pour nous, thérapeutes

Si vous exercez depuis suffisamment longtemps, vous vous souvenez probablement à quel point vos premières années ont été façonnées par les aspects les moins glamour du métier. Notes, rapports, formulaires d’admission, messages de planification, cotation, et interminable mise au propre de la documentation. C’était épuisant, mais cela faisait aussi partie de l’apprentissage. Écrire nous obligeait à clarifier ce que nous observions, ce que nous pensions que cela signifiait, et pourquoi nous choisissions une prochaine étape particulière. Aujourd’hui, l’intelligence artificielle s’invite précisément à ce niveau de la vie clinique, en ergothérapie, orthophonie, psychologie et kinésithérapie. Pas de manière spectaculaire « les robots remplacent les thérapeutes », mais de manière pratique, au quotidien. L’IA peut rédiger de la documentation, résumer des textes longs, organiser l’information et générer des modèles de première intention. Cela change ce que les cliniques mesurent, ce que les responsables attendent, et ce que les cliniciens en début de carrière se sentent pressés de produire. De notre point de vue de cliniciens, le plus grand changement est que l’IA compresse certaines parties de la courbe d’apprentissage. Un nouveau diplômé peut produire très vite quelque chose de soigné, et parfois cette production soignée peut masquer le fait que le raisonnement clinique est encore en développement. Un paragraphe au ton assuré n’est pas la même chose qu’une formulation solide. Un plan bien rangé n’est pas un plan individualisé. Lorsque les charges de cas sont lourdes et le temps de supervision limité, il devient plus facile de confondre vitesse et compétence et c’est là que le risque grandit, discrètement. Ainsi, le seuil d’exigence à l’entrée évolue. Si les tâches routinières deviennent plus rapides, l’attente est que le clinicien apporte davantage de ce qui ne peut pas être automatisé. Un raisonnement clinique plus robuste apparaît plus tôt. Le jugement éthique cesse d’être un thème de formation annuel pour devenir une décision quotidienne, en particulier autour de la confidentialité, du consentement, des biais, et de ce qui ne doit jamais être saisi dans un outil public. La littératie numérique devient également une dimension du professionnalisme, non pas parce que nous devons être des experts techniques, mais parce que nous devons en comprendre assez pour utiliser les outils de manière responsable et en expliquer les limites. Nous pensons aussi qu’il est utile d’être très clair sur ce à quoi l’IA sert réellement en pratique. Elle peut soutenir la préparation, la structuration et l’efficacité. Elle peut nous aider à rédiger, à réfléchir et à organiser. Mais elle ne peut pas assumer la responsabilité. Nous devons toujours relire chaque sortie comme si nous devions en répondre. Nous devons toujours vérifier les sources lorsque des recherches sont résumées. Nous devons toujours adapter chaque plan à la personne en face de nous, car des recommandations génériques peuvent être subtilement inadaptées au contexte, à la culture, aux risques et aux objectifs d’un patient. Pour les superviseurs, propriétaires de cliniques et cliniciens seniors, une responsabilité parallèle existe. Si l’IA réduit le temps de documentation, nous devons décider intentionnellement où va ce temps. Il peut être réinvesti dans une réflexion plus approfondie, des discussions de consentement plus claires, des soins plus collaboratifs et un suivi renforcé. Ou il peut servir à caser davantage de séances tout en appelant cela de l’innovation. Une seule de ces options protège les soins centrés sur la personne, et une seule soutient le développement de cliniciens sûrs. Au bout du compte, nous ne voyons pas l’IA comme un substitut à la thérapie : elle en redéfinit le rôle. Les thérapeutes qui prospéreront seront ceux qui pensent avec clarté, utilisent les outils avec discernement et protègent ce qui demeure profondément humain : la relation, le rythme et le jugement éthique. Cela signifie aussi utiliser l’IA de manière responsable : garder les informations des patients anonymisées/dé‑identifiées dès que possible, et privilégier des systèmes locaux et hors ligne (sur l’appareil ou sur un serveur interne sécurisé) plutôt que d’envoyer des données vers des outils en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites strictes sur ce qui est saisi, et une explication transparente de l’itinéraire des données, des personnes qui peuvent y accéder et de la manière dont elles sont stockées. Si l’IA nous offre quelque chose qui mérite d’être conservé, c’est du temps pour faire davantage de ce que seuls les cliniciens peuvent faire. Ressources • World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance (ISBN 9789240029200). World Health Organization. https://www.who.int/publications/i/item/9789240029200• NHS England. (2025, April 27). Guidance on the use of AI-enabled ambient scribing products in health and care settings (Version 2). NHS England. https://www.england.nhs.uk/long-read/guidance-on-the-use-of-ai-enabled-ambient-scribing-products-in-health-and-care-settings/• American Speech-Language-Hearing Association. (n.d.). Generative Artificial Intelligence (AI) for clinicians in audiology and speech-language pathology. https://www.asha.org/practice/generative-artificial-intelligence-for-clinicians/• American Physical Therapy Association. (2024, September 23). Ethical and effective integration of artificial intelligence across physical therapist practice, education, and research [Policy]. https://www.apta.org/apta-and-you/leadership-and-governance/policies/ethical-and-effective-integration-of-artificial-intelligence-across-physical-therapist-practice-education-and-research• Krebs, K., Montagne, L., & Rodakowski, J. (2025, August 2). Generative Artificial Intelligence for OT practitioners: Easy as ABC and 123. OT Practice, 30(8). https://www.aota.org/publications/ot-practice/ot-practice-issues/2025/generative-artificial-intelligence-for-ot-practitioners-easy-as-abc-and-123

French

Vers des soins « vraiment adaptés » : comment l’IA personnalise le traitement en santé mentale

La thérapie a toujours comporté une forme d’incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l’intérieur de cette incertitude sans chercher à « résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprenons avec le patient ce qui fonctionne réellement. Même lorsque nous pratiquons avec rigueur, la phase initiale peut ressembler à de l’essai‑erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche conviennent vraiment à cette personne. Pour des patients déjà épuisés ou à risque, ce délai compte. L’IA commence à réduire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer surtout sur l’auto‑évaluation rétrospective (« Comment s’est passée votre semaine ? »), nous pouvons ajouter des signaux du monde réel issus des téléphones et des dispositifs portés : durée et régularité du sommeil, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l’extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorent aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l’information sur les circuits et patterns neuronaux susceptibles d’être liés aux profils symptomatiques ou à la réponse au traitement. L’objectif n’est pas de remplacer le jugement clinique, mais de le renforcer. Le changement pratique consiste à passer d’un instantané à l’admission à une image vivante de la semaine du patient. L’auto‑rapport est essentiel, mais la mémoire est imparfaite et les symptômes peuvent brouiller le rappel. Les données passives et semi‑passives peuvent révéler des schémas que les patients ressentent souvent sans pouvoir les nommer aisément. Si un patient dit aller « bien », alors que son sommeil se fragmente et que son niveau d’activité baisse régulièrement, nous disposons d’un point d’entrée compatissant pour approfondir. Si l’anxiété grimpe de façon fiable à certains moments et dans certains contextes, nous pouvons cesser de la traiter comme aléatoire et commencer à la traiter comme prévisible. C’est ici que l’IA aide : elle peut analyser de larges séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une baisse d’humeur, ce qui prédit l’irritabilité, ou quelle combinaison d’isolement et de perturbation du sommeil précède des pulsions d’automutilation. Voyez‑la comme une table de correspondance entre signaux et hypothèses cliniques. Une variabilité du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la rechute. Une baisse de l’activité peut pointer vers l’évitement et l’anhédonie, suggérant une activation comportementale ou une action guidée par les valeurs. Des changements de routine brusques peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nous aident à poser de meilleures questions plus tôt et à affiner plus vite le plan. Vous avez également évoqué une idée tournée vers l’avenir : combiner des examens cérébraux avec des données de smartphone et d’appareils portés pour estimer la meilleure intervention avant d’entamer un long parcours d’essais et erreurs. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prédire la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas forcément à d’autres populations, appareils et à la complexité du monde réel. Utilisés de façon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique. L’un des bénéfices les plus immédiats concerne le timing. Une classe grandissante d’outils vise à offrir un soutien au moment où les symptômes sont les plus susceptibles de culminer (souvent décrits comme des interventions au bon moment). La thérapie hebdomadaire enseigne des compétences, mais l’épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu’ils sont épuisés, pendant un trajet quand la panique monte, ou juste après un conflit quand les impulsions s’intensifient. Si les données montrent un schéma fiable, perturbation du sommeil suivie d’agitation le lendemain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d’ancrage, un rappel de plan d’adaptation, ou un micro‑exercice qui reconnecte l’instant à la formulation que vous avez élaborée ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance. Ces avancées pourraient aussi élargir l’accès dans un contexte de pénurie de professionnels. Tout le monde ne peut pas suivre des séances régulières, et beaucoup n’accèdent aux soins qu’en situation de crise. Des soutiens numériques soigneusement conçus peuvent offrir une continuité sur mesure à ceux qui peinent à accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lorsque les séances ont lieu. Les limites éthiques sont non négociables. Les données personnelles doivent reposer sur l’adhésion explicite (opt‑in), être limitées à une finalité déterminée et faciles à mettre en pause ou à arrêter. L’approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n’avons pas besoin de contenus privés (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‑ins. Dans la mesure du possible, l’information doit être anonymisée ou dé‑identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu’elle ne puisse raisonnablement pas être rattachée à une personne. La même logique s’applique aux IA génératives utilisées pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles devraient idéalement être locales (installées et exécutées sur un appareil ou un serveur interne sécurisé) plutôt que d’envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites claires sur les données saisies,

English

When AI Starts Doing the “New Grad” Work: What It Means for Us as Therapists

If you have been in practice long enough, you probably remember how your early years were shaped by the unglamorous parts of the job. Notes, reports, intake forms, scheduling messages, scoring, and endless documentation clean up. It was exhausting, but it was also part of the apprenticeship. Writing things down forced us to clarify what we saw, what we thought it meant, and why we chose a particular next step. Now artificial intelligence is stepping into that exact layer of clinical life across occupational therapy, speech therapy, psychology, and physiotherapy. Not in a dramatic “robots are replacing therapists” way, but in a practical, everyday way. AI can draft documentation, summarize long text, organize information, and generate first pass templates. That changes what clinics measure, what managers expect, and what early career clinicians feel pressured to deliver. From our perspective as clinicians, the biggest shift is that AI is compressing parts of the learning curve. A new graduate can produce something that looks polished very quickly, and sometimes that polished output can hide the fact that clinical reasoning is still developing. A confident sounding paragraph is not the same as a sound formulation. A tidy plan is not the same as an individualized plan. When caseloads are heavy and supervision time is limited, it becomes easier to mistake speed for competence, and that is where risk quietly grows. So the entry level bar is moving. If routine tasks become faster, the expectation becomes that the clinician will contribute more of what cannot be automated. Stronger clinical reasoning shows up earlier. Ethical judgment stops being a once a year training topic and becomes a daily decision, especially around privacy, consent, bias, and what information should never be entered into a public tool. Digital literacy also becomes part of professionalism, not because we need to be tech experts, but because we need to understand enough to use tools responsibly and explain their limits. We also think it helps to be very clear about what AI is good for in real practice. It can support preparation, structure, and efficiency. It can help us draft, brainstorm, and organize. But it cannot hold accountability. We still have to review every output like we might be questioned on it. We still have to check sources when research is summarized. We still have to tailor every plan to the person in front of us, because generic recommendations can be subtly wrong for a client’s context, culture, risks, and goals. For supervisors, clinic owners, and senior clinicians, there is a parallel responsibility. If AI reduces documentation time, we should be intentional about where that time goes. It can go toward better reflection, clearer consent conversations, more collaborative care, and stronger follow up. Or it can go toward squeezing in more sessions while calling it innovation. Only one of those choices protects client centered care, and only one supports the development of safe clinicians. In the end, we do not see AI as a replacement for therapy: it reshapes the role. The therapists who will thrive are those who think clearly and use tools carefully, while protecting what stays deeply human: relationship, pacing, and ethical judgment. That also means using AI responsibly: keep client information anonymized/de‑identified whenever possible, and prefer local, offline systems (on-device or a secure internal server) over sending data to online tools. If a cloud-based tool is used, it should be only with explicit informed consent, strict limits on what is entered, and a transparent explanation of where data goes, who can access it, and how it is stored.If AI gives us anything worth keeping, it is time to do more of what only clinicians can do. Resources

English

Toward “Right‑Fit” Care: How AI Is Personalizing Mental Health Treatment

Toward “Right‑Fit” Care: How AI Is Personalizing Mental Health Treatment Therapy has always included a careful kind of uncertainty, and as psychologists and mental health professionals we know how much skill it takes to work inside that uncertainty without trying to “solve” a person too quickly. We listen, assess, build a formulation, choose an evidence‑based starting point, and then we learn with the client what actually works. Even when we practice well, the early phase can feel like trial and error: a few weeks of testing whether this structure, this pacing, and this approach truly fit this person. For clients who are already exhausted or at risk, that delay matters. AI is beginning to shorten that “finding out” period by using personal data, shared only with explicit permission, to support earlier, more precise decisions. Instead of relying mainly on retrospective self‑report (“How was your week?”), we can add real‑world signals from phones and wearables: sleep duration and regularity, movement and sedentary time, daily rhythm, time spent at home versus outside, and changes in routine or social connection. In some specialized settings, clinicians and researchers also explore brain data (for example, MRI or EEG measures) to add information about brain circuitry and patterns that may relate to symptom profiles or treatment response. The aim is not to replace clinical judgment, but to strengthen it. The practical shift is moving from a snapshot at intake to a living picture of the client’s week. Self‑report is essential, but memory is imperfect and symptoms can blur recall. Passive and semi‑passive data can reveal patterns clients often feel but cannot easily name. If a client says they are “fine,” yet their sleep is fragmenting and their activity is steadily dropping, we have a compassionate entry point for deeper exploration. If anxiety spikes reliably at certain times and contexts, we can stop treating it as random and start treating it as predictable. This is where AI helps: it can analyze large, messy time‑series data and detect relationships humans would miss, what tends to happen before a mood drop, what predicts irritability, or what combination of isolation and sleep disruption precedes self‑harm urges. Think of it as a translation table from signals to clinical hypotheses. Sleep variability may indicate reduced emotion regulation capacity and relapse vulnerability. Reduced movement may point toward avoidance and anhedonia, suggesting behavioral activation or values‑based action. Abrupt routine changes may signal interpersonal rupture, shame, or safety concerns. The data does not diagnose; it helps us ask better questions sooner and refine the plan faster. You also pointed to a future‑leaning idea: combining brain scans with smartphone and wearable data to estimate the best intervention before a long course of trial and error begins. This direction is promising, but it demands caution. Some models can predict treatment response in research settings, yet they may not generalize across populations, devices, and real‑world complexity. Used ethically, these tools should function like decision support, a second opinion, never an automatic decision-maker. One of the most immediate benefits is timing. A growing class of tools aims to deliver support when symptoms are most likely to spike (often described as “just‑in‑time” interventions). Weekly therapy teaches skills, but the real test is whether clients can access them at 11 pm when exhausted, during a commute when panic builds, or right after conflict when urges rise. If data shows a reliable pattern, sleep disruption followed by next‑day agitation, or isolation followed by late‑night rumination, digital supports can be timed to the risk window: a brief grounding prompt, a coping-plan reminder, or a micro‑exercise that reconnects the moment to the formulation you built together. At their best, these tools feel like a bridge between sessions, not surveillance. These advancements could also expand access in a world of provider shortages. Not everyone can attend consistent sessions, and many people reach care only during crisis. Carefully designed digital supports can offer tailored continuity for those who struggle to access services, while keeping therapy human, relational, and collaborative when sessions occur. The ethical boundaries are non‑negotiable. Personal data must be opt‑in, purpose‑limited, and easy to pause or stop. The safest approach is minimalism: collect only what answers a clinical question. In many cases we do not need private content (messages, audio, contacts); we need patterns (sleep, movement, routine) and brief check‑ins. Whenever possible, the information should be anonymized or de identified (remove names, dates of birth, exact addresses, contact details, record numbers, and any unique identifiers) so it cannot reasonably be traced back to a person. The same logic applies to generative AI used for clinical writing or support: to protect confidentiality, it should ideally be local (downloaded and running on a device or secure internal server) rather than sending client information to an online system. If a cloud based tool is used, it should only be with explicit informed consent, clear limits on what data is entered, and a transparent explanation of where the information goes, who can access it, and how it is stored. And if a tool touches suicidality, the agreement must be explicit: what is monitored, who sees it, what triggers an escalation, and what the tool is not responsible for. Any system claiming it can “detect suicide risk” should be treated like a high‑stakes clinical claim requiring strong evidence, transparency, and a clear safety protocol. So how do we integrate this as therapists without losing the heart of therapy? Start small and clinical. Choose one target (sleep, panic spikes, avoidance, self‑harm urges). Collaboratively pick one or two metrics that feel helpful rather than invasive. Decide together how insights will be used, shaping session focus, planning for predictable windows, or evaluating whether a new intervention is working. Then review it like any intervention: Did it increase agency or self‑criticism? Did it clarify patterns or add pressure? Integration succeeds when the client feels more choice, more clarity, and faster relief. If we insist on evidence, close monitoring, clinical involvement, and regulation, AI can reduce unnecessary suffering by helping us match people

English

Two approaches to using AI in therapy: procedural vs. collaborative (and how we actually benefit)

We keep noticing that when clinicians talk about “using AI,” we’re often talking about two very different approaches, even if we’re using the same tool. And the confusion usually shows up around one word: automation. People hear “automation” and imagine a cold replacement of therapy, or they assume it’s basically the same thing as collaboration. In practice, automation in clinical work is simpler and more grounded than that. It is not “AI doing therapy.” It is the clinician delegating repeatable steps in the workflow, then supervising the output the way we would supervise an assistant or a trainee. In procedural mode, AI becomes a substitute for execution. We ask, it answers; we paste, we send. The output is used for efficiency: quicker drafts, quicker wording, quicker structure. That can genuinely reduce load, especially on days when we’re holding multiple cases and still trying to document, plan, and communicate clearly. But procedural mode also has a built-in risk: it can bypass the step where we ask, “What claim did this just make, and do I actually have the clinical data to stand behind it?” In therapy, where work is high-stakes and context-sensitive, skipping that step is never a small thing. Collaborative mode looks different. Here, AI is treated more like a thinking partner that helps us refine what we already know. We provide context, constraints, and objectives, and we actively evaluate and revise what comes back. The benefit isn’t only speed, it’s quality. As goals become more complex, the work doesn’t disappear; it shifts upward into framing, supervision, and judgment. That shift is the point, because it mirrors what good therapy already is. The core value isn’t “doing tasks.” The core value is choosing what matters, staying accountable to the formulation, and tracking whether what we are doing is actually helping this client in this moment. With that clarity, the question “where does automation fit?” becomes easier: automation belongs around the session, not inside the relationship. It supports the repetitive work that quietly drains clinicians, so you show up with more focus and presence. In practical terms, this often starts with answering emails: drafting scheduling replies, boundaries, first-contact responses, follow-ups, and coordination messages with parents or schools. AI can give you a clean draft fast, but the clinician still protects tone, confidentiality, and the therapeutic frame before anything is sent. Automation can also support assessment workflows, especially the mechanical parts like cotation and report organization. It can help format tables, structure sections consistently, and draft neutral descriptions, saving time without pretending to “interpret.” Similarly, it can help with filling questions for you: generating intake questions, check-in prompts, or between-session reflection questions tailored to your model and the client’s goals. That doesn’t replace clinical judgment; it simply gives you a clearer scaffold for information-gathering and tracking change. Another high-impact area is session preparation. If you provide a brief, non-identifying summary of the last session, AI can help draft a focused plan: key themes to revisit, hypotheses to test, reminders of what was agreed on, and possible questions or interventions that match your orientation. The point is not to “script therapy,” but to reduce the mental load of reconstructing the thread so you can start the session grounded. More sensitive, but sometimes very helpful, is using automation around session recording and documentation (only with explicit consent and a privacy-safe system). AI can assist with transcripts, highlight themes, and draft a note structure or summary. Still, this must remain supervised: AI can miss nuance, misinterpret meaning, or phrase things too strongly. In clinical documentation, accuracy and accountability matter more than speed, so the clinician always verifies what’s written, especially around risk, safety planning, and any diagnostic or medical claim. Finally, automation can support what many clinicians want but struggle to do consistently: progress comparison over time. Whether you use outcome measures, session ratings, goals, homework follow-through, or narrative markers, AI can help summarize shifts from baseline, spot patterns across sessions, and draft a short “what’s improving / what’s stuck / what to adjust next” reflection. The tool organizes and surfaces patterns; you decide what it means and what the next clinical step is. All of this only works if we pay attention to data and privacy. We avoid entering identifying information unless we are using an approved, privacy-compliant system. We do not treat AI output as truth, especially for diagnosis, risk assessment, medication-related topics, or any medical claim. And we keep the clinician role explicit: AI can generate language, options, and structure, but we provide judgment, ethics, and accountability. This is also why many clinicians are drawn to running a private generative model locally on their laptop, offline, so data does not leave the device. Even then, strong device security and clear consent practices still matter, but the direction is sound: protect client information first, then build workflow support around it. When we use AI with this mindset, the payoff is real. We gain time and mental space for what cannot be automated: attunement, formulation, pacing, rupture-repair, and the relationship. The tool handles parts of the scaffolding and we protect the heart of therapy, which is slow, context-sensitive, and deeply human work.

English

Prism: the kind of writing workspace researchers wish existed when they’re trying to publish

If we’ve ever tried to write a real manuscript after a full day of research work, we already know the problem usually isn’t that we don’t have ideas. We do. The problem is that academic writing demands a specific kind of mental steadiness. We have to hold a thread, keep structure in mind, track definitions precisely, and build a coherent argument while our brains are already full of meetings, supervision, grant deadlines, data cleaning, reviewer comments, and the constant micro-decisions that come with running studies. So when OpenAI announced Prism, it caught our attention for a surprisingly practical reason. It sounds like it’s designed to reduce overwhelm in the writing process, not by writing the paper for us, but by making the environment less fragmenting and more supportive of sustained attention. OpenAI describes Prism as a free, cloud-based, LaTeX-native workspace for scientific writing and collaboration, with an AI assistant integrated into the document workflow. And that phrase, integrated into the workflow, matters. Many of us still write in a patchwork setup. The draft lives in one place, citations in another, PDFs in folders we swear are organized, tables in spreadsheets, figures in separate tools, and formatting rules that feel like a moving target. If we use AI, it often sits off to the side in a separate window, with no real awareness of what the document actually contains. Prism is pitching something different. One workspace where drafting, revising, compiling, and collaborating live together, so we don’t constantly switch contexts and lose momentum. That sounds less like automation and more like good research infrastructure. Something that helps us keep the argument intact while we spend our limited energy on what actually matters: methods, logic, interpretation, and the discipline of not overclaiming. What we also appreciate is that Prism seems aimed at the boring practical problems that quietly wreck productivity. Collaboration, comments, proofreading support, citation help, and literature workflow features are not flashy, but they are exactly the kind of friction that makes us close the laptop and tell ourselves we’ll do it tomorrow because we can feel the administrative drag consuming what’s left of our focus. And if we’ve ever co-authored a paper, we know how much time gets lost to version control, merging edits, and re-checking what the “current draft” even is. A shared cloud workspace can reduce that overhead by keeping writing and collaboration in one place. Here is where the researcher angle comes in. Researchers are trained to track nuance, uncertainty, and the limits of what data can actually support. Many of us can write well when we have space to think. But research rarely gives writing prime attention. Writing happens in stolen hours between analyses, teaching, project management, and funding applications. That changes what “helpful technology” looks like. We don’t just need a tool that generates text. We need a tool that helps us stay oriented so we can turn results into clear contributions publishable, teachable, and useful. Prism might support that kind of work, especially for researchers who publish, teach, supervise trainees, or collaborate across institutions and need their writing process to be less chaotic. If it truly reduces friction, it could help more of us finish what we start—not because the tool has better ideas than we do, but because it helps protect the continuity of our thinking. At the same time, we should say the quiet part out loud. A smoother writing workflow doesn’t automatically mean better science. AI can help us sound coherent and academic, and that can be useful, but it is also where risk shows up because polished writing can hide weak reasoning. So if we use Prism, we should treat it like a very fast assistant. It can reduce friction and help us express what we mean, but it is not the source of truth. We still own the reasoning, the claims, the citations, and the integrity of the work. And of course, Prism is not the only tool that exists. Most of us have already used other AI tools before, along with specific writing and reference managers that keep our workflow moving. What makes Prism feel different, at least from the way it is described, is the promise of one integrated workspace and the fact that it is free. If it delivers even half of that, we honestly cannot wait to explore it more. Where we land is simple. Prism sounds promising because it aims at the real pain points in research writing: context switching, formatting drudgery, collaboration friction, and the cognitive load of keeping a complex document coherent over time. Not magic. Not a replacement for expertise. But possibly the most researcher-friendly kind of productivity tool—the kind that helps us keep the thread.

Shopping Cart