Author name: Dr. Rania Kassir

English

Nano Banana 2 in the Real World: When Faster Images Raise the Bar for Verification in Research, Care, and Communication

Google’s late-February 2026 launch of Nano Banana 2, also described by Google and some coverage as Gemini 3.1 Flash Image, can look like a routine model update, but in clinics and research groups it behaves more like a workflow shift. It lands amid familiar production pressures: recruitment materials constrained by IRB timelines, conference figures that must stay legible at a distance, patient infographics that simplify without distorting, and teaching slides that communicate risk responsibly. Google’s core claim is that it pairs high image quality with Flash-level speed, now accessible via the Gemini app and Google Search experiences such as AI Mode and Lens, with explicit rollout messaging for MENA. When image generation becomes both fast and visually persuasive, the change is not only higher output, it is faster decision cycles. Google highlights features that map directly onto scientific and clinical communication: improved text rendering inside images, stronger subject consistency across elements, aspect-ratio control, and outputs up to 4K. In practice, that can mean fewer “manual design” iterations for medication titration visuals, consent-process diagrams, visual abstracts, and explanatory schematics, especially in teams without dedicated design support. One especially consequential claim is that Nano Banana 2 can draw on real-time information and images from web search to improve accuracy and support diagrams and infographics. The upside is immediate: clearer visuals produced quickly, potentially improving patient comprehension and reducing cognitive load for trainees. The methodological tension is equally real: if “grounding” relies on sources that are not clearly surfaced, archived, and citable, we gain speed while losing traceability. The risk is not only that an image could be wrong, but that we may not be able to reconstruct why it looks convincingly right. That tension sharpens with the “across Gemini, Search, and Ads” framing. The most clearly documented integrations at the moment are Gemini and Search. The Ads direction is plausible in context, Google Ads already supports generative image workflows with explicit guidance that advertisers must review AI-generated assets before publishing, and Google has previously described bringing Gemini models into Performance Max, but reports that Nano Banana 2 will directly power creative suggestions in Ads should be treated as a reported trajectory until Google’s Ads documentation names the model and scope explicitly. For health researchers and clinicians, this matters because the same leap that improves patient education materials can also accelerate persuasive health content optimized for clicks and conversion. As visual polish becomes cheaper, it becomes even less correlated with truth, shifting the burden of appraisal onto audiences who often have the least time and the most at stake. The most practical summary is simple: Nano Banana 2 compresses creation time, but it does not remove responsibility, it relocates it. Responsible teams will spend less time drafting and more time verifying: ensuring diagrams encode the correct causal claim, risk visuals match guideline thresholds, translations preserve meaning, and public-facing graphics do not outrun the evidence. The weak point is institutional: many organizations still lack lightweight governance for “AI-assisted visuals,” even when they have mature controls for medication orders, patient instructions, and research data outputs. Ethically, better tools raise, not lower, the bar on three duties. Transparency matters when provenance affects trust (patient materials, public education, high-impact research communication). Data integrity and auditability matter when web-grounded generation influences content and sources are not recoverable. Privacy discipline remains non-negotiable: identifiable patient details should not become prompt ingredients to produce “better” visuals. Watermarking and content credentials can help, but they are not substitutes for domain review when the content is medical.

English

When an “AI Computer” Enters the Clinic: Multi‑Agent Workflows

Clinical and research work rarely fails because we cannot locate information; it fails because we cannot convert information into usable outputs quickly enough. The friction lives in the in‑between tasks: preparing a background brief for a case conference, turning scattered notes into a coherent protocol amendment, cleaning citations before a resubmission, or drafting a patient-facing handout that is both readable and accurate. What is newly compelling about the idea of an “AI computer” is that it aims at this connective tissue of work, not simply at conversation. Perplexity describes Computer as a unified, cloud-based system that can “research, design, code, deploy, and manage” projects end-to-end, breaking a goal into sub-tasks and routing them across specialized components. In the public description, it can orchestrate work across 19 models in parallel, “matching each task to the best model,” while also remembering prior context and connecting to external services. The ambition is not subtle: it is a bid to turn the browser into an operational workspace where the user specifies intent and the system performs the multi-step work. The attraction is easy to understand in real workflows. We already practice constrained delegation every day: we assign parts of a project to trainees, research assistants, administrators, or colleagues, and we integrate, verify, and sign off. An agentic system promises a similar pattern, but at a different speed and scale. If it performs reliably, it may create time for what remains stubbornly human: therapeutic presence, clinical judgment under uncertainty, nuanced supervision, and careful interpretation of evidence. That tension becomes sharper when orchestration is invisible. If Computer decomposes a task into steps, chooses tools, and merges results, then provenance matters: which sources were used, which model generated which claim, and what was the system’s uncertainty at each step? In research, these details determine whether a literature synthesis is reproducible; in clinical settings, they determine whether a handout, policy memo, or documentation aid stays within the boundaries of evidence-based practice. The more autonomous the workflow, the more we need systems that make their reasoning legible rather than merely impressive. A second tension is provenance. In research, we need to know what sources were used, how claims were derived, and what uncertainty remains, because the credibility of a synthesis depends on traceable reasoning. In clinical environments, provenance is equally important, though less often formalized: we need to know whether an output is grounded in guidelines, high-quality trials, local policy, or merely plausible generalizations. Agentic tools can compress steps so efficiently that they also compress our visibility into where a conclusion came from. Cost pulls these questions from theory into daily decision-making. At roughly $240 per month, this is not an impulsive subscription for most clinicians; it is closer to a staffing tradeoff. Paying that amount implicitly assumes that time saved is both substantial and dependable, and that the time we spend verifying the output does not quietly re-inflate the workload. In clinical settings, the “true cost” includes not only money, but also the cognitive burden of oversight and the reputational risk of errors. From a practice perspective, the safest near-term uses are those that keep identifiable data out of the system and keep verification firmly human. Drafting non-identifying psychoeducation templates, creating training materials for interns, turning internal procedures into clearer language, or generating first-pass outlines for research documents can be sensible, provided we treat outputs as drafts and insist on source checking. The risk profile changes sharply when we move toward identifiable case details or highly specific clinical recommendations, especially in small communities or rare presentations where re-identification can be easier than we like to admit. We also need to acknowledge a quieter limitation that experienced researchers recognize: these tools can accelerate the appearance of scholarship. They can produce coherent framing, persuasive prose, and tidy synthesis even when the evidence base is mixed or contested. The danger, then, is not only “hallucination” in the headline sense; it is routine overconfidence, particularly under deadline pressure, fatigue, or institutional incentives that reward speed over carefulness. Ethically, we should treat agentic systems as a new layer of professional delegation that demands transparency and documentation habits. If AI materially shaped an output that informs care (a clinic policy, a patient handout, a decision support memo), the clinician’s responsibility is not reduced; it is reconfigured. We owe patients and colleagues a disciplined stance on what data entered the system, what sources were relied upon, and how claims were checked. This is consistent with broader AI-risk frameworks emphasizing lifecycle governance: mapping likely failures, setting boundaries, and building habits of verification rather than relying on good intentions. Looking ahead, the question is not whether “AI computers” will become more common; they likely will. The more important question is whether they become legible: systems that make their sources, assumptions, and limitations visible enough for clinical and research cultures that depend on auditability and trust. If we adopt them thoughtfully, starting with low-risk tasks, measuring time saved against time spent verifying, and maintaining strict boundaries around sensitive data, we can treat these tools as assistants rather than authorities, and preserve the integrity of our work while reducing avoidable friction.

English

“Pretty Pipelines, Hidden Risk”: What DeepMind’s Intelligent AI Delegation Means for Therapists

As AI systems enter clinical workflows, terminology needs to become operational rather than rhetorical. An AI agent refers to a model-based software system capable of planning and executing multi-step tasks toward a goal, including selecting actions, using external tools, and revising steps based on outcomes. In other words, it’s more than a chatbot reply: it’s a goal-directed workflow runner. This definition matters because a lot of confusion starts when we treat any fluent system as “agentic.” Google DeepMind just dropped a long, ~42-page warning about why most “AI agencies” will fail in the real world, and when we read Intelligent AI Delegation (published February 12, 2026), it quietly explains the same thing from first principles. The uncomfortable takeaway is simple: a lot of what’s marketed as “agents” today won’t survive contact with reality. Not because they can’t write or plan, but because they can’t delegate in the way real systems require. And therapy is exactly where that gap becomes visible early. Here’s the part that stings: most agents today aren’t really agents in the strong sense people imagine. They’re task runners with good branding, we give them a goal, they break it into steps, call tools, and return an output. That can be powerful automation, and it can absolutely create efficiency in low-stakes work. But it’s not delegation, it’s a prettier pipeline. And in healthcare, “pretty pipelines” are exactly how hidden risk slips into daily practice. So what do we mean when we say “delegation”? Delegation isn’t one thing. It can mean delegating execution (the system carries out steps you already chose), delegating workflow control (it sequences tools, retries, and manages handoffs), or delegating judgment (it decides what should be done and when, based on interpretation of context and risk). Most systems marketed as “agentic” are mostly capable of execution and some workflow control, not delegation where judgment is offloaded and accountability meaningfully shifts. In therapy, the danger is when we unintentionally delegate judgment while assuming we only delegated execution. DeepMind’s brutal point is that real delegation isn’t just splitting tasks. Delegation is transferring authority, responsibility, accountability, and trust, and doing it dynamically as the situation changes. That means we don’t only ask, “Who can do this fastest?” We ask, “Who should be trusted to do this, under these constraints, with these consequences?” Almost no current system behaves that way end-to-end once multiple tools, uncertain data, and real stakes are involved. Before delegation even happens, the framework implies we need to evaluate capability, risk, cost, verifiability, and reversibility. In other words, it’s not “does the agent have access to the calendar tool?” It’s “is this task safe to hand off, can we verify the result, and can we undo harm if it’s wrong?” That is a very clinical way of thinking, and it’s exactly why this paper hits therapists harder than it hits casual tech demos. Our work already assumes risk, not perfection. Therapy is not just information work; it’s relational work under ethics, confidentiality, and duty-of-care. Our clients don’t experience our work as “outputs”, they experience it as trust, safety, timing, attunement, and boundaries. So when an AI system is framed as an “agent,” the real question becomes: what are we delegating, and what are we accidentally outsourcing? If we let a system drift into clinical judgment, we may be delegating more than we think. When AI agency fails in our context, it often fails without obvious nonsense. It fails quietly: a note becomes subtly distorted, a risk signal gets downplayed, a client message becomes overly confident, or a safety-plan phrase becomes too generic to be safe. The output can look coherent and professional, sometimes more professional than we would write at 6 p.m. and that’s precisely what makes it dangerous. Fluency can create false reassurance, and false reassurance is a clinical risk. Current limitations of AI agents (especially in real workflows) Even when agents perform specific tasks well, they often struggle with coordination and interoperability, working reliably across tools, policies, datasets, and other agents. Multi-agent setups can become brittle: one agent’s assumption becomes another agent’s “fact,” tool errors propagate, and responsibility becomes hard to trace. This matters because real clinics aren’t single-tool sandboxes; they’re multi-system environments with partial data and shifting constraints. The limitation isn’t just intelligence, t’s dependable, governable collaboration. Because of limited interoperability, humans are still required to manage coordination between multiple agents. This is the governance problem: accountability diffusion. If one agent delegates to another, which calls a tool, which references incomplete data, who is actually accountable for the final wording sent to a client? We might sign it, the clinic might deploy it, the vendor might supply it, and the model might generate it, yet no one can point to a clear, auditable decision boundary. In therapy, that’s not abstract; it’s how ethical responsibility gets blurred. Still, we shouldn’t throw the tools away, and we should keep the narrative balanced. Agents promise real efficiency: they can reduce admin burden, draft psychoeducation we approve, structure worksheets, translate or simplify content to match literacy needs, and summarize our own prior notes with clear provenance. But practical constraints remain, so boundaries must stay explicit: delegate low-risk, reversible, verifiable tasks, and resist delegating anything that functions like diagnosis, risk assessment, crisis response, or treatment decisions. If we get that boundary right, we take the gains without surrendering what clients come for: trustworthy, human accountability.

English

When an “AI Doctor” Becomes a Real Clinic: A Therapist’s View on Lotus Health AI and the Hidden Benefits for Therapy

In the past two weeks, many clinicians have seen posts about Lotus Health AI, described as an “AI doctor powered by real doctors”, a physician-supervised service that can assess, diagnose, prescribe, and refer, positioned as free, always available, and multilingual. The company also announced a $35M Series A bringing total funding to $41M, co-led by Kleiner Perkins and CRV, and argues it can cut administrative waste by making physicians more productive without insurance billing. From a therapist’s perspective, the key question isn’t whether the marketing is compelling, it’s whether this becomes a reliable front door to primary care that reduces the friction therapy often absorbs: sleep problems mistaken for depression, thyroid/anemia issues that look like burnout, medication side effects that destabilize mood, and medical uncertainty that fuels panic and health anxiety. In day-to-day work, therapy can become the place where fragmented healthcare gets processed, emotionally, and sometimes administratively, because clients can’t access timely care elsewhere. One practical benefit, if Lotus functions as described, is speed as clinical timing, not just convenience.Earlier medical clarification can make therapy interventions more accurate and effective.When a client says, “Something feels off physically,” we validate and explore patterns, yet sometimes the responsible step is: get a medical assessment early.The differential matters: if symptoms are physiological or medication-related, the plan shifts; if they’re anxiety-driven, it shifts differently.In many systems, “soon” becomes weeks, and therapy becomes a holding space for unresolved uncertainty.A 24/7 primary-care-like channel that reviews consolidated history and routes to in-person care could reduce that gap.Lotus explicitly positions itself as going beyond generic chatbot advice by involving board-certified physicians who review guidance and prescribe when appropriate. A second benefit is indirect but meaningful: it may improve the quality and coherence of information clients bring back into therapy. Many clients struggle to describe symptoms clearly due to stress, dissociation, executive dysfunction, trauma, or exhaustion. If a platform helps organize meds, labs, and prior records into a clearer story, it can reduce shame (“I’m not making it up”), sharpen insight (“my panic clusters around sleep disruption”), and help therapists choose more precise interventions (e.g., exposure for health anxiety vs urgent referral for red flags). Third, there are coordination and access benefits even if therapists never touch the platform. When clients can obtain refills, medication reviews, and referrals with fewer obstacles, therapy is less likely to be derailed by preventable destabilizers. Practically, that can mean fewer sessions spent troubleshooting access and more time spent on the core work of therapy, skills, meaning-making, attachment repair, behavior change, and identity-level integration. That said, therapists are trained to notice how tools can become part of a symptom cycle. An always-available “doctor in your pocket” may stabilize some clients, but it can also feed reassurance-seeking for others, especially with health anxiety, OCD-spectrum checking, panic, somatic symptom patterns, or trauma-related body scanning. Even if guidance is solid, repeated checking can still function as avoidance or compulsion. The goal isn’t to demonize the tool, but to integrate it into a treatment plan with clear, time-limited, values-consistent use. There are also boundary questions that show up quickly. If clients rely on app-mediated care, therapists will be asked to interpret it: “Should I trust this?” “What does this diagnosis mean?” “Can you message them for me?” A helpful posture is to treat it like any outside provider: help clients clarify questions, process impact, and decide next steps, while avoiding medicine-by-proxy. It also matters that what any physician-led digital service can do may vary by jurisdiction, licensure, and telemedicine rules, so “available” may not always mean “authorized to treat” in the way clients assume. Ethically, the business model matters because trust is a clinical ingredient. If clients suspect recommendations are influenced by sponsorships or commercial incentives (whether or not that’s true), it can erode trust in healthcare and show up in therapy as cynicism, avoidance, or hopelessness. This makes transparency practical, not philosophical: what is automated vs clinician-reviewed, and how conflicts of interest are managed over time. Privacy and data integrity are equally central. Even with strong security claims, it helps to think concretely: what data is being linked, who can access it, what consent was given, what can be deleted, and what might be retained. Data-rich systems can fail in new ways, through breaches, misuse, or overconfidence in incomplete records, so the most ethical stance is careful integration, explicit consent, and humility. Overall, I’m cautiously interested in what this could become for therapy-adjacent care: faster evaluation, less avoidable suffering, and less informal care coordination falling onto therapists. But the promise depends on whether it earns trust in real-world use, clinically, ethically, and operationally, so clients aren’t left alone with medical uncertainty that insight alone can’t resolve.

French

« Agents brillants, jugements fuyants : ce que DeepMind nous oblige à voir »

À mesure que les systèmes d’IA entrent dans les flux cliniques, le vocabulaire doit devenir opérationnel plutôt que rhétorique. Un agent IA désigne un système logiciel piloté par modèle, capable de planifier et d’exécuter des tâches multi‑étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et réviser ses étapes en fonction des résultats. Autrement dit, c’est plus qu’une réponse de chatbot : c’est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît souvent lorsqu’on qualifie d’« agentique » tout système simplement fluide. Google DeepMind vient de publier un avertissement d’environ 42 pages sur les raisons pour lesquelles la plupart des « agences IA » échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même constat. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « agents » aujourd’hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne savent pas écrire ou planifier, mais parce qu’ils ne savent pas déléguer comme l’exigent les systèmes réels. Et la thérapie est précisément l’endroit où cet écart devient visible très tôt. Voici ce qui pique : la plupart des agents actuels ne sont pas des agents au sens fort qu’on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en étapes, appellent des outils et renvoient un résultat. C’est de l’automatisation puissante, qui peut réellement créer de l’efficacité pour des tâches à faible enjeu. Mais ce n’est pas de la délégation : c’est un pipeline plus élégant. Or, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s’infiltrent dans la pratique quotidienne. Qu’entend‑on par « délégation » ? La délégation n’est pas monolithique. Elle peut signifier déléguer l’exécution (le système réalise des étapes que vous avez déjà choisies), déléguer le contrôle du flux de travail (il séquence les outils, gère les relances et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « agentiques » savent surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit externalisé et que l’imputabilité bascule réellement. En thérapie, le danger survient quand, sans s’en rendre compte, on délègue le jugement tout en croyant n’avoir délégué que l’exécution. Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c’est transférer de l’autorité, de la responsabilité, de l’imputabilité et de la confiance et le faire dynamiquement au fil des situations. Il ne s’agit donc pas seulement de demander : « Qui peut le faire le plus vite ? » mais « À qui peut‑on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd’hui, les systèmes qui se comportent ainsi de bout en bout lorsque s’entremêlent multiplicité d’outils, données incertaines et véritables enjeux. Avant même de déléguer, le cadre proposé implique d’évaluer la capacité, le risque, le coût, la vérifiabilité et la réversibilité. Autrement dit, la question n’est pas « l’agent a‑t‑il accès à l’outil calendrier ? » mais « cette tâche est‑elle sûre à confier, pouvons‑nous en vérifier le résultat et pouvons‑nous annuler le tort si c’est erroné ? » C’est une manière très « clinique » de penser et c’est précisément pourquoi ce papier touche davantage les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection. La thérapie n’est pas qu’un travail informationnel ; c’est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « sorties » : ils l’éprouvent comme de la confiance, de la sécurité, du timing, de l’accordage et des limites. Donc, lorsqu’un système d’IA est présenté comme un « agent », la vraie question devient : que délègue‑t‑on, et qu’externalise‑t‑on sans le vouloir ? Si nous laissons un système dériver vers le jugement clinique, nous déléguerons peut‑être bien plus que prévu. Quand « l’agence » de l’IA échoue dans notre contexte, elle n’échoue pas par un non‑sens criant. Elle échoue en silence : une note se trouve subtilement déformée, un signal de risque est minimisé, un message au patient devient trop assuré, ou une phrase de plan de sécurité devient trop générique pour être sûre. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous écririons à 18 h et c’est précisément ce qui la rend dangereuse. La fluidité crée une fausse réassurance, et la fausse réassurance est un risque clinique. Limites actuelles des agents IA (surtout en flux de travail réels)

French

Quand un « médecin IA » devient une vraie clinique : le regard d’un thérapeute sur Lotus Health AI et les bénéfices cachés pour la thérapie

Au cours des deux dernières semaines, de nombreux cliniciens ont vu circuler des posts au sujet de Lotus Health AI, présenté comme un « médecin IA propulsé par de vrais médecins » : un service supervisé par des médecins, capable d’évaluer, de diagnostiquer, de prescrire et d’orienter, positionné comme gratuit, disponible en permanence et multilingue. L’entreprise a également annoncé une levée de fonds de série A de 35 M$, portant le financement total à 41 M$, co‑menée par Kleiner Perkins et CRV, et soutient qu’elle peut réduire le gaspillage administratif en rendant les médecins plus productifs, sans facturation à l’assurance. Du point de vue d’un thérapeute, la question centrale n’est pas de savoir si le marketing est convaincant, mais si cela devient une porte d’entrée fiable vers les soins de première intention, réduisant les frictions que la thérapie absorbe souvent : troubles du sommeil pris à tort pour une dépression, problèmes thyroïdiens/anémiques ressemblant à un burn‑out, effets secondaires médicamenteux déstabilisant l’humeur, et incertitude médicale alimentant panique et anxiété de santé. Dans le travail quotidien, la thérapie peut devenir le lieu où un système de santé fragmenté est « traité », émotionnellement, et parfois même sur le plan administrative, parce que les patients n’ont pas accès à des soins en temps utile ailleurs. Un bénéfice pratique, si Lotus fonctionne comme décrit, tient à la vitesse en tant que paramètre clinique, et pas seulement à la commodité. Une clarification médicale plus précoce peut rendre les interventions thérapeutiques plus précises et plus efficaces. Quand un patient dit : « Quelque chose ne va pas physiquement », nous validons et explorons les schémas ; pourtant, la démarche responsable consiste parfois à obtenir une évaluation médicale rapidement. La différentielle compte : si les symptômes sont physiologiques ou liés aux médicaments, le plan change ; s’ils sont portés par l’anxiété, il change différemment. Dans de nombreux systèmes, « bientôt » se transforme en plusieurs semaines, et la thérapie devient un espace d’attente pour une incertitude non résolue. Un canal de type soins primaires, disponible 24 h/24 et 7 j/7, qui passe en revue l’historique consolidé et oriente vers des soins en présentiel, pourrait réduire cet écart. Lotus se positionne explicitement au‑delà des conseils génériques d’un chatbot en impliquant des médecins certifiés qui relisent les recommandations et prescrivent lorsque c’est approprié. Un second bénéfice est indirect mais significatif : il pourrait améliorer la qualité et la cohérence des informations que les patients rapportent en thérapie. Beaucoup peinent à décrire clairement leurs symptômes en raison du stress, de la dissociation, d’un dysfonctionnement exécutif, d’un traumatisme ou de l’épuisement. Si une plateforme aide à organiser traitements, bilans et dossiers antérieurs en un récit plus clair, elle peut réduire la honte (« Je n’invente pas »), affiner la compréhension (« mes attaques de panique se regroupent autour des perturbations du sommeil ») et aider les thérapeutes à choisir des interventions plus précises (p. ex., exposition pour l’anxiété de santé versus orientation urgente face à des signaux d’alarme). Troisièmement, il existe des bénéfices de coordination et d’accès, même si les thérapeutes n’utilisent jamais la plateforme. Lorsque les patients peuvent obtenir renouvellements d’ordonnances, revues médicamenteuses et orientations avec moins d’obstacles, la thérapie est moins susceptible d’être déstabilisée par des facteurs évitables. Concrètement, cela peut signifier moins de séances consacrées au dépannage de l’accès et davantage de temps pour le cœur du travail thérapeutique : compétences, élaboration de sens, réparation de l’attachement, changement de comportements et intégration au niveau identitaire. Cela dit, les thérapeutes sont formés à repérer comment les outils peuvent s’intégrer à un cycle symptomatique. Un « médecin dans la poche » disponible en continu peut stabiliser certains patients, mais aussi alimenter la quête de réassurance chez d’autres, en particulier dans l’anxiété de santé, les vérifications de type spectre TOC, les attaques de panique, les tableaux de symptômes somatiques ou le balayage corporel lié au trauma. Même si les recommandations sont solides, les vérifications répétées peuvent malgré tout fonctionner comme évitement ou compulsion. L’objectif n’est pas de diaboliser l’outil, mais de l’intégrer à un plan de traitement avec un usage clair, limité dans le temps et cohérent avec les valeurs. Des questions de limites apparaissent également très vite. Si les patients s’appuient sur des soins médiés par application, les thérapeutes seront sollicités pour les interpréter : « Puis‑je m’y fier ? » « Que signifie ce diagnostic ? » « Pouvez‑vous leur écrire pour moi ? » Une posture aidante consiste à le traiter comme tout prestataire externe : aider les patients à clarifier leurs questions, à traiter l’impact et à décider des prochaines étapes, tout en évitant de faire de la médecine par procuration. Il importe aussi de rappeler que la portée de tout service numérique piloté par des médecins peut varier selon la juridiction, les licences et les règles de télémédecine ; ainsi, « disponible » ne signifie pas toujours « autorisé à traiter » comme les patients l’imaginent. Sur le plan éthique, le modèle économique compte, car la confiance est un ingrédient clinique. Si les patients soupçonnent que des parrainages ou des incitations commerciales influencent les recommandations (que ce soit vrai ou non), cela peut éroder la confiance dans le système de santé et se manifester en thérapie par du cynisme, de l’évitement ou du désespoir. Cela rend la transparence pratique plutôt que philosophique : qu’est‑ce qui est automatisé versus relu par un clinicien, et comment les conflits d’intérêts sont‑ils gérés dans le temps ? La confidentialité et l’intégrité des données sont tout aussi centrales. Même avec des garanties de sécurité solides, il est utile de raisonner concrètement : quelles données sont mises en lien, qui peut y accéder, quel consentement a été donné, que peut‑on supprimer et que pourrait‑on conserver. Les systèmes riches en données peuvent échouer de manières Nouvelles, par des violations, des usages abusifs ou un excès de confiance dans des dossiers incomplets; la posture la plus éthique reste donc une intégration prudente, un consentement explicite et de l’humilité. Globalement, je m’intéresse avec prudence

English

When Algorithms Enter the Clinic: Why AI Giants Are Turning Toward Healthcare

AI in healthcare is no longer a concept. It’s a reality in motion and we’re now watching it mature in a more serious, more structured way. For a long time, healthcare was treated like a “possible use case” for general AI. But in practice, it has already been one of the most common real-world arenas where people test what these systems can do. Patients ask questions after clinic hours because anxiety doesn’t follow office schedules. Caregivers try to interpret lab results while waiting for a follow-up appointment. People navigating chronic conditions search for plain-language explanations of complex treatment plans. Clinicians, meanwhile, are under relentless documentation pressure and are constantly looking for tools that reduce cognitive load without sacrificing safety. The demand wasn’t hypothetical, it was already here. What’s changing now is that major AI companies are building healthcare-specific products that admit, plainly, that medicine is not “one size fits all.” Two launches make the shift easy to see: Claude for Healthcare and ChatGPT Health. They’re often discussed in the same breath, but clinically and ethically, we shouldn’t treat them as interchangeable. They point to two different problems and two different audiences, and that distinction matters because it shapes how risk shows up. ChatGPT Health is best understood as a patient-oriented space: a place where individuals can connect personal health or wellness information and receive explanations, summaries, and context in language that feels human. The promise is clarity. Healthcare is full of jargon, fragmented portals, and rushed appointments; a tool that helps someone understand their own information could reduce confusion and improve follow-through. When used appropriately, it can support better conversations with clinicians because patients arrive with sharper questions and less overwhelm. But that same strength is also its most predictable risk. When a system explains something smoothly, people can mistake fluency for clinical authority. We’ve all seen it: a confident tone can feel like certainty, even when the underlying situation is ambiguous. In healthcare, that gap is not academic, it can shape real decisions. So the safety challenge for a patient-facing tool isn’t just accuracy in a narrow sense. It’s expectation-setting, clear boundaries, and guardrails that prevent “informational support” from being interpreted as diagnosis or medical instruction. Claude for Healthcare, on the other hand, is more naturally framed as an enterprise and workflow tool. The emphasis is less “ask me anything” and more “connect me to the work.” Healthcare organizations don’t just need answers; they need operational support: interpreting and summarizing complex information at scale, reducing administrative friction, supporting research and internal processes, and fitting into existing systems without turning every task into another tab and another login. If we’re honest about what burns clinicians out, a large portion of it lives here, in documentation, administrative tasks, and the endless effort of finding and re-finding information across messy workflows. That’s why workflow-oriented tools feel so attractive: they target the pressure points that are actually breaking the system. But again, the risk is different. When AI becomes part of a workflow, it can scale both efficiency and error. If an output is wrong and nobody catches it, the mistake doesn’t just affect one conversation it can become embedded in documentation, passed forward, copied, and normalized. The more “plugged in” the tool is, the more essential it becomes to design for oversight rather than speed alone. This is where the compliance conversation becomes more than a checkbox. Once these systems touch sensitive health information, the question isn’t simply “is it HIPAA -compliant?” or “is it GDPR-compliant?” The deeper question is: how will data governance work in real life, with real people, under real time pressure? HIPAA (Health Insurance Portability and Accountability Act) and GDPR (General Data Protection Regulation) are different frameworks, but both push toward the same discipline: clear rules about what data is collected, why it’s collected, who can access it, how long it’s kept, and what happens when something goes wrong. And here’s the point we can’t afford to gloss over: compliance is not something a company can fully “grant” to a user through a product announcement. Even if a system is designed to be HIPAA-ready or offers strong security features, organizations still need to deploy it responsibly. That means access controls, role-based permissions, audit trails, staff training, retention policies, incident response planning, and crystal-clear boundaries around what data should and should not be entered into the system. For patient-facing AI like ChatGPT Health, privacy and consent have to be especially legible, because patients don’t always realize what they’re sharing when they upload documents, connect accounts, or paste text from portals. The tool needs to prevent accidental oversharing and make it obvious when a question crosses into “you need a clinician” territory. For workflow-oriented AI like Claude for Healthcare, the burden shifts toward institutional controls: connector permissions, least-privilege access, monitoring, and accountability structures that keep “helpful automation” from becoming invisible decision-making. What’s genuinely promising in all of this is the direction of travel. We’re moving away from the idea that one generic assistant can safely serve every healthcare scenario. We’re seeing specialization: tools designed for patient understanding, and tools designed for clinical and organizational workflows. That specialization makes it easier to define what the system is for, how it should be evaluated, and where the boundaries must be enforced. Our take is simple: we’re watching healthcare AI diversify, and that’s a sign the sector is being taken seriously. But seriousness comes with obligations. These tools should assist, not diagnose. They should reduce burden, not quietly introduce new error channels. And they should handle sensitive data with governance that is operational, not rhetorical. If we build with those principles, AI can improve clarity and relieve real pressure in healthcare. If we don’t, it will scale confident-sounding uncertainty into the one domain where people can least afford it.

English

From Manuscript to Model: Rethinking Academic Illustration in the Age of AI

As researchers, we spend a surprising amount of time doing work that is not, strictly speaking, research. We design studies, refine hypotheses, collect and analyze data, and engage deeply with theory and then we open PowerPoint or Illustrator and begin the meticulous process of turning our methods and findings into figures. We adjust arrows, realign boxes, standardize fonts, correct axis labels, and export multiple versions to meet submission guidelines. The science may be rigorous, but the path from text to publication-ready visuals often feels inefficient and cognitively draining. Lately, we’ve been looking at PaperBanana, a text-to-figure AI tool that’s clearly targeting researchers who want to speed up figure creation without sacrificing academic clarity. The core promise is simple: turn method descriptions into structured methodology diagrams, and turn data into charts in a way that’s meant to stay faithful to what we actually did (not just “look plausible”). The detail that makes it feel more “research-first” than generic image generators is the idea of a closed-loop workflow: instead of one-shot output, the tool aims to draft, check, and refine—so the figure is more likely to match the logic of the method. The “plus” here isn’t that we get a pretty figure in seconds. The real added value is that we get cheap iteration. When iteration is cheap, we stop freezing figures too early. We can generate multiple drafts, compare them, and treat figure-building like writing: draft → critique → revise. That’s where quality usually improves, not because the AI is perfect, but because our feedback loop gets faster and less exhausting. At the same time, it’s worth being honest: Illustrae plays a different game. It’s typically the better fit when the job is not just “create one diagram,” but assemble a full visual story, multi-panel figures, posters, teaching material, and lots of manual layout decisions. Illustrae tends to offer more features and flexibility, with more ready-to-use options to manage variables, layouts, iterations, and visual adjustments. The tradeoff many people feel is cost: it’s often described as significantly more expensive (and/or less predictable) than a straightforward researcher subscription, which can be a barrier for individuals or small labs. PaperBanana, in contrast, feels more minimalist and research-focused. For method diagrams and conceptual figures, especially at the drafting stage, it can be comparable in performance, while being more affordable, which matters a lot for labs, PhD students, and early-career researchers. It’s also commonly framed as being built on NanoBanana Pro, positioned as stronger for structured scientific visuals than general image models like DALL·E 3 (at least for diagram-like outputs where structure and labels matter more than “art style”). Here’s the comparison in a clean table (pricing stars are about budget-friendliness + predictability, not “how expensive the company is in absolute terms”): Tool Best for Pricing style (practically) Public price (USD, as listed) Price predictability (1–5) Value for researchers (1–5) Flexibility / control (1–5) Strengths (advantages) Tradeoffs (be honest) Illustrae Posters, multi-panel figures, teaching material, complex layouts Subscription + credits paid pricing not publicly posted (custom quote) (illustrae.co) 2 4 5 More features; more layout control; strong for assembling and polishing big visuals Can be significantly more expensive / less predictable; cost can block individuals/small labs; still needs expert review to avoid conceptual drift PaperBanana Methods diagrams, conceptual figures, fast drafting of research visuals Subscription + credits From $4.90/mo (annual billing) for 100 credits; $6.90/mo for 400; $19.90/mo for 1,500 (paperbanana.studio) (Alt. “credit plans” page also lists $14.90/mo, $59.90/mo, $119.90/mo tiers.) (paperbanana.org) 4 5 3 Minimalist and research-focused; fast drafting; good for method diagrams; affordable enough to be realistic for students/labs No meaningful free tier for deep exploration (subscription needed); final figures still need human refinement; confidentiality policies may not fully guarantee exclusion of unpublished work from training Now the limits, because this is where “AI for academia” either becomes useful or becomes risky. First, human review remains essential. These tools accelerate drafting, but final figures still need expert refinement: labels, implied causality, statistical meaning, and whether the diagram accidentally over-claims what the method can do. Second, subscription friction is real. If there’s no meaningful free tier, adoption becomes a budgeting decision, not a quick experiment, especially for students. Third, confidentiality is still a question. Unless a tool makes an explicit, strong guarantee that unpublished papers/figures are excluded from model training (and clarifies retention), we should be cautious with sensitive or pre-publication material. And yes, we can always rely on classic AI tools like Notebook or NotebookLM for summarizing, outlining, or restructuring ideas. They’re great at text workflows, but they’re not built specifically for researchers’ visual needs, and they’re typically less precise for scientific diagram conventions, which increases the risk of subtle visual or conceptual inaccuracies compared with tools designed for academic figures. So when we ask “what’s the plus?”, it’s this: we’re buying back attention. Not just time, attention. If figure drafting becomes fast enough that we can iterate without dread, we can redirect our effort to what actually moves research forward: clearer hypotheses, sharper methods, better interpretation, and figures that communicate rather than decorate. Choosing the right tool isn’t about hype, it’s about fitness for scientific purpose.

French

Du manuscrit au modèle : repenser l’illustration académique à l’ère de l’IA

En tant que chercheurs, nous passons un temps surprenant à faire des choses qui ne sont pas, à proprement parler, de la recherche. Nous concevons des études, affinons des hypothèses, collectons et analysons des données, nous engageons dans la théorie… puis nous ouvrons PowerPoint ou Illustrator et entamons le patient travail de transformer méthodes et résultats en figures. Nous ajustons des flèches, réalignons des blocs, standardisons des polices, corrigeons des axes, et exportons plusieurs versions pour respecter les consignes de soumission. La science peut être rigoureuse, mais le passage du texte à des visuels prêts pour la publication est souvent inefficace et cognitivement épuisant. Dernièrement, nous nous sommes penchés sur PaperBanana, un outil d’IA « texte‑vers‑figure » qui vise clairement les chercheurs souhaitant accélérer la création de figures sans sacrifier la clarté académique. La promesse centrale est simple : transformer des descriptions de méthode en schémas méthodologiques structurés, et transformer des données en graphiques d’une manière fidèle à ce que nous avons réellement fait (et pas seulement « plausible » à l’œil). Le détail qui lui donne un côté plus « research‑first » que des générateurs d’images génériques, c’est l’idée d’une boucle fermée de travail : au lieu d’un rendu en un seul jet, l’outil cherche à ébaucher, vérifier et affiner, de sorte que la figure corresponde mieux à la logique de la méthode. Le « plus » ici, ce n’est pas d’obtenir une jolie figure en quelques secondes. La vraie valeur ajoutée, c’est l’itération à faible coût. Quand l’itération ne coûte pas cher, on arrête de « figer » trop tôt les figures. On peut générer plusieurs versions, les comparer et traiter la construction d’une figure comme l’écriture : brouillon → critique → révision. C’est là que la qualité s’améliore en general, non parce que l’IA est parfaite, mais parce que notre boucle de retour s’accélère et s’épuise moins. En parallèle, soyons honnêtes : Illustrae joue un autre jeu. C’est souvent le meilleur choix quand la tâche n’est pas seulement « créer un schéma », mais assembler un récit visuel complet : figures multipanneaux, posters, supports pédagogiques, et beaucoup de décisions de mise en page manuelles. Illustrae offre en général davantage de fonctionnalités et de flexibilité, avec plus d’options prêtes à l’emploi pour gérer variables, dispositions, itérations et ajustements visuels. Le compromis que beaucoup ressentent, c’est le coût : on le décrit souvent comme nettement plus cher (et/ou moins prévisible) qu’un abonnement simple pour chercheurs, ce qui peut constituer un frein pour les individus ou les petits laboratoires. À l’inverse, PaperBanana paraît plus minimaliste et centré sur la recherche. Pour les schémas de méthodes et les figures conceptuelles, surtout au stade de l’ébauche, il peut offrir des performances comparables, tout en restant plus abordable, ce qui compte énormément pour les laboratoires, les doctorants et les jeunes chercheurs. Il est aussi souvent présenté comme bâtissant sur NanoBanana Pro, réputé plus adapté aux visuels scientifiques structurés que des modèles d’images généralistes comme DALL·E 3 (du moins pour des sorties de type schéma, où la structure et les libellés priment sur le « style artistique »). Comparatif synthétique Copy table Outil Idéal pour Modèle tarifaire (en pratique) Prix public (USD, tel qu’indiqué) Prévisibilité du coût (1–5) Valeur pour chercheurs (1–5) Flexibilité / contrôle (1–5) Atouts Compromis Illustrae Posters, figures multipanneaux, pédagogie, mises en page complexes Abonnement + crédits Tarifs payants non publiés (devis) (illustrae.co) 2 4 5 Plus de fonctionnalités ; meilleur contrôle de la mise en page ; solide pour assembler et peaufiner de grands visuels Peut être nettement plus cher / moins prévisible ; le coût peut bloquer individus/petits labos ; nécessite tout de même une relecture experte pour éviter les dérives conceptuelles PaperBanana Schémas de méthodes, figures conceptuelles, ébauches rapides de visuels de recherche Abonnement + crédits À partir de 4,90 $/mois (facturation annuelle) pour 100 crédits ; 6,90 $/mois pour 400 ; 19,90 $/mois pour 1 500 (paperbanana.studio). Autre page « plans de crédits » listant 14,90 $/mois, 59,90 $/mois, 119,90 $/mois (paperbanana.org). 4 5 3 Minimaliste et orienté recherche ; ébauche rapide ; bon pour schémas de méthodes ; suffisamment abordable pour étudiants/labos Pas de véritable offre gratuite pour une exploration poussée (abonnement requis) ; les figures finales exigent une retouche humaine ; les politiques de confidentialité peuvent ne pas garantir explicitement l’exclusion des travaux non publiés de l’entraînement des modèles Les limites, là où « l’IA pour l’académique » devient utile… ou risquée: La relecture humaine reste essentielle, car si ces outils accélèrent l’ébauche, les figures finales exigent une expertise, précision des libellés, causalités implicites, sens statistique, et vérification que le schéma n’exagère pas ce que la méthode peut réellement soutenir. À cela s’ajoute une friction d’abonnement bien réelle: sans véritable palier gratuit, l’adoption devient un choix budgétaire plus qu’une simple expérimentation, surtout pour les étudiants. Enfin, la confidentialité demeure une zone d’ombre: à moins qu’un outil ne garantisse explicitement et fermement l’exclusion des articles ou figures non publiés de l’entraînement (et n’éclaircisse ses politiques de rétention), la prudence s’impose pour tout contenu sensible ou en prépublication. Et oui, on peut toujours s’appuyer sur des outils d’IA « classiques » comme Notebook ou NotebookLM pour résumer, structurer ou remanier des idées. Ils excellent pour les flux de travail textuels, mais ne sont pas conçus spécifiquement pour les besoins visuels des chercheurs ; ils sont en général moins précis sur les conventions des schémas scientifiques, ce qui augmente le risque d’inexactitudes visuelles ou conceptuelles subtiles par rapport à des outils dédiés aux figures académiques. Alors, le véritable « plus », c’est quoi ? Nous rachetons de l’attention. Pas seulement du temps : de l’attention. Si l’ébauche de figures devient assez rapide pour que l’on itère sans appréhension, nous pouvons réinvestir nos efforts là où la recherche progresse vraiment : des hypothèses plus claires, des méthodes plus nettes, une meilleure interprétation et des figures qui communiquent plutôt que de décorer. Le bon choix d’outil n’a rien à voir avec la mode : il tient à son adéquation

French

Quand les algorithmes entrent en clinique : pourquoi les géants de l’IA se tournent vers la santé

L’IA en santé n’est plus une idée abstraite. C’est une réalité en mouvement, que l’on voit désormais gagner en maturité, avec plus de sérieux et de structure. Pendant longtemps, la santé a été traitée comme un « cas d’usage possible » pour une IA généraliste. En pratique, elle a déjà été l’un des terrains les plus courants où l’on teste ces systèmes dans le monde réel. Les patients posent des questions après les heures de consultation, parce que l’anxiété n’obéit pas aux horaires de bureau. Les aidants tentent d’interpréter des résultats de laboratoire en attendant un rendez-vous de suivi. Les personnes vivant avec des maladies chroniques cherchent des explications en langage clair à des plans de traitement complexes. De leur côté, les cliniciens subissent une pression documentaire incessante et recherchent constamment des outils qui allègent la charge cognitive sans sacrifier la sécurité. La demande n’était pas hypothétique, elle était déjà là. Ce qui change aujourd’hui, c’est que les grandes entreprises de l’IA conçoivent des produits spécifiquement dédiés à la santé, en reconnaissant sans détour que la médecine n’est pas un domaine « taille unique ». Deux lancements rendent ce virage particulièrement visible : Claude for Healthcare et ChatGPT Health. On les évoque souvent ensemble, mais cliniquement et éthiquement, il ne faut pas les traiter comme interchangeables. Ils répondent à deux problèmes différents et à deux publics distincts, et cette distinction importe, car elle détermine la façon dont le risque se manifeste. ChatGPT Health se comprend avant tout comme un espace orienté vers le patient : un lieu où chacun peut connecter ses informations personnelles de santé ou de bien‑être et recevoir des explications, des résumés et du contexte dans un langage humain. Sa promesse, c’est la clarté. Le système de santé est saturé de jargon, de portails fragmentés et de consultations pressées ; un outil qui aide une personne à comprendre ses propres informations peut réduire la confusion et améliorer l’adhésion. Utilisé à bon escient, il peut soutenir de meilleures conversations avec les cliniciens, car les patients arrivent avec des questions plus précises et moins de débordement émotionnel. Mais cette force est aussi son risque le plus prévisible. Lorsqu’un système explique les choses avec aisance, on peut confondre fluidité et autorité clinique. Nous l’avons tous constaté : un ton assuré peut donner l’illusion de la certitude, même lorsque la situation sous-jacente demeure ambiguë. En santé, cet écart n’a rien de théorique, il influence des décisions bien réelles. Le défi de sécurité pour un outil tourné vers le patient ne se réduit donc pas à l’exactitude au sens étroit. Il s’agit de cadrer les attentes, de poser des frontières claires et d’ériger des garde‑fous pour empêcher que le « soutien informationnel » ne soit interprété comme un diagnostic ou une consigne médicale. Claude for Healthcare, à l’inverse, s’inscrit plus naturellement comme un outil d’entreprise et de flux de travail. L’enjeu n’est pas tant « demandez‑moi n’importe quoi » que « connectez‑moi au travail ». Les organisations de santé n’ont pas seulement besoin de réponses ; elles ont besoin d’appui opérationnel : interpréter et résumer des informations complexes à grande échelle, réduire les frictions administratives, soutenir la recherche et les processus internes, et s’intégrer aux systèmes existants sans transformer chaque tâche en un onglet et un identifiant supplémentaires. Si l’on est honnête sur ce qui épuise les cliniciens, une large part se situe ici, dans la documentation, les tâches administratives et l’effort sans fin pour retrouver encore et encore l’information au sein de workflows brouillons. C’est pourquoi les outils orientés workflow paraissent si attrayants : ils ciblent les points de pression qui fissurent réellement le système. Mais là encore, le risque est différent. Quand l’IA s’intègre au flux de travail, elle peut amplifier à la fois l’efficacité et l’erreur. Si une sortie est erronée et que personne ne la repère, la faute ne touche pas qu’une conversation : elle s’inscrit dans la documentation, se propage, se recopie et se normalise. Plus l’outil est « branché » au système, plus il devient essentiel de le concevoir pour la supervision et pas seulement pour la vitesse. C’est ici que la conformité dépasse le simple « à cocher ». Dès que ces systèmes manipulent des données de santé sensibles, la question n’est pas seulement « est‑il conforme à la HIPAA ? » ou « est‑il conforme au RGPD ? ». La vraie question est : comment la gouvernance des données fonctionnera‑t‑elle dans la vraie vie, avec de vraies personnes, sous une vraie pression temporelle ? La HIPAA (Health Insurance Portability and Accountability Act) et le RGPD (Règlement général sur la protection des données) sont des cadres différents, mais ils poussent tous deux vers la même discipline : des règles claires sur les données collectées, la raison de leur collecte, qui peut y accéder, combien de temps elles sont conservées et ce qu’il se passe en cas de problème. Et voici un point à ne pas édulcorer : la conformité n’est pas quelque chose qu’une entreprise peut entièrement « octroyer » à un utilisateur par une annonce produit. Même si un système est conçu pour être compatible HIPAA ou propose des fonctions de sécurité robustes, les organisations doivent encore le déployer de manière responsable. Cela implique des contrôles d’accès, des permissions fondées sur les rôles, des pistes d’audit, la formation du personnel, des politiques de rétention, une planification de réponse aux incidents, et des frontières limpides sur les données qui doivent, ou ne doivent pas, être saisies dans le système. Pour une IA tournée vers le patient comme ChatGPT Health, la confidentialité et le consentement doivent être particulièrement lisibles, car les patients ne mesurent pas toujours ce qu’ils partagent lorsqu’ils téléversent des documents, connectent des comptes ou collent des textes issus de portails. L’outil doit prévenir la sur‑divulgation accidentelle et rendre évident le moment où une question franchit la limite du « vous avez besoin d’un clinicien ». Pour une IA orientée workflow comme Claude for Healthcare, la charge se déplace vers les contrôles institutionnels

Shopping Cart