Author name: Dr. Rania Kassir

French

ChatGPT 5.3 (« Instant ») vs 5.4 (« Thinking ») pour les thérapeutes : ce qui aide, ce qui nuit, et ce qui doit passer en premier

En recherche comme en thérapie, la partie la plus difficile de la semaine n’est souvent ni le « moment clinique » ni « l’idée de recherche » en soi. C’est l’accumulation du travail intermédiaire : transformer des notes brutes en formulations cohérentes, traduire des concepts techniques dans un langage avec lequel un patient peut réellement vivre, et documenter les soins de manière à la fois fidèle et lisible. Face à cette réalité, la manière la plus utile d’aborder ChatGPT 5.3 et 5.4 n’est pas sous l’angle de la nouveauté, mais sous celui du flux de travail. Que peuvent raisonnablement alléger ces outils, et quels nouveaux risques introduisent‑ils ? Avant de comparer la vitesse ou « l’intelligence », posez la question de conformité dont les lecteurs ont réellement besoin : cet outil est‑il approuvé HIPAA pour des PHI (informations de santé protégées), ou non ? La HIPAA ne « certifie » pas officiellement des logiciels comme « approuvés » ; en pratique, le socle est de savoir si vous pouvez obtenir un Accord d’association d’affaires (BAA: Business Associate Agreement) et faire appliquer les bons contrôles de conservation/accès. OpenAI indique que l’utilisation de son API (interface de programmation d’applications) avec des PHI requiert un BAA, et qu’un BAA pour ChatGPT est actuellement disponible uniquement pour les clients Enterprise ou Edu gérés par l’équipe commerciale (« sales managed »), et non pour ChatGPT Business. Donc si vous ne pouvez pas défendre, contractuellement et opérationnellement, la manière dont les données patients sont traitées, vous ne devriez pas considérer le système comme une extension de votre environnement clinique, que vous soyez aux États‑Unis sous HIPAA ou ailleurs sous l’éthique professionnelle et les attentes locales en matière de confidentialité. Une fois les garde‑fous clarifiés, la distinction 5.3/5.4 devient réellement utile. ChatGPT 5.3 (« Instant ») se lit comme un modèle réglé pour le flux quotidien : rapide, fluide, et souvent excellent pour transformer des idées brouillonnes en langage net. Dans un flux clinique, cela compte parce que cela cible les petites tâches qui deviennent écrasantes à grande échelle : rédiger de la psychoéducation, réécrire des consignes d’admission, simplifier l’explication des compétences d’adaptation, ou rendre le langage destiné aux patients moins technique. Il peut aussi produire rapidement plusieurs variantes afin que vous choisissiez la tonalité adaptée à l’âge, à la culture et à la disponibilité du client. La valeur clinique est réelle, mais l’abus peut être insidieux. Lorsqu’un modèle produit rapidement une prose assurée, il peut brouiller la frontière entre traduction (modifier le style en préservant le sens) et invention (combler discrètement des vides avec du contenu plausible). Cette frontière est cruciale, car les documents cliniques ne sont pas de la simple « écriture » : ce sont des dossiers qui façonnent la continuité des soins, la facturation, la supervision, et la manière dont les patients sont compris par d’autres systèmes. Si vous utilisez 5.3 pour des notes ou des synthèses, la posture la plus sûre est : il rédige la langue ; vous possédez les faits. ChatGPT 5.4 (« Thinking ») a tendance à être le plus utile lorsque la tâche a une structure interne, c’est‑à‑dire quand vous avez besoin que l’outil garde la trace des dépendances d’une étape à l’autre plutôt que de simplement réécrire un paragraphe. En recherche, cela peut signifier resserrer une section « Méthodes » sans en changer le sens, rédiger un canevas de plan d’analyse transparent, ou transformer des notes de réunion éparses en un plan de protocole que vous pourrez critiquer. En clinique, il peut vous aider à générer des hypothèses alternatives, à cartographier des facteurs de maintien, ou à créer des invites d’arbres décisionnels pour votre propre réflexion. L’intérêt n’est pas « il connaît la thérapie », mais qu’il peut vous aider à organiser la complexité lorsque vous êtes fatigué. Cette même cohérence introduit toutefois un type de risque spécifique : un récit « qui paraît remarquablement cohérent», psychologiquement convaincant, même s’il n’est pas redevable à la relation réelle, à la culture du patient, ou à vos données observées. Le 5.4 peut produire des formulations qui paraissent remarquablement intégrées, tout en restant subtilement erronées, excessivement confiantes ou prématurément interprétatives. En thérapie, cela peut se manifester par une fausse précision : des labels posés trop tôt, des récits causaux trop lisses, ou des synthèses qui écrasent involontairement les propres significations du patient. Plus la sortie est élégante, plus le clinicien doit être vigilant. La tarification compte, parce qu’elle détermine discrètement qui utilise quoi, à quelle fréquence et avec quelles garanties, ce qui, à son tour, façonne le risque clinique. Les paliers grand public d’OpenAI sont couramment présentés comme Go (~ 8$ /mois aux États‑Unis), Plus (20 $/mois) et Pro (200 $/mois), tandis que ChatGPT Business est affiché à 25$ par utilisateur/mois facturé annuellement (et la page de tarification propose « Essayer gratuitement »). Les prix peuvent également dépendre des régions, de sorte que ce que vous voyez au Liban peut différer des tarifs américains. La vraie question clinique n’est donc pas « Quel est le moins cher ? », mais : Quel plan s’aligne sur nos exigences de confidentialité et de gouvernance ? Des paliers personnels à moindre coût peuvent pousser des cliniciens vers un usage « compte personnel rapide » (souvent avec des contrôles administratifs plus faibles), tandis que les paliers Business/Enterprise sont conçus pour des contrôles organisationnels, tout en comportant encore des contraintes pratiques (par ex., l’« illimité » est généralement soumis à des garde‑fous contre les abus, et certains paliers comportent des réserves produit/fonctionnalités ; Go peut inclure de la publicité). Une manière réaliste d’utiliser correctement ces outils est de répartir les tâches selon le niveau de risque. Les usages à faible enjeu et à forte valeur comprennent la préparation de supports destinés aux patients (sans identifiants), la réécriture de contenus de psychoéducation, la génération de plusieurs formulations pour un message que vous allez relire, ou la création de gabarits de structuration de séance. Les zones à risque élevé diagnostic, évaluation du risque, décisions de obligation d’alerte (« duty to warn ») et

English

Quand « ça semble privé » n’est pas la même chose que « c’est privé » : adolescents, chatbots et le nouvel écart de confidentialité

Dans notre travail clinique et de recherche auprès des adolescents, la vie privée n’est pas une question annexe ; c’est un espace de développement où l’autonomie, l’identité et les limites sont testées en temps réel. L’American Psychological Association (APA) a souligné que le désir d’intimité est normal et sain à l’adolescence, en particulier lorsque les jeunes explorent leur identité, leurs relations et de nouvelles émotions. Lorsque la confidentialité est considérée comme intrinsèquement suspecte, nous avons souvent pour effet d’accroître le secret plutôt que de renforcer le jugement. Dans le même temps, nous observons un déplacement des lieux où s’exerce cette intimité. Beaucoup d’adolescents traitent désormais leurs questions et leurs émotions dans des conversations avec des chatbots d’IA. Comme le note le Dr Joshua Goodman, « Les conversations avec des chatbots d’IA peuvent donner aux adolescents l’impression d’un espace sûr » pour aborder des sujets qu’ils n’oseraient pas apporter à leurs parents ou à d’autres. En pratique, ce sentiment « d’espace sûr » vient souvent de l’immédiateté, d’une moindre gêne et de l’absence d’inquiétude visible chez l’adulte. L’interface peut paraître calme, non réactive et disponible, surtout pour des adolescents qui s’attendent à de la critique ou au conflit. Du point de vue du thérapeute, c’est précisément pourquoi nous ne pouvons pas traiter l’usage des chatbots comme une tendance anodine ou une préoccupation uniquement parentale. Nous avons la responsabilité professionnelle de suivre les véritables voies de recherche d’aide des adolescents, y compris numériques, et de nous assurer que ce qui « semble » privé n’est pas confondu avec ce qui est protégé. Si un adolescent utilise un « chatbot pour enfants » comme principal contenant pour la honte, les questions d’identité, les préoccupations sexuelles, les récits de traumatismes ou les pensées d’auto‑agression, alors l’usage du chatbot devient un comportement cliniquement pertinent. Il a sa place dans l’évaluation, la formulation et la planification thérapeutique continue, tout comme nous suivons le sommeil, les relations avec les pairs, l’usage de substances et l’exposition aux réseaux sociaux. La préoccupation clinique centrale est simple : la sécurité perçue n’est pas la sécurité réelle. La Dre Mary Alvord le dit clairement : « La sécurité perçue n’est pas la sécurité réelle. » Lorsqu’un chatbot paraît validant et discret, les adolescents peuvent supposer qu’il est confidentiel comme une relation thérapeutique est censée l’être. Or, les adolescents emploient souvent le mot « privé » pour signifier « personne ne me jugera », « personne ne se mettra en colère » ou « personne ne rendra la situation gênante ». La protection des données pose d’autres questions : qui peut accéder au contenu, s’il est stocké, s’il est analysé et comment il pourrait être réutilisé. C’est ici que notre rôle clinique n’est pas d’effrayer les adolescents, mais d’éclairer la réalité. La psychoéducation sur la confidentialité n’est pas une leçon parentale ; c’est une intervention thérapeutique. De la même manière que nous aidons les adolescents à construire des modèles mentaux du consentement, de la régulation émotionnelle, du risque et des relations, nous pouvons les aider à bâtir un modèle mental de la divulgation numérique. Un chatbot peut être confortable sur le plan émotionnel tout en restant non confidentiel sur le plan structurel. Une interface peut sembler intime sans offrir les protections que nous associons aux relations humaines privées. Il est important de rappeler que la tâche du thérapeute n’est pas seulement de mettre en garde ; il s’agit aussi de comprendre la fonction que sert le chatbot. En séance, nous pouvons demander : Quelle plateforme utilises‑tu ? À quels moments y recours‑tu ? Qu’en attends‑tu réconfort, conseils, distraction, validation, « permission », rassurance ? Comment te sens‑tu ensuite, soulagé, plus calme, plus en détresse, plus confus, plus dépendant de la rassurance ? Ces questions nous aident à évaluer si le chatbot soutient l’adaptation ou, insidieusement, renforce l’évitement, la rumination ou l’isolement. Elles nous aident aussi à repérer un schéma fréquent à l’adolescence : le jeune ne choisit pas nécessairement un chatbot plutôt que des personnes ; il le choisit plutôt pour éviter un jugement anticipé. Parce que nous avons une obligation de protection, nous avons aussi la responsabilité de nommer explicitement « l’écart de confidentialité » : nombre d’adolescents ignorent ce qu’il advient de leurs données. Ils peuvent supposer que, parce que l’interaction est en tête‑à‑tête et « donne une impression de bienveillance », elle est privée au même titre qu’un cabinet de clinicien. Notre rôle est de rendre cette dimension invisible plus concrète, avec douceur, concrètement et de façon répétée, afin que les adolescents puissent faire des choix éclairés plutôt que de s’en remettre à des suppositions dictées par l’émotion. Cela est particulièrement important chez les plus jeunes utilisateurs et dans les versions « enfant » des chatbots, où la conception peut involontairement amplifier le sentiment de sécurité alors même que la compréhension des pratiques de données est encore en développement. Une approche efficace consiste à traduire la confidentialité en un exercice de développement de compétences plutôt qu’en un avertissement moral. En pratique, nous pouvons guider les adolescents pour trier ce qu’ils pourraient partager avec un chatbot en catégories claires : contenus à faible enjeu (aide aux devoirs, loisirs, questions neutres), éléments personnellement identifiants (nom complet, établissement scolaire, adresse, numéro de téléphone, identifiants de comptes) et divulgations hautement sensibles (contenu sexuel, pensées d’auto‑agression, récits de traumatismes, conflits familiaux, captures d’écran de messages privés, ainsi que données médicales ou de santé mentale). L’objectif n’est pas d’interdire la curiosité ni de culpabiliser les jeunes lorsqu’ils partagent trop. L’objectif est de développer le discernement : quels sujets peuvent un environnement moins protecteur, et quels sujets méritent un canal plus sûr, adultes de confiance, cliniciens, ou dispositifs de crise si nécessaire. À partir de là, nous pouvons enseigner une règle pratique réellement utilisable par les adolescents : plus les détails sont précis et permettent d’identifier la personne, plus le risque potentiel est élevé si le contenu est stocké, mal compris, partagé ou consulté ultérieurement. Nous pouvons également renforcer ce que la psychologie du développement nous apprend déjà que les adolescents exercent :

French

Nano Banana 2 dans le monde réel : quand des images plus rapides imposent un niveau de vérification plus élevé en recherche, en soins et en communication

Le lancement par Google, fin février 2026, de Nano Banana 2, également décrit par Google et dans certaines couvertures comme Gemini 3.1 Flash Image,  peut ressembler à une simple mise à jour de modèle, mais en clinique et dans les équipes de recherche, il agit plutôt comme un basculement de processus de travail. Il arrive dans un contexte de pressions de production bien connues : supports de recrutement contraints par les délais des IRB/comités d’éthique, figures de congrès qui doivent rester lisibles à distance, infographies patient qui simplifient sans déformer, et diapositives d’enseignement qui communiquent le risque de manière responsable. L’affirmation centrale de Google est d’associer une haute qualité d’image à une vitesse de type mode rapide, désormais accessible via l’application Gemini et les expériences de recherche Google telles que AI Mode et Lens, avec un message de déploiement explicite pour la région MENA. Quand la génération d’images devient à la fois rapide et visuellement persuasive, le changement ne se limite pas à une hausse du volume : il s’agit de cycles de décision plus courts. Google met en avant des fonctionnalités qui se superposent directement à la communication scientifique et clinique : rendu de texte amélioré à l’intérieur des images, meilleure cohérence des sujets à travers les éléments, contrôle des formats d’image, et sorties jusqu’en 4K. En pratique, cela peut signifier moins d’itérations de « design manuel » pour des illustrations d’ajustement posologique, des schémas de processus de consentement, des résumés visuels (visual abstracts) et des schématiques explicatives, en particulier dans les équipes dépourvues de support design dédié. Une revendication particulièrement lourde de conséquences est que Nano Banana 2 peut s’appuyer sur des informations et des images en temps réel issues de la recherche web pour améliorer la précision et soutenir la production de diagrammes et d’infographies. Le bénéfice est immédiat : des illustrations plus clairs produits rapidement, susceptibles d’améliorer la compréhension des patients et de réduire la charge cognitive des stagiaires. La tension méthodologique est tout aussi réelle : si l’« ancrage » dépend de sources qui ne sont pas clairement exposées, archivées et citables, nous gagnons en vitesse tout en perdant en traçabilité. Le risque n’est pas seulement qu’une image soit erronée, mais que nous ne puissions pas reconstruire pourquoi elle paraît si convaincante. Cette tension s’accentue avec le cadrage « à travers Gemini, Search et Ads ». Les intégrations les plus clairement documentées à ce stade concernent Gemini et Search. La direction Ads est plausible dans le contexte : Google Ads prend déjà en charge des processus protocoles d’intervention d’images génératives avec une consigne explicite demandant aux annonceurs de relire les assets générés par l’IA avant publication, et Google a déjà décrit l’intégration de modèles Gemini dans Performance Max. Mais les rapports affirmant que Nano Banana 2 alimentera directement les suggestions créatives dans Ads doivent être considérés comme une trajectoire rapportée tant que la documentation Ads de Google n’a pas nommé explicitement le modèle et son périmètre. Pour les chercheurs en santé et les cliniciens, l’enjeu est clair : le même bond qui améliore les supports d’éducation des patients peut aussi accélérer des contenus de santé persuasifs optimisés pour le clic et la conversion. À mesure que le vernis visuel devient moins coûteux, il se corrèle encore moins avec la vérité, déplaçant la charge d’évaluation vers des publics qui ont souvent le moins de temps et le plus à perdre. Le résumé pratique est simple : Nano Banana 2 compresse le temps de création, mais n’élimine pas la responsabilité, il la déplace. Les équipes responsables passeront moins de temps à brouillonner et plus de temps à vérifier : s’assurer que les schémas traduisent bien la relation causale visée, que les illustrations de risque correspondent aux seuils des lignes directrices, que les traductions préservent le sens, et que les graphismes destinés au grand public ne devancent pas l’état des preuves. Le point faible est institutionnel : nombre d’organisations manquent encore d’une gouvernance légère pour les « illustrations assistés par IA », alors même qu’elles disposent de contrôles matures pour les prescriptions, les instructions aux patients et les sorties de données de recherche. Sur le plan éthique, de meilleurs outils élèvent, et non abaissent, l’exigence sur trois devoirs. La transparence compte lorsque la provenance influe sur la confiance (supports destinés aux patients, éducation publique, communication de recherche à fort impact). L’intégrité des données et l’auditabilité comptent lorsque la génération adossée au web influence le contenu et que les sources ne sont pas récupérables. La discipline en matière de confidentialité demeure non négociable : des éléments identifiants de patients ne doivent pas devenir des ingrédients de instruction donnée à l’IA pour produire de « meilleures » images. Le filigranage et les « content credentials » peuvent aider, mais ils ne remplacent pas la relecture par des spécialistes lorsque le contenu est médical.

French

Quand un « ordinateur IA » entre en clinique : processus de travail multi‑agents

Le travail clinique et la recherche échouent rarement faute d’information introuvable ; ils échouent parce que nous ne parvenons pas à convertir l’information en résultats utilisables assez vite. La friction se niche dans les tâches intermédiaires : préparer une note de contexte pour une réunion de cas, transformer des notes éparses en un amendement de protocole cohérent, nettoyer des références avant une nouvelle soumission, ou rédiger un support patient à la fois lisible et exact. Ce qui rend l’idée d’un « ordinateur IA » nouvellement convaincante, c’est qu’il vise précisément ce tissu conjonctif du travail, et non la simple conversation. Perplexity décrit Computer comme un système unifié, basé sur le cloud, capable de « rechercher, concevoir, coder, déployer et gérer » des projets de bout en bout, en décomposant un objectif en sous‑tâches et en les aiguillant vers des composants spécialisés. Dans la description publique, il peut orchestrer le travail en parallèle sur 19 modèles, « en faisant correspondre chaque tâche au meilleur modèle », tout en se souvenant du contexte antérieur et en se connectant à des services externes. L’ambition est claire : transformer le navigateur en un espace de travail opérationnel où l’utilisateur exprime une intention et où le système exécute un travail multi‑étapes. L’attrait est facile à comprendre dans les processus réels. Nous pratiquons déjà une délégation contrainte au quotidien : nous confions des pans d’un projet à des stagiaires, assistants de recherche, administrateurs ou collègues, puis nous intégrons, vérifions et validons. Un système agentique promet un schéma analogue, mais à une vitesse et une échelle différentes. S’il fonctionne de manière fiable, il peut dégager du temps pour ce qui demeure obstinément humain : la présence thérapeutique, le jugement clinique sous incertitude, une supervision nuancée et l’interprétation soigneuse des données probantes. Cette tension s’accentue lorsque l’orchestration devient invisible. Si Computer décompose une tâche en étapes, choisit des outils et fusionne les résultats, alors la traçabilité devient essentielle : quelles sources ont été utilisées, quel modèle a généré quelle affirmation, et quel était le degré d’incertitude du système à chaque étape ? En recherche, ces détails conditionnent la reproductibilité d’une synthèse de la littérature ; en clinique, ils déterminent si une fiche d’information, une note de politique interne ou une aide à la documentation reste dans les limites de la pratique fondée sur les preuves. Plus le processus est autonome, plus nous avons besoin de systèmes qui rendent leur raisonnement lisible plutôt que simplement impressionnant. Une seconde tension tient à la provenance. En recherche, nous devons savoir quelles sources ont été mobilisées, comment les affirmations ont été dérivées et quelle incertitude subsiste, car la crédibilité d’une synthèse dépend d’un raisonnement traçable. En contexte clinique, la provenance importe tout autant, bien que moins souvent formalisée : nous devons savoir si un livrable s’appuie sur des lignes directrices, des essais de haute qualité, des politiques locales, ou de simples généralisations plausibles. Les outils agentiques peuvent compresser les étapes avec une telle efficacité qu’ils compressent aussi notre visibilité sur l’origine d’une conclusion. Le coût fait passer ces questions de la théorie aux décisions quotidiennes. À environ 240 $ par mois, il ne s’agit pas d’un abonnement impulsif pour la plupart des cliniciens ; c’est plutôt un arbitrage d’effectifs. Payer ce montant suppose implicitement que le temps gagné soit à la fois substantiel et fiable, et que le temps passé à vérifier les sorties ne regonfle pas insidieusement la charge de travail. En clinique, le « vrai coût » inclut non seulement l’argent, mais aussi la charge cognitive de supervision et le risque réputationnel d’erreurs. D’un point de vue pratique, les usages les plus sûrs à court terme sont ceux qui excluent les données identifiantes du système et maintiennent une vérification résolument humaine. Rédiger des gabarits psychoéducatifs non identifiants, créer des supports de formation pour les stagiaires, clarifier des procédures stagiaires, ou générer des plans détaillés de premier jet pour des documents de recherche peut être pertinent, à condition de traiter les sorties comme des brouillons et d’exiger une vérification des sources. Le profil de risque change nettement lorsqu’on se rapproche de détails de cas identifiants ou de recommandations cliniques très spécifiques, surtout dans de petites communautés ou des présentations rares où la ré‑identification est plus facile qu’on ne l’admet. Il faut aussi reconnaître une limite plus discrète que les chercheurs chevronnés connaissent bien : ces outils peuvent accélérer l’apparence de la production scientifique. Ils savent produire un cadrage cohérent, une prose convaincante et des synthèses soignées même lorsque la base de preuves est mitigée ou contestée. Le danger ne tient donc pas qu’aux « hallucinations » au sens spectaculaire du terme ; c’est aussi la surconfiance routinière, surtout sous la pression des délais, la fatigue ou des incitations institutionnelles qui privilégient la vitesse au détriment de la rigueur. Sur le plan éthique, traitons les systèmes agentiques comme une nouvelle couche de délégation professionnelle qui exige transparence et habitudes de documentation. Si l’IA a matériellement façonné un livrable qui éclaire les soins (une politique de clinique, un support patient, une note d’aide à la décision), la responsabilité du clinicien n’est pas réduite ; elle est reconfigurée. Nous devons à nos patients et collègues une posture disciplinée sur les données introduites dans le système, les sources mobilisées et la manière dont les affirmations ont été contrôlées. Cela s’aligne sur les cadres plus larges de gestion des risques liés à l’IA, qui insistent sur une gouvernance tout au long du cycle de vie : cartographier les défaillances probables, fixer des limites et construire des habitudes de vérification plutôt que de compter sur les bonnes intentions. Pour la suite, la question n’est pas de savoir si les « ordinateurs IA » deviendront plus courants ; ils le seront probablement. La vraie question est de savoir s’ils deviendront lisibles : des systèmes qui rendent leurs sources, leurs hypothèses et leurs limites suffisamment visibles pour des cultures cliniques et de recherche fondées sur l’auditabilité et la confiance. Si nous les adoptons avec discernement, en commençant par

English

Nano Banana 2 in the Real World: When Faster Images Raise the Bar for Verification in Research, Care, and Communication

Google’s late-February 2026 launch of Nano Banana 2, also described by Google and some coverage as Gemini 3.1 Flash Image, can look like a routine model update, but in clinics and research groups it behaves more like a workflow shift. It lands amid familiar production pressures: recruitment materials constrained by IRB timelines, conference figures that must stay legible at a distance, patient infographics that simplify without distorting, and teaching slides that communicate risk responsibly. Google’s core claim is that it pairs high image quality with Flash-level speed, now accessible via the Gemini app and Google Search experiences such as AI Mode and Lens, with explicit rollout messaging for MENA. When image generation becomes both fast and visually persuasive, the change is not only higher output, it is faster decision cycles. Google highlights features that map directly onto scientific and clinical communication: improved text rendering inside images, stronger subject consistency across elements, aspect-ratio control, and outputs up to 4K. In practice, that can mean fewer “manual design” iterations for medication titration visuals, consent-process diagrams, visual abstracts, and explanatory schematics, especially in teams without dedicated design support. One especially consequential claim is that Nano Banana 2 can draw on real-time information and images from web search to improve accuracy and support diagrams and infographics. The upside is immediate: clearer visuals produced quickly, potentially improving patient comprehension and reducing cognitive load for trainees. The methodological tension is equally real: if “grounding” relies on sources that are not clearly surfaced, archived, and citable, we gain speed while losing traceability. The risk is not only that an image could be wrong, but that we may not be able to reconstruct why it looks convincingly right. That tension sharpens with the “across Gemini, Search, and Ads” framing. The most clearly documented integrations at the moment are Gemini and Search. The Ads direction is plausible in context, Google Ads already supports generative image workflows with explicit guidance that advertisers must review AI-generated assets before publishing, and Google has previously described bringing Gemini models into Performance Max, but reports that Nano Banana 2 will directly power creative suggestions in Ads should be treated as a reported trajectory until Google’s Ads documentation names the model and scope explicitly. For health researchers and clinicians, this matters because the same leap that improves patient education materials can also accelerate persuasive health content optimized for clicks and conversion. As visual polish becomes cheaper, it becomes even less correlated with truth, shifting the burden of appraisal onto audiences who often have the least time and the most at stake. The most practical summary is simple: Nano Banana 2 compresses creation time, but it does not remove responsibility, it relocates it. Responsible teams will spend less time drafting and more time verifying: ensuring diagrams encode the correct causal claim, risk visuals match guideline thresholds, translations preserve meaning, and public-facing graphics do not outrun the evidence. The weak point is institutional: many organizations still lack lightweight governance for “AI-assisted visuals,” even when they have mature controls for medication orders, patient instructions, and research data outputs. Ethically, better tools raise, not lower, the bar on three duties. Transparency matters when provenance affects trust (patient materials, public education, high-impact research communication). Data integrity and auditability matter when web-grounded generation influences content and sources are not recoverable. Privacy discipline remains non-negotiable: identifiable patient details should not become prompt ingredients to produce “better” visuals. Watermarking and content credentials can help, but they are not substitutes for domain review when the content is medical.

English

When an “AI Computer” Enters the Clinic: Multi‑Agent Workflows

Clinical and research work rarely fails because we cannot locate information; it fails because we cannot convert information into usable outputs quickly enough. The friction lives in the in‑between tasks: preparing a background brief for a case conference, turning scattered notes into a coherent protocol amendment, cleaning citations before a resubmission, or drafting a patient-facing handout that is both readable and accurate. What is newly compelling about the idea of an “AI computer” is that it aims at this connective tissue of work, not simply at conversation. Perplexity describes Computer as a unified, cloud-based system that can “research, design, code, deploy, and manage” projects end-to-end, breaking a goal into sub-tasks and routing them across specialized components. In the public description, it can orchestrate work across 19 models in parallel, “matching each task to the best model,” while also remembering prior context and connecting to external services. The ambition is not subtle: it is a bid to turn the browser into an operational workspace where the user specifies intent and the system performs the multi-step work. The attraction is easy to understand in real workflows. We already practice constrained delegation every day: we assign parts of a project to trainees, research assistants, administrators, or colleagues, and we integrate, verify, and sign off. An agentic system promises a similar pattern, but at a different speed and scale. If it performs reliably, it may create time for what remains stubbornly human: therapeutic presence, clinical judgment under uncertainty, nuanced supervision, and careful interpretation of evidence. That tension becomes sharper when orchestration is invisible. If Computer decomposes a task into steps, chooses tools, and merges results, then provenance matters: which sources were used, which model generated which claim, and what was the system’s uncertainty at each step? In research, these details determine whether a literature synthesis is reproducible; in clinical settings, they determine whether a handout, policy memo, or documentation aid stays within the boundaries of evidence-based practice. The more autonomous the workflow, the more we need systems that make their reasoning legible rather than merely impressive. A second tension is provenance. In research, we need to know what sources were used, how claims were derived, and what uncertainty remains, because the credibility of a synthesis depends on traceable reasoning. In clinical environments, provenance is equally important, though less often formalized: we need to know whether an output is grounded in guidelines, high-quality trials, local policy, or merely plausible generalizations. Agentic tools can compress steps so efficiently that they also compress our visibility into where a conclusion came from. Cost pulls these questions from theory into daily decision-making. At roughly $240 per month, this is not an impulsive subscription for most clinicians; it is closer to a staffing tradeoff. Paying that amount implicitly assumes that time saved is both substantial and dependable, and that the time we spend verifying the output does not quietly re-inflate the workload. In clinical settings, the “true cost” includes not only money, but also the cognitive burden of oversight and the reputational risk of errors. From a practice perspective, the safest near-term uses are those that keep identifiable data out of the system and keep verification firmly human. Drafting non-identifying psychoeducation templates, creating training materials for interns, turning internal procedures into clearer language, or generating first-pass outlines for research documents can be sensible, provided we treat outputs as drafts and insist on source checking. The risk profile changes sharply when we move toward identifiable case details or highly specific clinical recommendations, especially in small communities or rare presentations where re-identification can be easier than we like to admit. We also need to acknowledge a quieter limitation that experienced researchers recognize: these tools can accelerate the appearance of scholarship. They can produce coherent framing, persuasive prose, and tidy synthesis even when the evidence base is mixed or contested. The danger, then, is not only “hallucination” in the headline sense; it is routine overconfidence, particularly under deadline pressure, fatigue, or institutional incentives that reward speed over carefulness. Ethically, we should treat agentic systems as a new layer of professional delegation that demands transparency and documentation habits. If AI materially shaped an output that informs care (a clinic policy, a patient handout, a decision support memo), the clinician’s responsibility is not reduced; it is reconfigured. We owe patients and colleagues a disciplined stance on what data entered the system, what sources were relied upon, and how claims were checked. This is consistent with broader AI-risk frameworks emphasizing lifecycle governance: mapping likely failures, setting boundaries, and building habits of verification rather than relying on good intentions. Looking ahead, the question is not whether “AI computers” will become more common; they likely will. The more important question is whether they become legible: systems that make their sources, assumptions, and limitations visible enough for clinical and research cultures that depend on auditability and trust. If we adopt them thoughtfully, starting with low-risk tasks, measuring time saved against time spent verifying, and maintaining strict boundaries around sensitive data, we can treat these tools as assistants rather than authorities, and preserve the integrity of our work while reducing avoidable friction.

English

“Pretty Pipelines, Hidden Risk”: What DeepMind’s Intelligent AI Delegation Means for Therapists

As AI systems enter clinical workflows, terminology needs to become operational rather than rhetorical. An AI agent refers to a model-based software system capable of planning and executing multi-step tasks toward a goal, including selecting actions, using external tools, and revising steps based on outcomes. In other words, it’s more than a chatbot reply: it’s a goal-directed workflow runner. This definition matters because a lot of confusion starts when we treat any fluent system as “agentic.” Google DeepMind just dropped a long, ~42-page warning about why most “AI agencies” will fail in the real world, and when we read Intelligent AI Delegation (published February 12, 2026), it quietly explains the same thing from first principles. The uncomfortable takeaway is simple: a lot of what’s marketed as “agents” today won’t survive contact with reality. Not because they can’t write or plan, but because they can’t delegate in the way real systems require. And therapy is exactly where that gap becomes visible early. Here’s the part that stings: most agents today aren’t really agents in the strong sense people imagine. They’re task runners with good branding, we give them a goal, they break it into steps, call tools, and return an output. That can be powerful automation, and it can absolutely create efficiency in low-stakes work. But it’s not delegation, it’s a prettier pipeline. And in healthcare, “pretty pipelines” are exactly how hidden risk slips into daily practice. So what do we mean when we say “delegation”? Delegation isn’t one thing. It can mean delegating execution (the system carries out steps you already chose), delegating workflow control (it sequences tools, retries, and manages handoffs), or delegating judgment (it decides what should be done and when, based on interpretation of context and risk). Most systems marketed as “agentic” are mostly capable of execution and some workflow control, not delegation where judgment is offloaded and accountability meaningfully shifts. In therapy, the danger is when we unintentionally delegate judgment while assuming we only delegated execution. DeepMind’s brutal point is that real delegation isn’t just splitting tasks. Delegation is transferring authority, responsibility, accountability, and trust, and doing it dynamically as the situation changes. That means we don’t only ask, “Who can do this fastest?” We ask, “Who should be trusted to do this, under these constraints, with these consequences?” Almost no current system behaves that way end-to-end once multiple tools, uncertain data, and real stakes are involved. Before delegation even happens, the framework implies we need to evaluate capability, risk, cost, verifiability, and reversibility. In other words, it’s not “does the agent have access to the calendar tool?” It’s “is this task safe to hand off, can we verify the result, and can we undo harm if it’s wrong?” That is a very clinical way of thinking, and it’s exactly why this paper hits therapists harder than it hits casual tech demos. Our work already assumes risk, not perfection. Therapy is not just information work; it’s relational work under ethics, confidentiality, and duty-of-care. Our clients don’t experience our work as “outputs”, they experience it as trust, safety, timing, attunement, and boundaries. So when an AI system is framed as an “agent,” the real question becomes: what are we delegating, and what are we accidentally outsourcing? If we let a system drift into clinical judgment, we may be delegating more than we think. When AI agency fails in our context, it often fails without obvious nonsense. It fails quietly: a note becomes subtly distorted, a risk signal gets downplayed, a client message becomes overly confident, or a safety-plan phrase becomes too generic to be safe. The output can look coherent and professional, sometimes more professional than we would write at 6 p.m. and that’s precisely what makes it dangerous. Fluency can create false reassurance, and false reassurance is a clinical risk. Current limitations of AI agents (especially in real workflows) Even when agents perform specific tasks well, they often struggle with coordination and interoperability, working reliably across tools, policies, datasets, and other agents. Multi-agent setups can become brittle: one agent’s assumption becomes another agent’s “fact,” tool errors propagate, and responsibility becomes hard to trace. This matters because real clinics aren’t single-tool sandboxes; they’re multi-system environments with partial data and shifting constraints. The limitation isn’t just intelligence, t’s dependable, governable collaboration. Because of limited interoperability, humans are still required to manage coordination between multiple agents. This is the governance problem: accountability diffusion. If one agent delegates to another, which calls a tool, which references incomplete data, who is actually accountable for the final wording sent to a client? We might sign it, the clinic might deploy it, the vendor might supply it, and the model might generate it, yet no one can point to a clear, auditable decision boundary. In therapy, that’s not abstract; it’s how ethical responsibility gets blurred. Still, we shouldn’t throw the tools away, and we should keep the narrative balanced. Agents promise real efficiency: they can reduce admin burden, draft psychoeducation we approve, structure worksheets, translate or simplify content to match literacy needs, and summarize our own prior notes with clear provenance. But practical constraints remain, so boundaries must stay explicit: delegate low-risk, reversible, verifiable tasks, and resist delegating anything that functions like diagnosis, risk assessment, crisis response, or treatment decisions. If we get that boundary right, we take the gains without surrendering what clients come for: trustworthy, human accountability.

English

When an “AI Doctor” Becomes a Real Clinic: A Therapist’s View on Lotus Health AI and the Hidden Benefits for Therapy

In the past two weeks, many clinicians have seen posts about Lotus Health AI, described as an “AI doctor powered by real doctors”, a physician-supervised service that can assess, diagnose, prescribe, and refer, positioned as free, always available, and multilingual. The company also announced a $35M Series A bringing total funding to $41M, co-led by Kleiner Perkins and CRV, and argues it can cut administrative waste by making physicians more productive without insurance billing. From a therapist’s perspective, the key question isn’t whether the marketing is compelling, it’s whether this becomes a reliable front door to primary care that reduces the friction therapy often absorbs: sleep problems mistaken for depression, thyroid/anemia issues that look like burnout, medication side effects that destabilize mood, and medical uncertainty that fuels panic and health anxiety. In day-to-day work, therapy can become the place where fragmented healthcare gets processed, emotionally, and sometimes administratively, because clients can’t access timely care elsewhere. One practical benefit, if Lotus functions as described, is speed as clinical timing, not just convenience.Earlier medical clarification can make therapy interventions more accurate and effective.When a client says, “Something feels off physically,” we validate and explore patterns, yet sometimes the responsible step is: get a medical assessment early.The differential matters: if symptoms are physiological or medication-related, the plan shifts; if they’re anxiety-driven, it shifts differently.In many systems, “soon” becomes weeks, and therapy becomes a holding space for unresolved uncertainty.A 24/7 primary-care-like channel that reviews consolidated history and routes to in-person care could reduce that gap.Lotus explicitly positions itself as going beyond generic chatbot advice by involving board-certified physicians who review guidance and prescribe when appropriate. A second benefit is indirect but meaningful: it may improve the quality and coherence of information clients bring back into therapy. Many clients struggle to describe symptoms clearly due to stress, dissociation, executive dysfunction, trauma, or exhaustion. If a platform helps organize meds, labs, and prior records into a clearer story, it can reduce shame (“I’m not making it up”), sharpen insight (“my panic clusters around sleep disruption”), and help therapists choose more precise interventions (e.g., exposure for health anxiety vs urgent referral for red flags). Third, there are coordination and access benefits even if therapists never touch the platform. When clients can obtain refills, medication reviews, and referrals with fewer obstacles, therapy is less likely to be derailed by preventable destabilizers. Practically, that can mean fewer sessions spent troubleshooting access and more time spent on the core work of therapy, skills, meaning-making, attachment repair, behavior change, and identity-level integration. That said, therapists are trained to notice how tools can become part of a symptom cycle. An always-available “doctor in your pocket” may stabilize some clients, but it can also feed reassurance-seeking for others, especially with health anxiety, OCD-spectrum checking, panic, somatic symptom patterns, or trauma-related body scanning. Even if guidance is solid, repeated checking can still function as avoidance or compulsion. The goal isn’t to demonize the tool, but to integrate it into a treatment plan with clear, time-limited, values-consistent use. There are also boundary questions that show up quickly. If clients rely on app-mediated care, therapists will be asked to interpret it: “Should I trust this?” “What does this diagnosis mean?” “Can you message them for me?” A helpful posture is to treat it like any outside provider: help clients clarify questions, process impact, and decide next steps, while avoiding medicine-by-proxy. It also matters that what any physician-led digital service can do may vary by jurisdiction, licensure, and telemedicine rules, so “available” may not always mean “authorized to treat” in the way clients assume. Ethically, the business model matters because trust is a clinical ingredient. If clients suspect recommendations are influenced by sponsorships or commercial incentives (whether or not that’s true), it can erode trust in healthcare and show up in therapy as cynicism, avoidance, or hopelessness. This makes transparency practical, not philosophical: what is automated vs clinician-reviewed, and how conflicts of interest are managed over time. Privacy and data integrity are equally central. Even with strong security claims, it helps to think concretely: what data is being linked, who can access it, what consent was given, what can be deleted, and what might be retained. Data-rich systems can fail in new ways, through breaches, misuse, or overconfidence in incomplete records, so the most ethical stance is careful integration, explicit consent, and humility. Overall, I’m cautiously interested in what this could become for therapy-adjacent care: faster evaluation, less avoidable suffering, and less informal care coordination falling onto therapists. But the promise depends on whether it earns trust in real-world use, clinically, ethically, and operationally, so clients aren’t left alone with medical uncertainty that insight alone can’t resolve.

French

« Agents brillants, jugements fuyants : ce que DeepMind nous oblige à voir »

À mesure que les systèmes d’IA entrent dans les flux cliniques, le vocabulaire doit devenir opérationnel plutôt que rhétorique. Un agent IA désigne un système logiciel piloté par modèle, capable de planifier et d’exécuter des tâches multi‑étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et réviser ses étapes en fonction des résultats. Autrement dit, c’est plus qu’une réponse de chatbot : c’est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît souvent lorsqu’on qualifie d’« agentique » tout système simplement fluide. Google DeepMind vient de publier un avertissement d’environ 42 pages sur les raisons pour lesquelles la plupart des « agences IA » échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même constat. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « agents » aujourd’hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne savent pas écrire ou planifier, mais parce qu’ils ne savent pas déléguer comme l’exigent les systèmes réels. Et la thérapie est précisément l’endroit où cet écart devient visible très tôt. Voici ce qui pique : la plupart des agents actuels ne sont pas des agents au sens fort qu’on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en étapes, appellent des outils et renvoient un résultat. C’est de l’automatisation puissante, qui peut réellement créer de l’efficacité pour des tâches à faible enjeu. Mais ce n’est pas de la délégation : c’est un pipeline plus élégant. Or, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s’infiltrent dans la pratique quotidienne. Qu’entend‑on par « délégation » ? La délégation n’est pas monolithique. Elle peut signifier déléguer l’exécution (le système réalise des étapes que vous avez déjà choisies), déléguer le contrôle du flux de travail (il séquence les outils, gère les relances et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « agentiques » savent surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit externalisé et que l’imputabilité bascule réellement. En thérapie, le danger survient quand, sans s’en rendre compte, on délègue le jugement tout en croyant n’avoir délégué que l’exécution. Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c’est transférer de l’autorité, de la responsabilité, de l’imputabilité et de la confiance et le faire dynamiquement au fil des situations. Il ne s’agit donc pas seulement de demander : « Qui peut le faire le plus vite ? » mais « À qui peut‑on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd’hui, les systèmes qui se comportent ainsi de bout en bout lorsque s’entremêlent multiplicité d’outils, données incertaines et véritables enjeux. Avant même de déléguer, le cadre proposé implique d’évaluer la capacité, le risque, le coût, la vérifiabilité et la réversibilité. Autrement dit, la question n’est pas « l’agent a‑t‑il accès à l’outil calendrier ? » mais « cette tâche est‑elle sûre à confier, pouvons‑nous en vérifier le résultat et pouvons‑nous annuler le tort si c’est erroné ? » C’est une manière très « clinique » de penser et c’est précisément pourquoi ce papier touche davantage les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection. La thérapie n’est pas qu’un travail informationnel ; c’est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « sorties » : ils l’éprouvent comme de la confiance, de la sécurité, du timing, de l’accordage et des limites. Donc, lorsqu’un système d’IA est présenté comme un « agent », la vraie question devient : que délègue‑t‑on, et qu’externalise‑t‑on sans le vouloir ? Si nous laissons un système dériver vers le jugement clinique, nous déléguerons peut‑être bien plus que prévu. Quand « l’agence » de l’IA échoue dans notre contexte, elle n’échoue pas par un non‑sens criant. Elle échoue en silence : une note se trouve subtilement déformée, un signal de risque est minimisé, un message au patient devient trop assuré, ou une phrase de plan de sécurité devient trop générique pour être sûre. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous écririons à 18 h et c’est précisément ce qui la rend dangereuse. La fluidité crée une fausse réassurance, et la fausse réassurance est un risque clinique. Limites actuelles des agents IA (surtout en flux de travail réels)

French

Quand un « médecin IA » devient une vraie clinique : le regard d’un thérapeute sur Lotus Health AI et les bénéfices cachés pour la thérapie

Au cours des deux dernières semaines, de nombreux cliniciens ont vu circuler des posts au sujet de Lotus Health AI, présenté comme un « médecin IA propulsé par de vrais médecins » : un service supervisé par des médecins, capable d’évaluer, de diagnostiquer, de prescrire et d’orienter, positionné comme gratuit, disponible en permanence et multilingue. L’entreprise a également annoncé une levée de fonds de série A de 35 M$, portant le financement total à 41 M$, co‑menée par Kleiner Perkins et CRV, et soutient qu’elle peut réduire le gaspillage administratif en rendant les médecins plus productifs, sans facturation à l’assurance. Du point de vue d’un thérapeute, la question centrale n’est pas de savoir si le marketing est convaincant, mais si cela devient une porte d’entrée fiable vers les soins de première intention, réduisant les frictions que la thérapie absorbe souvent : troubles du sommeil pris à tort pour une dépression, problèmes thyroïdiens/anémiques ressemblant à un burn‑out, effets secondaires médicamenteux déstabilisant l’humeur, et incertitude médicale alimentant panique et anxiété de santé. Dans le travail quotidien, la thérapie peut devenir le lieu où un système de santé fragmenté est « traité », émotionnellement, et parfois même sur le plan administrative, parce que les patients n’ont pas accès à des soins en temps utile ailleurs. Un bénéfice pratique, si Lotus fonctionne comme décrit, tient à la vitesse en tant que paramètre clinique, et pas seulement à la commodité. Une clarification médicale plus précoce peut rendre les interventions thérapeutiques plus précises et plus efficaces. Quand un patient dit : « Quelque chose ne va pas physiquement », nous validons et explorons les schémas ; pourtant, la démarche responsable consiste parfois à obtenir une évaluation médicale rapidement. La différentielle compte : si les symptômes sont physiologiques ou liés aux médicaments, le plan change ; s’ils sont portés par l’anxiété, il change différemment. Dans de nombreux systèmes, « bientôt » se transforme en plusieurs semaines, et la thérapie devient un espace d’attente pour une incertitude non résolue. Un canal de type soins primaires, disponible 24 h/24 et 7 j/7, qui passe en revue l’historique consolidé et oriente vers des soins en présentiel, pourrait réduire cet écart. Lotus se positionne explicitement au‑delà des conseils génériques d’un chatbot en impliquant des médecins certifiés qui relisent les recommandations et prescrivent lorsque c’est approprié. Un second bénéfice est indirect mais significatif : il pourrait améliorer la qualité et la cohérence des informations que les patients rapportent en thérapie. Beaucoup peinent à décrire clairement leurs symptômes en raison du stress, de la dissociation, d’un dysfonctionnement exécutif, d’un traumatisme ou de l’épuisement. Si une plateforme aide à organiser traitements, bilans et dossiers antérieurs en un récit plus clair, elle peut réduire la honte (« Je n’invente pas »), affiner la compréhension (« mes attaques de panique se regroupent autour des perturbations du sommeil ») et aider les thérapeutes à choisir des interventions plus précises (p. ex., exposition pour l’anxiété de santé versus orientation urgente face à des signaux d’alarme). Troisièmement, il existe des bénéfices de coordination et d’accès, même si les thérapeutes n’utilisent jamais la plateforme. Lorsque les patients peuvent obtenir renouvellements d’ordonnances, revues médicamenteuses et orientations avec moins d’obstacles, la thérapie est moins susceptible d’être déstabilisée par des facteurs évitables. Concrètement, cela peut signifier moins de séances consacrées au dépannage de l’accès et davantage de temps pour le cœur du travail thérapeutique : compétences, élaboration de sens, réparation de l’attachement, changement de comportements et intégration au niveau identitaire. Cela dit, les thérapeutes sont formés à repérer comment les outils peuvent s’intégrer à un cycle symptomatique. Un « médecin dans la poche » disponible en continu peut stabiliser certains patients, mais aussi alimenter la quête de réassurance chez d’autres, en particulier dans l’anxiété de santé, les vérifications de type spectre TOC, les attaques de panique, les tableaux de symptômes somatiques ou le balayage corporel lié au trauma. Même si les recommandations sont solides, les vérifications répétées peuvent malgré tout fonctionner comme évitement ou compulsion. L’objectif n’est pas de diaboliser l’outil, mais de l’intégrer à un plan de traitement avec un usage clair, limité dans le temps et cohérent avec les valeurs. Des questions de limites apparaissent également très vite. Si les patients s’appuient sur des soins médiés par application, les thérapeutes seront sollicités pour les interpréter : « Puis‑je m’y fier ? » « Que signifie ce diagnostic ? » « Pouvez‑vous leur écrire pour moi ? » Une posture aidante consiste à le traiter comme tout prestataire externe : aider les patients à clarifier leurs questions, à traiter l’impact et à décider des prochaines étapes, tout en évitant de faire de la médecine par procuration. Il importe aussi de rappeler que la portée de tout service numérique piloté par des médecins peut varier selon la juridiction, les licences et les règles de télémédecine ; ainsi, « disponible » ne signifie pas toujours « autorisé à traiter » comme les patients l’imaginent. Sur le plan éthique, le modèle économique compte, car la confiance est un ingrédient clinique. Si les patients soupçonnent que des parrainages ou des incitations commerciales influencent les recommandations (que ce soit vrai ou non), cela peut éroder la confiance dans le système de santé et se manifester en thérapie par du cynisme, de l’évitement ou du désespoir. Cela rend la transparence pratique plutôt que philosophique : qu’est‑ce qui est automatisé versus relu par un clinicien, et comment les conflits d’intérêts sont‑ils gérés dans le temps ? La confidentialité et l’intégrité des données sont tout aussi centrales. Même avec des garanties de sécurité solides, il est utile de raisonner concrètement : quelles données sont mises en lien, qui peut y accéder, quel consentement a été donné, que peut‑on supprimer et que pourrait‑on conserver. Les systèmes riches en données peuvent échouer de manières Nouvelles, par des violations, des usages abusifs ou un excès de confiance dans des dossiers incomplets; la posture la plus éthique reste donc une intégration prudente, un consentement explicite et de l’humilité. Globalement, je m’intéresse avec prudence

Shopping Cart