Author name: Dr. Rania Kassir

French

Un nouveau risque cyber dans la salle de thérapie : pourquoi Project Glasswing change l’équation de la confiance

La cybersécurité n’est plus un problème technique de niche. C’est une condition de la vie moderne : banque, éducation, services publics et santé reposent sur des couches fragiles de logiciels que nous voyons rarement. La plupart des gens ne remarquent cette fragilité que lorsque quelque chose déraille : une panne, une violation, un compte bloqué, un système soudainement indigne de confiance. Le risque est large, mais les conséquences ne sont pas également réparties. En santé, cette inégalité se fait sentir rapidement. Lorsque les systèmes numériques défaillent, les soins ne se mettent pas poliment en pause le temps du rétablissement. Les personnes se présentent toujours en détresse, en insécurité ou en pleine crise, et les cliniciens doivent continuer de décider avec des informations incomplètes. L’« incident technique » devient humain, souvent en quelques minutes. C’est pourquoi les thérapeutes doivent s’y intéresser, même si la conversation semble éloignée du quotidien clinique. En thérapie, la cybersécurité ne s’annonce que rarement comme telle. Elle se manifeste par une séance annulée inopinément parce que la planification est en panne, un lien de téléconsultation qui échoue à la dernière minute, ou une clinique soudain incapable d’accéder aux notes. Elle se manifeste aussi lorsqu’un client demande, calmement mais directement, si ses messages sont réellement privés. Dans ce contexte, l’annonce d’Anthropic du 7 avril 2026 sur Project Glasswing est plus qu’une actualité technologique. L’entreprise y décrit un modèle non publié, Claude Mythos Preview, et insiste sur le fait qu’il ne sera pas rendu disponible au grand public. Il est plutôt acheminé via un programme restreint, présenté comme à usage défensif. Lorsqu’un laboratoire d’IA décide qu’un modèle est trop capable pour être diffusé, c’est un signal sur l’orientation du paysage des menaces. La raison clé avancée pour ce verrouillage est simple et troublante : Anthropic présente Mythos Preview comme étant capable de trouver des vulnérabilités graves avec très peu de pilotage humain. En termes clairs, il repérerait des points faibles logiciels plus vite et de façon plus autonome que les systèmes antérieurs. Même si l’intention est défensive, la capacité en elle‑même importe, car les capacités tendent à se diffuser et les attaquants s’adaptent. Les exemples d’Anthropic sont de ceux qui mettent mal à l’aise, à juste titre, les non‑techniciens. Ils mettent en lumière des faiblesses dans des logiciels fondamentaux très utilisés et décrivent des cas où des problèmes ont persisté des années, voire des décennies, sans être détectés. Voilà la vérité inconfortable de l’infrastructure numérique : beaucoup de systèmes que nous pensons stables sont assemblés à partir de bases de code anciennes, à maintenance inégale et à la complexité cachée. Si cela paraît encore abstrait, ramenons‑le aux outils que nous utilisons effectivement. Les plateformes de téléconsultation reposent sur des navigateurs, des systèmes d’exploitation, des serveurs et des bibliothèques tierces. Les systèmes d’agenda et les portails patients dépendent d’intégrations et d’API qui peuvent multiplier silencieusement les risques. Une vulnérabilité « quelque part en amont » peut se traduire par une indisponibilité, une exposition de données ou une interruption de service au point de contact entre le client et le soin. Il existe aussi une question structurelle importante pour la santé : qui accède aux moyens de protection les plus puissants, et quand ? Restreindre un modèle très performant peut réduire les mésusages immédiats, mais concentre aussi le pouvoir et l’expertise entre quelques organisations. Les petites cliniques et éditeurs se retrouvent dépendants de calendriers de sécurité, de priorités et de décisions de divulgation qu’ils ne voient ni n’influencent aisément. Cet écart, entre attentes éthiques et réalités techniques, peut devenir un problème de confiance. Concrètement, cela nous pousse vers une vision plus explicite et systémique du risque clinique. Nous ne pouvons pas corriger des systèmes d’exploitation, mais nous pouvons intégrer la maturité cybersécurité à la qualité des soins. Cela signifie poser de meilleures questions à l’achat, exiger des engagements clairs de réponse aux incidents de la part des fournisseurs, et maintenir des protocoles de continuité en mode dégradé. Cela signifie aussi réduire les « outils fantômes » et les modules IA non gérés qui élargissent la surface d’attaque sans supervision. Éthiquement, l’enjeu n’est pas d’alimenter la panique, mais d’exiger une confiance défendable. En contexte clinique, « digne de confiance » devrait signifier qu’il existe des traces décisionnelles explicables : quel système a été utilisé, quelles données ont circulé, quelles protections étaient en place, quelle journalisation et quel audit existaient, et comment les erreurs ou incidents seront corrigés et divulgués. Les clients ne devraient pas avoir à s’en remettre à une infrastructure invisible et « espérer le meilleur » ; ils méritent des systèmes de soin conçus pour échouer sans nuire. Project Glasswing préfigure une nouvelle phase : l’IA ne transforme pas seulement les outils cliniques, elle modifie aussi l’environnement de sécurité dans lequel ces outils s’inscrivent. La confiance des patients dépend de la confidentialité, de l’intégrité et de la disponibilité, des propriétés qui reposent sur une infrastructure désormais mise à l’épreuve par des systèmes de plus en plus autonomes. Pour les thérapeutes, la tâche est de préserver le cadre clinique à mesure que le cadre technique s’accélère : protéger la continuité, protéger la vie privée et plaider pour des systèmes que nous pouvons réellement assumer.

French

Quand le modèle reste sur votre appareil : Gemma 4, « gratuit pour toujours » et ce que la confidentialité signifie réellement

En clinique, le point de friction n’est presque jamais la curiosité pour l’IA ; c’est la gouvernance. Un supervisé souhaite de l’aide pour réécrire un rapport scolaire sensible, résumer une évaluation en ergothérapie ou rédiger un formulaire de consentement en arabe simplifié, puis pose la question que nous connaissons tous : « Puis-je coller le texte réel ? » L’inconfort éthique tient au fait que la plupart des systèmes conversationnels sont, par conception, médiés par le cloud, et notre réponse devient alors un cours de gestion des risques plutôt qu’un appui cliniquement utile. C’est pourquoi l’affirmation « Imaginez ChatGPT, mais installé directement sur votre appareil… privé, hors ligne et gratuit » se diffuse si rapidement. Elle évoque la réconciliation promise entre capacité et confidentialité. Mais les slogans ne sont pas des garde-fous, et « l’énergie de PDG » ne constitue pas un cadre de gouvernance clinique. Même lorsqu’un outil provient d’une grande entreprise, la marque ne remplace pas l’évaluation des flux de travail, de l’auditabilité et des modes de défaillance. Ce que cela traduit plus précisément, c’est l’essor d’un écosystème de modèles « local capable », dont Gemma 4, téléchargeables et exécutables dans des environnements contrôlés. La promesse est simple : poser des questions, générer du texte, structurer la documentation et, dans certaines configurations, traiter aussi des tâches liées à l’image, avec un calcul effectué sur votre propre appareil. Ce détail — l’endroit où s’exécute le modèle — n’est pas anecdotique : il est au cœur de la confidentialité. La question du « prix » est déterminante pour les thérapeutes, car elle modifie les dynamiques d’adoption. Si un modèle est « gratuit » à télécharger et à exécuter, la contrainte se déplace vers les exigences matérielles et le temps de configuration. Vous « payez » autrement : batterie, chauffe, stockage, maintenance et dépannage. Mais le changement psychologique est majeur : la technologie devient suffisamment accessible pour s’intégrer dans des pratiques réelles, et non plus seulement comme un outil expérimental. La comparaison est donc pertinente, car elle touche au cœur du flux de travail : vous choisissez une IA, mais aussi un circuit de données. Gemma 4 est une option locale, mais pas la seule. De nombreux utilisateurs exécutent également des modèles de type DeepSeek, tandis que d’autres optent pour Llama, Mistral ou Qwen selon leur matériel et leurs contraintes de licence. En résumé : les modèles locaux peuvent soutenir une confidentialité plus stricte en gardant les données en interne, tandis que les modèles cloud (ChatGPT, Claude, Gemini) offrent davantage de commodité et d’évolutivité, mais exigent des règles plus rigoureuses. La formule « Google ne voit rien » n’est donc vraie que sous une condition précise : une exécution réellement locale. Le « local » n’est pas une perception, mais une implémentation : exécution hors ligne, absence de téléversements, paramètres vérifiables. Toute utilisation via navigateur ou application web doit être considérée comme du cloud. Cliniquement, l’intérêt majeur de l’IA locale n’est pas la nouveauté, mais l’élargissement des tâches réalisables sans exposition de données sensibles : rédaction de courriers, psychoéducation, adaptation de supports, création de canevas de séance. Cela réduit la charge administrative tout en respectant davantage l’esprit de la confidentialité. Cependant, une question essentielle demeure : cela améliore-t-il réellement le raisonnement clinique ? Le risque est qu’une production fluide donne l’illusion d’une validité clinique. L’IA doit rester un outil de structuration et non un substitut au jugement clinique. L’idée de « sans limites » doit également être nuancée. Les modèles locaux ne sont pas limités par un abonnement, mais restent contraints par le matériel. Et surtout, « hors ligne » ne signifie pas « fiable » : biais et hallucinations persistent. Sur le plan éthique, l’IA locale concentre la responsabilité. Utiliser des données identifiables implique de maîtriser la sécurité de l’appareil, la journalisation, la provenance du modèle et la traçabilité de l’usage. La transparence devient une pratique : documenter quand et comment l’IA est utilisée. Ce qui est cliniquement intéressant, ce n’est pas l’illusion d’une « IA privée parfaite », mais la possibilité de concevoir des usages hybrides et nuancés : modèles locaux pour les contenus sensibles, systèmes cloud pour les tâches documentaires sous gouvernance.

French

Quand les données de santé deviennent un interlocuteur : les nouvelles intégrations de Perplexity, vues depuis la salle de thérapie

En thérapie, les « données de santé » arrivent rarement sous la forme d’un récit clair, et la dernière mise à jour santé de Perplexity s’inscrit précisément dans cette réalité. L’annonce met en avant de nouvelles intégrations permettant de rassembler des informations personnelles de santé, de les organiser dans des tableaux de bord, puis de les utiliser pour produire des synthèses et formuler des questions plus claires avant les consultations médicales. Depuis notre place de thérapeutes, une question humaine surgit immédiatement : qu’est-ce qui change lorsqu’une personne peut regrouper ses signaux de santé en un seul endroit et réellement en parler, au lieu de les traquer à travers une multitude d’applications ? Du point de vue thérapeutique, le bénéfice idéal est simple et concret : la mise en structure. Beaucoup de clients ont du mal à résumer ce qu’ils vivent d’une manière réellement exploitable par un clinicien : quand cela a commencé, ce qui le déclenche, ce qui l’améliore ou l’aggrave, ce qui a déjà été essayé, ce qui a changé, et comment cela affecte le sommeil, le travail, l’appétit, l’humeur ou les relations. Si un outil peut aider à élaborer un résumé préconsultation à partir du désordre de la vie réelle, il peut alléger la charge cognitive, réduire la honte « je n’arrive pas à bien l’expliquer » et permettre d’aborder un rendez-vous avec des questions plus claires et moins d’omissions. Mais les limites et les difficultés sont bien réelles, et ne tiennent pas seulement au paramétrage. Le principal enjeu clinique que nous observons est qu’un tableau de bord unifié peut insidieusement devenir un « moniteur de menace ». Chez les clients sujets à l’anxiété de santé, à la panique, aux conduites de réassurance de type TOC, à l’hypervigilance corporelle liée au traumatisme ou au stress chronique, davantage de suivi ne signifie pas toujours davantage de clarté. Cela peut au contraire multiplier les vérifications, amplifier des fluctuations normales et maintenir le système nerveux en état d’alerte, surtout lorsque les chiffres sont vécus comme des verdicts plutôt que comme des éléments de contexte. Un autre risque est celui d’une fausse clarté. Les objets connectés produisent des données bruitées, les bilans biologiques ne donnent que des instantanés, et les dossiers médicaux peuvent être incomplets ou incohérents. Lorsqu’un résumé généré par une IA adopte un ton trop assuré, il peut orienter vers des conclusions qui ne sont pas réellement étayées, tantôt en alimentant la catastrophisation, tantôt en minimisant quelque chose d’important. En thérapie, nous nous soucions moins de savoir si l’outil est « intelligent » que de sa capacité à communiquer l’incertitude avec honnêteté, et de la capacité de la personne qui l’utilise à tolérer cette incertitude sans s’emballer. S’ajoute à cela une difficulté plus élémentaire : l’accès et l’usage. Intégrer des comptes, gérer les autorisations et relier des dossiers peut être déroutant, et ceux qui ont le plus besoin de soutien sont souvent les moins équipés pour résoudre seuls une configuration complexe, surtout lorsqu’ils sont déjà épuisés, douloureux ou submergés. Si l’outil devient une tâche supplémentaire dans laquelle ils ont le sentiment d’« échouer », il peut renforcer précisément le sentiment d’impuissance que nous cherchons à atténuer. La confidentialité constitue un défi plus discret, qui apparaît souvent plus tard en séance. Les personnes ne téléversent pas seulement des « données de santé » ; elles téléversent aussi de la peur, de la vulnérabilité, et tout un contexte qui déborde sur la santé mentale, les relations, l’usage de substances, la santé sexuelle ou l’histoire traumatique. En situation de détresse, on est facilement tenté d’échanger de la confidentialité contre de la réassurance. Une part de notre travail consiste à ralentir ce moment, non pour juger ce choix, mais pour aider la personne à le faire de manière éclairée. Si nous devions intégrer ce type d’outil en thérapie, nous le traiterions comme un support collaboratif, non comme une autorité. Nous apporterions le résumé, puis nous ferions ce que la thérapie sait faire de mieux : ralentir, confronter à la réalité, et traduire cela en prochaines étapes. Qu’est-ce qui manque ? Qu’est-ce qui relève peut-être d’une surinterprétation ? Cet outil renforce-t-il votre pouvoir d’agir, ou alimente-t-il une forme de surveillance compulsive ? Utilisés avec discernement, ces outils peuvent favoriser de meilleures conversations avec les soignants. Utilisés sans précaution, ils peuvent donner au récit une cohérence apparente tout en augmentant subrepticement l’anxiété. La différence tient rarement à la technologie seule ; elle réside dans la relation que la personne construit avec elle.

French

La « sécurité » de l’IA n’est pas la sécurité clinique : ce que la tendance de recherche implique pour notre pratique thérapeutique

Un point utile à garder à l’esprit est le suivant : de nombreux chatbots d’IA paraissent « sûrs » lors des tests parce qu’ils refusent les demandes manifestement nocives, mais peuvent malgré tout répondre de manière non sécurisée lorsque la même intention est formulée de façon indirecte. On parle souvent d’une sécurité fondée sur des mots‑clés (repérer des termes signalés) par opposition à une sensibilité à l’intention (comprendre ce que la personne cherche réellement à faire). Autrement dit, le modèle peut réussir des contrôles de sécurité en reconnaissant certains termes, tout en échouant lorsque la détresse est exprimée dans un langage plus humain et ambigu. Ce que cela signifie pour notre pratique thérapeutique est immédiat : nos clients parlent rarement un « langage du risque » clair et explicite. Ils testent le terrain. Ils minimisent. Ils recourent aux métaphores. Ils alternent les registres. Ils communiquent par le ton et l’omission. Si un outil ne « détecte » le risque que lorsque le client emploie les bons mots, il reproduit la forme d’évaluation la moins utile, celle qui récompense la performance et passe à côté de l’expérience vécue. Deuxième réalité clé : de nombreux modèles sont entraînés à être chaleureux, validants et accommodants. Cela peut sembler soutenant, mais cliniquement nous savons qu’une validation sans discernement peut se muer en renforcement. En tant que thérapeutes, nous validons l’émotion tout en examinant avec nuance et tact les distorsions, en vérifiant la réalité et en observant le fonctionnement dans le temps. Une IA peut, sans le vouloir, valider simultanément l’émotion, l’interprétation et le plan impulsif, car elle est optimisée pour être aidante et cohérente, non pour répondre à une exigence de responsabilité clinique. S’ajoute le biais de l’IA, et en thérapie nous devons partir du principe qu’il se manifeste de façons qui comptent. Les modèles peuvent répondre différemment selon le dialecte, l’anglais en seconde langue, des expressions de la douleur façonnées par la culture, ou même selon le degré d’« organisation » apparente du récit. Le client désorganisé, répétitif ou fragmenté (souvent celui qui a le plus besoin d’aide) peut recevoir une réassurance générique, tandis que le client articulé et persuasif obtient des réponses plus détaillées et plus convaincantes. Ce n’est pas seulement injuste, cela peut fausser l’évaluation du risque, l’alliance et la prise de décision. Concrètement, lorsqu’un client nous dit qu’il utilise un chatbot, nous ne le considérons plus comme un détail anecdotique : nous le traitons comme une nouvelle « un troisième interlocuteur» dans le système. Nous demandons : Quand l’utilisez‑vous, avant de dormir, après des disputes, en plein épisode de panique ? Que dit‑il le plus souvent ? Vous sentez‑vous plus calme, ou plus certain ? Réduit‑il la honte, ou vous maintient‑il dans une boucle ? Cette évaluation nous fournit des données cliniques : le rôle de l’outil (apaisement, escalade, évitement, répétition) et la relation du client avec lui (dépendance, secret, soulagement, honte). En séance, ces informations nous amènent à expliciter davantage la différence entre validation émotionnelle et contenance clinique. Nous pourrions dire : « Un chatbot peut paraître attentionné tout en manquant ce que nous suivons, les schémas de risque, les déclencheurs, les signatures de rechute, la coercition, la dissociation, les réponses traumatiques. » Ce n’est pas de l’anti‑tech ; c’est de la psychoéducation. Cela aide les clients à comprendre pourquoi « je me suis senti soutenu » n’équivaut pas à « c’était sûr pour mon système nerveux et pour mes conséquences réelles ». Cela modifie aussi notre manière d’aborder les conversations sur le risque. Parce que la sécurité de l’IA peut être guidée par des signaux, nous supposons que les clients ont pu apprendre (sans le vouloir) que certains formulations sont bloquées tandis que d’autres sont encouragées. Cela peut influencer la divulgation : les clients peuvent éviter un langage direct, ou répéter des récits qui « sonnent » plus sûrs. Concrètement, nous aménageons davantage d’espace pour une mise en mots progressive: « Si c’est difficile à dire franchement, pouvons‑nous l’encercler, quels sont les mots les plus proches que vous pouvez tolérer maintenant ? » On garde ainsi la porte ouverte sans exiger une performance. Côté praticiens, cela nous pousse à resserrer les limites et la documentation dès que l’IA touche notre flux de travail. Si nous utilisons l’IA pour des brouillons (supports, synthèses, exercices), nous la traitons comme un stagiaire : nous relisons chaque ligne, retirons tout ce qui sonne trop affirmatif et traquons les présupposés biaisés (culture, rôles de genre, attentes familiales, langage des « il faut »). Si une organisation propose des notes rédigées par IA, notre question clinique devient : où vont les données, qui peut y accéder, et que se passe‑t‑il si le modèle invente des détails ? La responsabilité clinique ne disparaît pas. Quand nous conseillons des collègues ou une clinique, nous traduisons tout cela en questions d’évaluation simples : L’outil reste‑t‑il sûr au fil de tours multiples, ou dérive‑t‑il vers un excès d’accord ? Répond‑il de manière appropriée à une détresse indirecte ? Traite‑t‑il de façon cohérente différents dialectes et expressions culturelles ? Dispose‑t‑il de modalités d’escalade claires (ressources de crise, « obtenir de l’aide humaine ») sans culpabiliser ? Si un fournisseur ne peut répondre clairement à ces points, nous supposons que l’outil est optimisé pour des démonstrations, pas pour la réalité concrète de la pratique thérapeutique. Enfin, nous considérons le biais de l’IA comme une question d’équité au sein des soins, non comme une note de bas de page technologique. Nous l’intégrons à la supervision et à la formation : nous jouons des scénarios avec des formulations indirectes, différents idiomes culturels de la détresse et des récits de relations coercitives pour voir comment les outils pourraient les mal interpréter. Et nous disons aux clients quelque chose de stabilisant : « Utilisez‑le si cela vous aide, mais ne le laissez pas devenir votre juge, votre diagnostic, ni votre plan de sécurité. » En pratique, cette position nous maintient cliniquement responsables tout en reconnaissant le monde dans lequel nos clients vivent déjà.

English

When Health Data Becomes a Conversation Partner: Perplexity’s New Integrations, Seen From the Therapy Room

In therapy, “health data” almost never arrives as a clean story and Perplexity’s latest health update leans right into that reality. The announcement centers on new integrations that let people bring together personal health information, organize it into dashboards, and use it to create clearer summaries and questions for medical visits. From the therapy room, that immediately raises a human question: what changes when a person can gather their health signals in one place and actually talk through them, instead of chasing them across apps? From a therapist’s point of view, the best-case impact is simple and practical: structure. Many clients struggle to summarize what’s happening in a way a clinician can use, when it started, what triggers it, what makes it better or worse, what’s been tried, what changed, and how it affects sleep, work, appetite, mood, and relationships. If a tool can help draft a pre-visit summary from the mess of real life, that can reduce cognitive load, reduce shame (“I can’t explain it well”), and help someone walk into an appointment with clearer questions and fewer omissions. But the inconveniences and challenges are real, and they’re not just about setup. The biggest one I see clinically is that a single dashboard can quietly become a “threat monitor.” For clients prone to health anxiety, panic, OCD-style reassurance seeking, trauma-related body scanning, or chronic stress, more tracking doesn’t always equal more clarity. It can increase checking, amplify normal fluctuations, and keep the nervous system on alert, especially when numbers feel like verdicts instead of context. Another challenge is false clarity. Wearables are noisy, labs are snapshots, and medical records can be incomplete or inconsistent. When an AI-generated summary sounds confident, it can pull people toward conclusions that aren’t actually supported sometimes in ways that increase catastrophizing, sometimes in ways that minimize something important. In therapy, I’m less worried about whether the tool is “smart,” and more worried about whether it can communicate uncertainty honestly, and whether the person using it can hold that uncertainty without spiraling. There’s also the basic friction of access and use. Integrating accounts, permissions, and records can be confusing, and the people who need the most support are often the least resourced to troubleshoot a complicated setup, especially when they’re already exhausted, in pain, or overwhelmed. If the tool becomes another task that they “fail” at, it can reinforce the very helplessness we’re trying to reduce. Privacy is the quieter challenge that shows up later in session. People don’t just upload “health data”, they upload fear, vulnerability, and context that crosses into mental health, relationships, substance use, sexual health, and trauma history. When someone is distressed, they tend to trade privacy for reassurance. Part of a therapist’s job is to slow that moment down: not to shame the choice, but to help the client make it with clear eyes. If I were to incorporate something like this into therapy, I’d treat it as a collaborative artifact, not an authority. Bring the summary in, and we do what therapy does best: slow it down, reality-check it, and translate it into next steps. What’s missing? What might be an overinterpretation? Is this helping you feel more agency or is it feeding compulsive monitoring? Used carefully, these tools can support better conversations with medical providers. Used carelessly, they can make the story feel more coherent while quietly increasing anxiety. The difference is rarely the technology alone; it’s the relationship the person forms with it.

English

AI “Safety” Isn’t the Same as Clinical Safety: What the Research Trend Means for Our Therapy Practice

A useful piece of information to keep in mind is this: many AI chatbots look “safe” in testing because they refuse obvious harmful requests, but they can still respond unsafely when the same intent is phrased indirectly. This is often described as keyword-based safety (catching flagged words) versus intent awareness (understanding what the person is actually trying to do). In other words, the model may pass safety checks by recognizing certain terms, yet fail when distress is expressed in more human, ambiguous language. What this means for our therapy practice is immediate: our clients rarely speak in clean, explicit “risk language.” They test the waters. They minimize. They speak in metaphors. They code-switch. They communicate through tone and omission. If a tool only “detects” risk when the client uses the right words, that tool mirrors the least helpful kind of assessment, one that rewards performance and misses lived experience. A second key reality: many models are trained to be warm, validating, and agreeable. That can feel supportive, but clinically we know validation without discernment can become reinforcement. As therapists, we validate emotion while gently challenging distortions, checking reality, and tracking function over time. An AI can unintentionally validate emotion, interpretation and impulsive plan all at once, because it’s optimized to be helpful and coherent, not to hold clinical responsibility. Then there’s AI bias, and in therapy we should assume it shows up in ways that matter. Models can respond differently based on dialect, second-language English, culture-shaped expressions of pain, or even how “organized” a story sounds. The client who is dysregulated, repetitive, or fragmented (often highest need) may get generic reassurance, while the client who is articulate and persuasive may get more detailed, confidence-sounding answers. That is not just unfair—it can skew risk, rapport, and decision-making. So practically, when a client tells us they’ve been using a chatbot, we don’t treat it as a quirky side detail anymore, we treat it like a new “third voice” in the system. We ask: When do you use it, before bed, after fights, during panic? What does it tend to say? Do you feel calmer, or more certain? Does it reduce shame, or does it keep you looping? That assessment gives us clinical data: the tool’s role (soothing, escalating, avoiding, rehearsing), and the client’s relationship with it (dependency, secrecy, relief, shame). In session, this information nudges us to be more explicit about the difference between emotional validation and clinical containment. We might say: “A chatbot can sound caring and still miss what we’re tracking, risk patterns, triggers, relapse signatures, coercion, dissociation, trauma responses.” This isn’t anti-tech; it’s psychoeducation. It helps clients understand why “it felt supportive” isn’t the same as “it was safe for my nervous system and my real-life consequences.” It also changes how we handle risk conversations. Because AI safety can be cue-based, we assume clients may have learned (without meaning to) that certain wording gets shut down and other wording gets rewarded. That can shape disclosure: clients may avoid direct language, or they may rehearse safer-sounding narratives. Practically, we make more room for graded disclosure: “If it’s hard to say plainly, can we circle it, what are the closest words you can tolerate right now?” That keeps the door open without forcing performance. On the provider side, it pushes us to tighten boundaries and documentation when AI touches our workflow. If we use AI for drafts (handouts, summaries, exercises), we treat it like an intern: we review every line, remove anything that sounds overconfident, and check for bias-laden assumptions (culture, gender roles, family expectations, “should” language). If an organization suggests AI note-writing, our clinical question becomes: where is the data going, who can access it, and what happens if the model invents details? Clinical responsibility doesn’t outsource. When we’re advising colleagues or a clinic, we translate all of this into simple evaluation questions: Does the tool stay safe over multiple turns, or does it drift into over-agreement? Does it respond appropriately to indirect distress? Does it treat different dialects and cultural expressions consistently? Does it have clear escalation behavior (crisis resources, “get human help”) without shaming? If a vendor can’t answer those plainly, we assume the tool is optimized for demos, not for therapy-adjacent reality. Finally, we treat AI bias as an equity issue inside care, not a tech footnote. We build it into supervision and training: we role-play indirect phrasing, different cultural idioms of distress, and coercive-relationship narratives to see how tools might misread them. And we tell clients something grounding: “Use it if it helps, but don’t let it become your judge, your diagnosis, or your safety plan.” In practice, that stance keeps us clinically responsible while acknowledging the world our clients already live in.

Uncategorized

When Scanning Stops Feeling Like a Task: Google Drive and the “Automatic” Paper-to-PDF Moment

In clinical and research work, scanning is rarely about producing a neat PDF, it is about preventing workflow drag. We scan consent addenda, referral letters, medication lists, case report forms, and handwritten notes that still carry operational truth. For years, mobile scanning improved image quality, but it still demanded a repetitive choreography: frame, tap, confirm, repeat. What feels newly consequential in Google Drive’s recent scanning experience is the interaction model, less tapping, more continuous capture, and more software judgment about when a page is ready. Google Drive’s built-in scanner has long supported multi-page documents, yet it is increasingly designed to behave like an “in-app acquisition channel,” not a separate scanning tool. In practice, that matters because scanning is no longer “use a dedicated app, export, rename, then upload,” but simply “create a document” inside the same place teams already store files. When routine capture becomes native to a platform people already use daily, adoption rises without training or policy memos. The subtle shift is not novelty; it is friction removal. What makes the process feel almost automatic is a pipeline of document detection, stabilization, and auto-capture logic that reduces micro-decisions. Instead of treating each page as a discrete photo event, the software can treat the stack as a sequence, helping us keep the phone steady and keep moving. That design aligns with how paperwork actually arrives in clinics and labs, bundled, time-sensitive, and rarely convenient. If capture becomes continuous, we spend less cognitive energy on the mechanics and more on verification and filing. The workflow implication is not only speed; it is interruption management. In a clinic, fewer taps can mean fewer missed pages when we are distracted mid-scan by a call, a patient question, or a handover. In research administration, it can mean fewer delays when teams are closing out visits or submitting ethics amendments on a deadline. The promise is modest but real: minutes saved at the margin, repeated many times, can reduce backlog and improve same-day documentation. But automation changes the failure modes, and we should not pretend otherwise. When we manually tap for each page, we naturally pause and visually confirm framing; when the system captures “at the right moment,” errors can become quieter. Cropping can shave off a marginal annotation, and auto-enhancement can lighten pencil marks even as it makes the page look cleaner. As scanning tools become more “helpful,” they also become more interpretive, transforming the image rather than merely preserving it. There is also a records-integrity tension that is easy to overlook: the cleaner the output, the harder it can be to detect what was changed. In some settings, a scanned document is evidence, what was signed, what was present, what was legible at the time. If enhancement is applied by default, we may need a norm of preserving an “as-captured” version for high-stakes documents or at least a consistent protocol for when enhancement is acceptable. Convenience should not quietly rewrite provenance. Ethically, AI-mediated scanning raises a transparency obligation that sits with us, not with the app. If software decides capture timing, cropping boundaries, and enhancement levels, then responsibility still rests with us when a record is incomplete, misleading, or missing context. The ethical minimum is clarity and reviewability: we should be able to tell when automation was applied, quickly audit the output, and re-capture or retain a minimally processed version when accuracy is consequential. Data integrity is not only about malicious tampering; it is also about well-intended automation that erases clinically or scientifically meaningful detail. Looking forward, we can expect more of this “everyday AI”, quiet, embedded, and workflow-shaped rather than headline-grabbing. For researchers, clinicians, and graduate trainees, the practical task is to pair speed with governance: consistent naming, sensible foldering, routine spot-checking, and clear boundaries about where scans may be stored and shared. If we treat automatic scanning as a documentation instrument, subject to verification, responsibility, and traceability, then the shift can be genuinely beneficial. Paper will not disappear, but it may stop stealing so much attention from work that actually needs us.

English

One Framework, Many Workflows: A Deep Dive on the White House AI Blueprint—and Where It Still Feels Thin

The White House’s national AI policy framework released on March 20, 2026 (now a week old as of March 29, 2026) is best understood as a legislative blueprint, not a finished rulebook. It tries to set the terms of debate, what Congress should regulate, what it should avoid, and which risks deserve priority. For practitioners and researchers, the real question is whether this blueprint translates into operational protections or stays at the level of messaging. At the “explainer” level, the document groups its recommendations into seven areas: child safety, community protections, copyright, free speech, innovation, workforce training, and federal preemption. That structure is useful because it shows what the administration wants Congress to touch first. But it also signals a trade-off: breadth over depth, where each section can point in a direction without specifying standards, thresholds, or enforcement muscle. The deepest structural claim is the push for federal preemption, the idea that AI rules should be primarily national, not state-by-state. In theory, one standard could reduce compliance chaos and make cross-state deployment simpler. In practice, preemption is not neutral: it decides whether state-level guardrails become a testing ground for better protections, or get wiped out before they mature. On child safety and community protections, the framework’s instincts are broadly aligned with what we would expect from a risk-based approach: prioritize the most vulnerable and the most scalable harms. Yet “protect children” can become a banner that hides hard design questions, age assurance, data minimization, safe defaults, and meaningful auditing. Without concrete requirements (what must be tested, logged, and independently verified), the language risks becoming aspirational while harmful systems remain deployable. The copyright section is where the framework’s “innovation-first” posture shows most clearly, leaning toward legal permissiveness around training while suggesting courts sort out key disputes. That approach may reduce friction for model development, but it pushes uncertainty downstream onto institutions buying or deploying tools, universities, hospitals, and startups. When provenance is unclear, we end up normalizing “trust us” procurement, which is a weak foundation for public legitimacy and research reproducibility. The free speech framing also does important signaling, but it can blur a crucial distinction: protecting expression is not the same as avoiding accountability for amplification, targeting, fraud, or high-impact deception. If the policy conversation collapses into “regulation versus speech,” we lose precision about what should be regulated: measurable harms, manipulative design patterns, and negligent deployment in sensitive contexts. A framework can defend rights while still demanding auditable safety behaviors from powerful systems. Where the second half of the framework and the broader “DEEP DIVE” conversation around it, still feels flou, is in the missing operational spine. We want clearer definitions (what counts as a high-risk system), clearer obligations (what testing is mandatory before deployment), and clearer governance (incident reporting, red-team standards, independent audits, and post-deployment monitoring). “Regulatory sandboxes” are not a substitute for baseline protections; without stop-rules and external oversight, sandboxes can become a faster lane to release rather than a safer lane to evaluate. Finally, the framework under-specifies the clinical and research reality: privacy is not a footnote, evaluation is not optional, and “workflow integration” is where safety either holds or collapses. If preemption reduces state pressure without replacing it with enforceable federal standards, we risk a vacuum where vendors set the bar and institutions quietly absorb the risk. The framework becomes strongest when it turns values into requirements, what we must test, document, disclose, and monitor, because that is the only way “national leadership” becomes something we can actually practice.

French

Quand la numérisation devient invisible : vers un « papier → PDF » quasi automatique

Dans le travail clinique et de recherche, la numérisation ne vise pas un « beau » PDF ; elle sert surtout à ne pas alourdir les workflows. On scanne avenants, lettres d’orientation, listes de médicaments, CRF et notes manuscrites qui font foi. Des années durant, le mobile a amélioré l’image au prix d’une chorégraphie répétitive, cadrer, appuyer, confirmer, recommencer. Dans l’expérience récente de Google Drive, l’essentiel est l’interaction : moins de tapotements, capture continue et davantage de « jugement » logiciel sur le bon moment. Le scanner de Google Drive accepte le multi‑pages depuis longtemps, mais fonctionne désormais comme un vrai canal d’acquisition in‑app, pas un outil à part. Concrètement, on ne « lance » plus une appli pour exporter, renommer, téléverser ; on « crée un document » là où l’équipe stocke déjà ses fichiers. Quand la capture devient native à la plateforme quotidienne, l’adoption progresse sans formation. La nouveauté tient à la disparition des frictions, plus qu’à l’effet « waouh ». Le quasi‑automatisme vient de la chaîne détection–stabilisation–déclenchement, qui élimine les micro‑décisions. Au lieu de traiter chaque page isolément, le logiciel voit une séquence, aidant à stabiliser le téléphone et à avancer. Cette conception épouse la réalité du papier en clinique et au labo : groupé, urgent, rarement commode. Dès que la capture est continue, on dépense moins d’énergie sur la mécanique et plus sur la vérification et le classement. L’impact sur le flux ne tient pas qu’à la vitesse ; il améliore la gestion des interruptions. En clinique, moins de tapotements, c’est moins de pages manquées quand un appel ou une question coupe le geste. En administration de la recherche, c’est moins de retard pour clôturer des visites ou déposer des amendements sous délai. Promesse modeste mais réelle : des minutes gagnées, répétées des dizaines de fois, réduisent l’arriéré et renforcent la documentation. Reste que l’automatisation déplace les modes de défaillance. En manuel, on marque une pause pour vérifier ; avec une capture « au bon moment », les erreurs deviennent plus silencieuses. Un recadrage peut rogner une marge ; une « amélioration » peut éclaircir des traces de crayon tout en rendant la page plus nette. Plus les outils sont « utiles », plus ils interprètent l’image. D’où une tension autour de l’intégrité : plus la sortie est propre, moins on voit ce qui a changé. Pour les pièces à forts enjeux, il faut conserver une version « telle que capturée » ou, a minima, un protocole clair définissant quand l’amélioration est acceptable. La commodité ne doit pas réécrire la provenance. Éthiquement, la numérisation médiée par l’IA exige une transparence qui nous incombe. Même si le logiciel décide du déclenchement, du recadrage ou de l’amélioration, la responsabilité nous revient si l’enregistrement est incomplet, trompeur ou décontextualisé. Le minimum éthique : clarté et maîtrise, savoir quand l’automatisation intervient, auditer rapidement, et refaire ou conserver une version minimalement traitée quand la précision prime. L’intégrité des données concerne aussi l’automatisation bien intentionnée qui efface des détails significatifs. À l’avenir, on verra davantage d’« IA du quotidien » : discrète, intégrée, orientée workflow. Pour chercheurs, cliniciens et doctorants, l’enjeu est d’allier vitesse et gouvernance : nommage cohérent, arborescences sensées, contrôles ponctuels, règles claires de stockage et de partage. Si l’on traite la numérisation automatique comme un outil de documentation vérifiable, responsable et traçable, le tournant sera bénéfique. Le papier ne disparaîtra pas, mais il cessera peut‑être de capter une attention disproportionnée au détriment du travail qui requiert vraiment notre présence.

French

« AI Blueprint » de la Maison-Blanche : une architecture ambitieuse, mais encore incomplète

Le cadre national de politique publique sur l’IA de la Maison-Blanche, publié le 20 mars 2026 (il n’a qu’une semaine d’existence au 29 mars 2026), se lit comme un plan d’orientation législative plutôt que comme un règlement abouti. Il vise à poser les termes du débat — ce que le Congrès devrait encadrer, ce qu’il devrait éviter, et quels risques traiter en priorité. Pour les praticiens et les chercheurs, l’enjeu central est de savoir si ce plan directeur se traduira en protections opérationnelles ou s’il restera au stade du signal politique. Sur le plan « explicatif », le document regroupe ses pistes en sept blocs : protection de l’enfance, protection des communautés, droit d’auteur, liberté d’expression, innovation, formation de la main‑d’œuvre et préemption fédérale. Cette architecture éclaire les priorités que l’exécutif entend soumettre au Congrès. Elle trahit toutefois un arbitrage classique : privilégier l’ampleur sur la profondeur, avec des sections qui indiquent une direction sans toujours préciser normes, seuils ni modalités d’application. L’affirmation structurelle la plus nette concerne la préemption fédérale, l’idée que les règles d’IA devraient relever d’un cadre national plutôt que d’un patchwork État par État. Sur le papier, une norme unique réduit la complexité de conformité et facilite les déploiements inter‑États. Dans les faits, la préemption n’est jamais neutre : elle conditionne la capacité des États à servir de laboratoires de protection plus exigeants… ou, au contraire, à voir leurs garde‑fous balayés avant maturité. S’agissant de la protection des enfants et des communautés, l’intuition du cadre épouse une approche fondée sur les risques : prioriser les publics les plus vulnérables et les préjudices les plus diffusables. Mais « protéger les enfants » peut masquer des choix de conception âpres : vérification de l’âge, minimisation des données, réglages sûrs par défaut, audits substantiels. Sans exigences concrètes, ce qui doit être testé, journalisé et vérifié de manière indépendante, le langage reste programmatique tandis que des systèmes potentiellement nocifs demeurent déployables. La section droit d’auteur illustre au plus près le biais « innovation d’abord » du cadre, en penchant vers une permissivité autour de l’entraînement et en renvoyant aux tribunaux le soin de trancher l’essentiel des litiges. Cela lisse les frictions pour les développeurs de modèles, mais déporte l’incertitude vers l’aval, côté acheteurs et opérateurs, universités, hôpitaux, startups. Quand la provenance est floue, on finit par normaliser le « faites‑nous confiance », socle fragile pour la légitimité publique et la reproductibilité. Le cadrage de la liberté d’expression envoie des signaux utiles, mais il peut estomper une ligne décisive : protéger l’expression n’équivaut pas à exonérer l’amplification, le ciblage, la fraude ou la tromperie à fort impact. Si le débat se réduit à « régulation versus liberté d’expression », on perd en précision sur l’objet réel de la régulation : les dommages mesurables, les schémas de conception manipulateurs, les déploiements négligents en contextes sensibles. Un cadre peut défendre les droits tout en exigeant des garanties de sécurité auditées pour les systèmes puissants. Là où la seconde moitié du cadre, et la « plongée approfondie » qui l’accompagne, demeure floue, c’est sur l’ossature opérationnelle manquante. Il faut des définitions nettes (qu’est‑ce qu’un système à haut risque), des obligations explicites (quels tests pré‑déploiement), et une gouvernance robuste (déclaration d’incidents, standards de red teaming, audits indépendants, suivi post‑déploiement). Les bacs à sable ne sauraient tenir lieu de protections de base : sans règles d’arrêt et supervision externe, ils deviennent des voies rapides vers le marché, pas des voies plus sûres vers l’évaluation. Enfin, le texte sous‑appréhende la réalité clinique et de la recherche : la confidentialité n’est pas un appendice, l’évaluation n’est pas optionnelle, et « l’intégration aux workflows » est précisément l’endroit où la sécurité tient… ou s’effondre. Si la préemption affaiblit la pression des États sans la compenser par des normes fédérales exécutoires, on ouvre un vide où les fournisseurs fixent la barre et où les institutions absorbent, en silence, le risque. Le cadre gagne en crédibilité lorsqu’il convertit des valeurs en exigences : ce qu’il faut tester, documenter, divulguer et surveiller. C’est la seule manière de transformer une ambition nationale en pratiques vérifiables.

Shopping Cart