Français

Français

GPT5.5 et l'évolution du travail clinique : temps, contrôle et responsabilité

Dans les cliniques et les laboratoires de recherche, la difficulté principale n’est souvent pas le jugement clinique lui-même, mais la préservation du temps et de l’espace mental nécessaires à ce jugement. Les notes s’accumulent, les emails et formulaires se multiplient, les analyses attendent un moment de calme qui n’arrive jamais, et les décisions doivent malgré tout être formalisées clairement. C’est dans ce contexte que GPT5.5 devient cliniquement pertinent : non pas comme un modèle plus spectaculaire, mais comme un levier de transformation des flux de travail. OpenAI le décrit comme plus rapide pour comprendre l’intention, plus performant sur des tâches complexes, et plus efficient en tokens, ce qui se traduit souvent par des itérations plus rapides ou moins coûteuses. En pratique, « comprendre ce que vous essayez de faire » distingue un assistant qui se contente de reformuler des phrases d’un outil qui aide à préserver le raisonnement clinique sous contrainte temporelle. Prenons l’exemple d’une évaluation complexe où antécédents traumatiques, troubles du sommeil, usage de substances et symptômes thymiques entrent en compétition explicative. Un modèle plus performant peut aider à maintenir une narration cohérente, suivre les hypothèses en cours et distinguer les données observées des inférences. Le risque est que la cohérence donne l’illusion de la vérité et favorise une fermeture prématurée du raisonnement. L’efficience en tokens peut sembler technique, mais elle influence les comportements en modifiant la fréquence des révisions. Si la réécriture d’un formulaire de consentement, l’amélioration d’un email de supervision, la simplification de consignes de sortie ou la traduction de psychoéducation deviennent plus faciles, les équipes itéreront davantage, ce qui peut améliorer la clarté et réduire les erreurs. À l’inverse, une friction réduite peut favoriser un élargissement des usages vers des tâches à plus fort enjeu. Lorsque le langage devient facile à produire, l’incertitude peut se transformer en discours assuré. Un changement plus profond concerne le travail agentif, c’est-à-dire la capacité de l’outil à faire avancer les tâches à travers plusieurs étapes et outils, et pas seulement à produire du texte. En recherche, cela peut resserrer la boucle entre plan d’analyse, code et rédaction. En clinique, cela peut accélérer la production de premières versions de lettres, synthèses et guides, qui nécessitent néanmoins validation et signature par un clinicien. La promesse est une réduction de la charge administrative, et non un remplacement du raisonnement clinique. Un effet plus discret concerne le travail en équipe. Si un outil conserve le contexte, suit les dépendances et propose des actions suivantes, les professionnels peuvent externaliser la planification et la synthèse, ce qui allège la charge mais peut aussi éroder des compétences de sécurité essentielles : détecter les incohérences, remettre en question les hypothèses et identifier les éléments manquants. Des outils plus performants n’éliminent pas les biais ; ils les redistribuent souvent. Des productions soignées peuvent induire un biais d’automatisation (« cela semble validé »), et des formulations initiales peuvent s’ancrer durablement même lorsque de nouvelles données apparaissent. La mesure de protection la plus concrète consiste à maintenir une structure clinique explicite, même lorsque la rédaction devient fluide. Il est utile de distinguer systématiquement faits, interprétations et décisions, et de solliciter régulièrement des alternatives : quelles autres hypothèses pourraient expliquer ce tableau, quels éléments permettraient de les invalider, et quelles incertitudes persistent. En recherche, l’usage le plus rigoureux concerne souvent le soutien méthodologique plutôt que la génération narrative, par exemple pour clarifier des pré-enregistrements, documenter les étapes de traitement des données et standardiser les rapports. À mesure que les capacités augmentent, le contrôle des versions devient central : prompts, productions intermédiaires, modifications et décisions finales doivent être traçables pour l’évaluation par les pairs ou l’audit. Sur le plan éthique, la responsabilité incombe toujours au clinicien ou au chercheur, et non à l’interface. Même si les documents systèmes décrivent des mesures de sécurité, ils ne remplacent pas la gouvernance locale, les contrôles de confidentialité et les règles encadrant les données pouvant être partagées, ainsi que les validations nécessaires pour les contenus destinés aux patients ou influençant les décisions. La transparence implique de pouvoir expliquer ce que le modèle a modifié, ce qu’il n’a pas modifié, et comment les productions ont été vérifiées. La surveillance des biais doit rester active, car une langue fluide peut masquer des erreurs inégales selon les contextes culturels, les handicaps, le niveau de littératie ou les conditions socio-économiques, en particulier dans les contenus traduits ou simplifiés. La conclusion doit rester mesurée. L’enjeu n’est pas l’automatisation du jugement, mais l’amélioration des conditions dans lesquelles il s’exerce. Si l’efficience en tokens libère du temps et que les outils réduisent la charge administrative, l’attention peut se recentrer sur la qualité de la formulation clinique, l’alliance thérapeutique, la mesure et la rigueur méthodologique. La question clé n’est pas de savoir si GPT5.5 « fonctionne », mais dans quelles conditions il améliore les décisions, comment il échoue sous contrainte, et quelles structures de responsabilité garantissent que le raisonnement humain reste clairement au centre.

Français

La course sensée : le sprint des mises à jour en IA

En avril 2026, les entreprises d’IA ont publié de nouveaux outils à un rythme très rapide, presque comme si elles couraient un marathon à la vitesse d’un sprint. Cela peut sembler déroutant ou accablant. Pourtant, le changement principal est significatif : ces outils ne sont plus seulement des « chatbots ». Ils deviennent des outils de travail capables de produire des éléments que nous utilisons au quotidien : documents, synthèses, visuels, formulaires et ébauches de décisions. La question « Quel est le meilleur modèle d’IA ? » apparaît généralement dans des tâches concrètes. Par exemple : rédiger une fiche patient compréhensible, construire une page web d’étude ou tester un nouveau formulaire d’admission avant des échéances de financement. Le risque est que l’IA produise des contenus propres et assurés avant que leur exactitude n’ait été vérifiée. Il est donc essentiel de maintenir des habitudes cliniques solides : expliciter l’incertitude, conserver les versions, et vérifier systématiquement à l’aide de sources fiables et d’utilisateurs réels. Voici les mises à jour récentes les plus commentées. OpenAI a lancé ChatGPT Images 2.0 le 21 avril 2026, ainsi qu’un document de sécurité détaillant les risques liés aux images réalistes ou trompeuses. Anthropic a publié Claude Opus 4.7 et introduit Claude Design (un outil de type « canvas » pour la création d’actifs visuels) en version de recherche le 17 avril 2026. Google a lancé Gemini 3.1 Pro (Preview) le 19 février 2026, puis Gemini 3.1 Flash Lite (Preview) le 3 mars 2026. Comparaison des modèles Modèle Entreprise Fenêtre de contexte Indice d’intelligence Prix (USD / 1M tokens) Vitesse de sortie (tokens/s) Latence (TTFT, s) GPT-5.5 (xhigh) OpenAI 922k 60 11.25 74 63.19 GPT-5.5 (high) OpenAI 922k 59 11.25 78 28.01 Claude Opus 4.7 (max) Anthropic 1M 57 10.00 48 17.57 Gemini 3.1 Pro (Preview) Google 1M 57 4.50 116 21.53 Gemini 3.1 Flash Lite (Prev) Google 1M 34 0.56 313 5.08 Un changement majeur est que l’IA crée désormais des « objets avec lesquels penser ». Cela inclut non seulement du texte, mais aussi des prototypes, des présentations, des interfaces d’admission et des synthèses structurées de cas. Ces productions peuvent accélérer le travail en équipe et améliorer la collaboration. Mais elles peuvent aussi figer des hypothèses précoces : si quelque chose est facile à générer, cela devient facile à tester, financer et déployer, même si ce n’est pas la meilleure option sur le plan clinique. C’est pourquoi le coût et la vitesse comptent, et pas seulement le niveau d’intelligence perçu. Certains modèles peuvent être performants en raisonnement mais sembler lents en pratique car ils mettent plus de temps à démarrer. Dans les flux de travail cliniques, un outil perçu comme lent est souvent abandonné, même s’il est techniquement supérieur. Alors, quel est le « meilleur » modèle ? Une approche pragmatique consiste à identifier le principal risque. Si le risque majeur concerne des erreurs conceptuelles ou factuelles, il peut être pertinent d’accepter un coût plus élevé ou une vitesse moindre, en ajoutant une relecture humaine rigoureuse avant toute utilisation auprès d’un patient. Si le principal enjeu est le volume (notes, formulaires, traductions), un modèle plus rapide et moins coûteux peut être adapté, à condition d’intégrer des gabarits, des règles et des étapes de vérification. Le principal risque éthique apparaît lorsque l’IA produit quelque chose qui semble « finalisé » : une fiche soignée, une présentation structurée ou une interface claire. Lorsqu’un contenu paraît professionnel, il inspire davantage confiance, parfois trop rapidement. C’est pourquoi la responsabilité reste humaine : indiquer l’usage de l’IA, conserver une traçabilité des prompts, des versions et des sources, et tester les supports avec des utilisateurs réels (patients, familles, équipes). Si l’IA influence les parcours de soins, alors l’accessibilité, la langue, l’adéquation culturelle et la gestion des données deviennent des enjeux de qualité clinique, et non de simples aspects techniques. Les mises à jour vont se poursuivre. La posture la plus sûre n’est ni de refuser l’IA, ni de lui faire confiance parce qu’elle est nouvelle. Elle consiste à générer rapidement, mais interpréter lentement. Choisir les outils en fonction des zones où les erreurs peuvent causer des dommages, et placer les contrôles précisément là où ces dommages sont les plus susceptibles de survenir. Si vous souhaitez suivre les évolutions des indicateurs de prix, vitesse et latence, la source de comparaison utilisée ici est le classement d’Artificial Analysis : https://artificialanalysis.ai/leaderboards/models

Français

Happy Brain Training Community : reste informé, éthique et inspiré à l'ère de l'IA

Aujourd’hui, l’IA semble apparaître partout à la fois. Un collègue évoque un nouvel outil de rédaction de notes entre deux séances, un patient cite une réponse donnée par un chatbot, et une plateforme ajoute discrètement une fonctionnalité d’IA que vous n’aviez pas demandée. Au cœur du travail clinique réel, il devient difficile de distinguer ce qui est véritablement utile, ce qui relève de l’effet de mode et ce qui soulève des enjeux éthiques. C’est pour cette raison que nous avons créé la Happy Brain Training Community. Il s’agit d’un espace gratuit destiné à tous les thérapeutes qui souhaitent rester informés des avancées en intelligence artificielle et en thérapie, sans surcharge informationnelle ni pression à devenir experts techniques du jour au lendemain. Nous l’avons conçu comme nous souhaiterions qu’un espace professionnel soit : pratique, chaleureux et réaliste quant à ce qui aide réellement. Au sein de la communauté, nous partageons ce qui compte pour la pratique quotidienne. De nouveaux outils d’IA, des mises à jour en santé et des innovations qui ont un impact concret en thérapie, et pas seulement en théorie. Nous publions également des annonces de formations à venir, afin d’éviter de dépendre de publications dispersées ou de rappels de dernière minute. L’ensemble est entièrement gratuit, pensé pour vous aider à rester informé, inspiré et prêt pour l’avenir de la thérapie. Nous accordons également une attention particulière aux enjeux éthiques. Un outil utile n’est pas automatiquement un outil sûr, notamment lorsqu’il est question de confidentialité, de biais et de responsabilité clinique. Nous revenons à une posture clinique familière : ralentir, nommer clairement les risques et choisir des garde-fous qui protègent à la fois les patients et notre responsabilité professionnelle. Cette approche est cohérente avec les recommandations majeures en matière d’IA responsable en santé et de gestion des risques. Concrètement, cette communauté vise à réduire la fatigue décisionnelle. Plutôt que de réinventer chacun de notre côté, nous pouvons comparer les pratiques en matière de planification de séances, de psychoéducation et d’organisation du travail thérapeutique, tout en restant clairs sur ce qui ne doit jamais être automatisé. Elle offre également un espace pour aborder des questions concrètes : comment répondre à un patient qui s’appuie sur des conseils générés par une IA, ou comment poser des limites lorsqu’un outil semble utile mais éthiquement incertain. Un point important : pour des raisons internationales, la langue de la communauté est l’anglais, afin de permettre des échanges entre thérapeutes de différents pays et systèmes. Notre intention est simple : rester informé, rester éthique, rester inspiré. Si cela vous parle, nous serons ravis de vous accueillir. Lien : https://chat.whatsapp.com/ELZIqaf4eY6C7MoROCPrG7

Français

« JITRO » de Google et la logique clinique d'une IA orientée par objectifs : quand les systèmes cessent d'attendre des invites

Lors des réunions de recherche clinique, une tension récurrente devient difficile à ignorer : nous souhaitons une automatisation qui réduise les erreurs et libère de l’attention pour le jugement, tout en redoutant de perdre en visibilité sur la manière dont les décisions sont produites. C’est dans ce contexte que circulent des publications et commentaires en ligne sur « JITRO » de Google. L’idée centrale n’est pas une simple évolution des copilotes existants, mais l’émergence d’une catégorie différente d’IA, qui n’attend plus d’instructions ponctuelles parce qu’elle est structurée autour d’objectifs plutôt que d’échanges conversationnels. Dans ces descriptions, JITRO est présenté comme un agent de codage autonome développé par Google, constituant une étape de nouvelle génération au-delà de Jules. L’interaction proposée s’apparente davantage à une délégation : vous définissez un résultat, et le système détermine le chemin, les étapes intermédiaires et le plan d’exécution. Autrement dit, il s’agit d’un passage d’une IA outil à une IA auto-pilotée, où le rôle humain évolue d’opérateur à superviseur plutôt que rédacteur principal. Il est utile d’ancrer cela dans les éléments officiellement documentés. Jules est présenté comme un agent de codage asynchrone capable de travailler sur un dépôt dans un environnement cloud dédié, de proposer un plan, d’implémenter des modifications, puis de dépendre d’une validation humaine avant intégration. Ce choix de conception n’est pas anecdotique : il incarne un principe de sécurité déjà familier en formation Clinique, l’autonomie peut être utile, mais elle doit rester encadrée par des productions vérifiables et une validation responsable. Pour les cliniciens et les chercheurs en santé, un « agent de codage autonome » devient pertinent dès lors que l’on reconnaît que notre base de connaissances est médiée par des logiciels. Les essais et évaluations de services reposent sur des scripts de prétraitement, du code de cotation, des tableaux de bord d’événements indésirables et des analyses versionnées susceptibles de dériver sans être détectées. Un système capable d’identifier les modifications nécessaires dans un code pour améliorer la couverture de tests ou réduire les erreurs peut renforcer la fiabilité, mais il déplace également le risque vers l’infrastructure qui rend nos méthodes opérantes. La différence avec les outils basés sur des prompts ne tient pas seulement à la vitesse, mais à une redistribution de la décomposition des tâches. Dans un flux de travail guidé par prompts, l’humain découpe les étapes et oriente en continu. Dans un flux orienté par objectifs, le système effectue lui-même cette décomposition, et vous évaluez ensuite le plan, les modifications et les preuves que l’objectif est atteint. Cliniquement, cela s’apparente à la différence entre guider un stagiaire minute par minute et superviser un plan de prise en charge autonome. La recherche sur les facteurs humains aide à comprendre pourquoi cette transition peut sembler trompeusement « facile ». À mesure que les systèmes passent de l’assistance à l’action, le rôle humain devient celui de la surveillance, une activité cognitivement exigeante et vulnérable à la surconfiance sous pression temporelle. Dans l’aide à la décision clinique, le biais d’automatisation correspond à une diminution de la détection d’erreurs en présence de suggestions automatisées, en particulier lorsque les flux de travail valorisent la rapidité. Un agent d’ingénierie persistant peut créer une vulnérabilité analogue : plus il paraît compétent, moins nous interrogeons les cas limites. C’est pourquoi l’accent mis sur les points de validation n’est pas un simple détail technique. L’enjeu pratique est de savoir si ces points offrent une véritable inspectabilité, plans clairs, preuves de test, correspondance intelligible entre objectifs et modifications de code, plutôt qu’un simple feu vert final. Sans justifications lisibles et validation significative, le « human-in-the-loop » risque de devenir performatif, en particulier dans des bases de code volumineuses où personne ne peut tout examiner de manière exhaustive. Plusieurs incertitudes doivent être explicitement reconnues. Le terme « JITRO » apparaît davantage dans des commentaires informels que dans une documentation technique primaire, ce qui implique de considérer ses capacités comme provisoires. Néanmoins, en tant que concept, il cristallise une transition en cours : ne plus considérer l’IA comme quelque chose que l’on sollicite par prompts, mais comme un système à qui l’on donne une direction. Ce changement de perspective peut rendre les outils existants plus puissants, tout en transformant la définition des objectifs en un acte méthodologique à part entière. Sur le plan éthique, les agents orientés par objectifs accentuent des obligations déjà bien établies en contexte clinique et de recherche. La responsabilité demeure du côté de l’équipe humaine, même lorsque le système est l’auteur proximal des modifications ; la transparence doit être conçue de manière à rendre les décisions reconstructibles ; et l’intégrité des données repose sur des dispositifs de gouvernance, de test et d’audit capables de détecter les dérives. Les cadres de gestion du risque insistent sur la responsabilité et le suivi continu, et ces exigences deviennent plus importantes, et non moins, à mesure que l’autonomie augmente. L’attitude la plus constructive n’est ni le rejet ni l’enthousiasme naïf, mais une curiosité disciplinée : si les agents orientés par objectifs deviennent des coéquipiers en ingénierie, nous devons développer une science de la supervision à la hauteur. Cela implique d’étudier quels dispositifs de validation réduisent réellement les erreurs, comment quantifier la dérive dans des pipelines modifiés par des agents, et comment préserver l’interprétabilité lorsque les plans sont générés par des systèmes optimisés pour le débit. La transition est peut-être en cours, mais sa valeur clinique dépendra de notre capacité à concilier automatisation orientée vers les résultats, rigueur méthodologique et responsabilité.

Français

Un nouveau risque cyber dans la salle de thérapie : pourquoi Project Glasswing change l'équation de la confiance

La cybersécurité n’est plus un problème technique de niche. C’est une condition de la vie moderne : banque, éducation, services publics et santé reposent sur des couches fragiles de logiciels que nous voyons rarement. La plupart des gens ne remarquent cette fragilité que lorsque quelque chose déraille : une panne, une violation, un compte bloqué, un système soudainement indigne de confiance. Le risque est large, mais les conséquences ne sont pas également réparties. En santé, cette inégalité se fait sentir rapidement. Lorsque les systèmes numériques défaillent, les soins ne se mettent pas poliment en pause le temps du rétablissement. Les personnes se présentent toujours en détresse, en insécurité ou en pleine crise, et les cliniciens doivent continuer de décider avec des informations incomplètes. L’« incident technique » devient humain, souvent en quelques minutes. C’est pourquoi les thérapeutes doivent s’y intéresser, même si la conversation semble éloignée du quotidien clinique. En thérapie, la cybersécurité ne s’annonce que rarement comme telle. Elle se manifeste par une séance annulée inopinément parce que la planification est en panne, un lien de téléconsultation qui échoue à la dernière minute, ou une clinique soudain incapable d’accéder aux notes. Elle se manifeste aussi lorsqu’un client demande, calmement mais directement, si ses messages sont réellement privés. Dans ce contexte, l’annonce d’Anthropic du 7 avril 2026 sur Project Glasswing est plus qu’une actualité technologique. L’entreprise y décrit un modèle non publié, Claude Mythos Preview, et insiste sur le fait qu’il ne sera pas rendu disponible au grand public. Il est plutôt acheminé via un programme restreint, présenté comme à usage défensif. Lorsqu’un laboratoire d’IA décide qu’un modèle est trop capable pour être diffusé, c’est un signal sur l’orientation du paysage des menaces. La raison clé avancée pour ce verrouillage est simple et troublante : Anthropic présente Mythos Preview comme étant capable de trouver des vulnérabilités graves avec très peu de pilotage humain. En termes clairs, il repérerait des points faibles logiciels plus vite et de façon plus autonome que les systèmes antérieurs. Même si l’intention est défensive, la capacité en elle‑même importe, car les capacités tendent à se diffuser et les attaquants s’adaptent. Les exemples d’Anthropic sont de ceux qui mettent mal à l’aise, à juste titre, les non‑techniciens. Ils mettent en lumière des faiblesses dans des logiciels fondamentaux très utilisés et décrivent des cas où des problèmes ont persisté des années, voire des décennies, sans être détectés. Voilà la vérité inconfortable de l’infrastructure numérique : beaucoup de systèmes que nous pensons stables sont assemblés à partir de bases de code anciennes, à maintenance inégale et à la complexité cachée. Si cela paraît encore abstrait, ramenons‑le aux outils que nous utilisons effectivement. Les plateformes de téléconsultation reposent sur des navigateurs, des systèmes d’exploitation, des serveurs et des bibliothèques tierces. Les systèmes d’agenda et les portails patients dépendent d’intégrations et d’API qui peuvent multiplier silencieusement les risques. Une vulnérabilité « quelque part en amont » peut se traduire par une indisponibilité, une exposition de données ou une interruption de service au point de contact entre le client et le soin. Il existe aussi une question structurelle importante pour la santé : qui accède aux moyens de protection les plus puissants, et quand ? Restreindre un modèle très performant peut réduire les mésusages immédiats, mais concentre aussi le pouvoir et l’expertise entre quelques organisations. Les petites cliniques et éditeurs se retrouvent dépendants de calendriers de sécurité, de priorités et de décisions de divulgation qu’ils ne voient ni n’influencent aisément. Cet écart, entre attentes éthiques et réalités techniques, peut devenir un problème de confiance. Concrètement, cela nous pousse vers une vision plus explicite et systémique du risque clinique. Nous ne pouvons pas corriger des systèmes d’exploitation, mais nous pouvons intégrer la maturité cybersécurité à la qualité des soins. Cela signifie poser de meilleures questions à l’achat, exiger des engagements clairs de réponse aux incidents de la part des fournisseurs, et maintenir des protocoles de continuité en mode dégradé. Cela signifie aussi réduire les « outils fantômes » et les modules IA non gérés qui élargissent la surface d’attaque sans supervision. Éthiquement, l’enjeu n’est pas d’alimenter la panique, mais d’exiger une confiance défendable. En contexte clinique, « digne de confiance » devrait signifier qu’il existe des traces décisionnelles explicables : quel système a été utilisé, quelles données ont circulé, quelles protections étaient en place, quelle journalisation et quel audit existaient, et comment les erreurs ou incidents seront corrigés et divulgués. Les clients ne devraient pas avoir à s’en remettre à une infrastructure invisible et « espérer le meilleur » ; ils méritent des systèmes de soin conçus pour échouer sans nuire. Project Glasswing préfigure une nouvelle phase : l’IA ne transforme pas seulement les outils cliniques, elle modifie aussi l’environnement de sécurité dans lequel ces outils s’inscrivent. La confiance des patients dépend de la confidentialité, de l’intégrité et de la disponibilité, des propriétés qui reposent sur une infrastructure désormais mise à l’épreuve par des systèmes de plus en plus autonomes. Pour les thérapeutes, la tâche est de préserver le cadre clinique à mesure que le cadre technique s’accélère : protéger la continuité, protéger la vie privée et plaider pour des systèmes que nous pouvons réellement assumer.

Français

Quand le modèle reste sur votre appareil : Gemma 4, « gratuit pour toujours » et que la confidentialité signifie vraiment

En clinique, le point de friction n’est presque jamais la curiosité pour l’IA ; c’est la gouvernance. Un supervisé souhaite de l’aide pour réécrire un rapport scolaire sensible, résumer une évaluation en ergothérapie ou rédiger un formulaire de consentement en arabe simplifié, puis pose la question que nous connaissons tous : « Puis-je coller le texte réel ? » L’inconfort éthique tient au fait que la plupart des systèmes conversationnels sont, par conception, médiés par le cloud, et notre réponse devient alors un cours de gestion des risques plutôt qu’un appui cliniquement utile. C’est pourquoi l’affirmation « Imaginez ChatGPT, mais installé directement sur votre appareil… privé, hors ligne et gratuit » se diffuse si rapidement. Elle évoque la réconciliation promise entre capacité et confidentialité. Mais les slogans ne sont pas des garde-fous, et « l’énergie de PDG » ne constitue pas un cadre de gouvernance clinique. Même lorsqu’un outil provient d’une grande entreprise, la marque ne remplace pas l’évaluation des flux de travail, de l’auditabilité et des modes de défaillance. Ce que cela traduit plus précisément, c’est l’essor d’un écosystème de modèles « local capable », dont Gemma 4, téléchargeables et exécutables dans des environnements contrôlés. La promesse est simple : poser des questions, générer du texte, structurer la documentation et, dans certaines configurations, traiter aussi des tâches liées à l’image, avec un calcul effectué sur votre propre appareil. Ce détail — l’endroit où s’exécute le modèle — n’est pas anecdotique : il est au cœur de la confidentialité. La question du « prix » est déterminante pour les thérapeutes, car elle modifie les dynamiques d’adoption. Si un modèle est « gratuit » à télécharger et à exécuter, la contrainte se déplace vers les exigences matérielles et le temps de configuration. Vous « payez » autrement : batterie, chauffe, stockage, maintenance et dépannage. Mais le changement psychologique est majeur : la technologie devient suffisamment accessible pour s’intégrer dans des pratiques réelles, et non plus seulement comme un outil expérimental. La comparaison est donc pertinente, car elle touche au cœur du flux de travail : vous choisissez une IA, mais aussi un circuit de données. Gemma 4 est une option locale, mais pas la seule. De nombreux utilisateurs exécutent également des modèles de type DeepSeek, tandis que d’autres optent pour Llama, Mistral ou Qwen selon leur matériel et leurs contraintes de licence. En résumé : les modèles locaux peuvent soutenir une confidentialité plus stricte en gardant les données en interne, tandis que les modèles cloud (ChatGPT, Claude, Gemini) offrent davantage de commodité et d’évolutivité, mais exigent des règles plus rigoureuses. La formule « Google ne voit rien » n’est donc vraie que sous une condition précise : une exécution réellement locale. Le « local » n’est pas une perception, mais une implémentation : exécution hors ligne, absence de téléversements, paramètres vérifiables. Toute utilisation via navigateur ou application web doit être considérée comme du cloud. Cliniquement, l’intérêt majeur de l’IA locale n’est pas la nouveauté, mais l’élargissement des tâches réalisables sans exposition de données sensibles : rédaction de courriers, psychoéducation, adaptation de supports, création de canevas de séance. Cela réduit la charge administrative tout en respectant davantage l’esprit de la confidentialité. Cependant, une question essentielle demeure : cela améliore-t-il réellement le raisonnement clinique ? Le risque est qu’une production fluide donne l’illusion d’une validité clinique. L’IA doit rester un outil de structuration et non un substitut au jugement clinique. L’idée de « sans limites » doit également être nuancée. Les modèles locaux ne sont pas limités par un abonnement, mais restent contraints par le matériel. Et surtout, « hors ligne » ne signifie pas « fiable » : biais et hallucinations persistent. Sur le plan éthique, l’IA locale concentre la responsabilité. Utiliser des données identifiables implique de maîtriser la sécurité de l’appareil, la journalisation, la provenance du modèle et la traçabilité de l’usage. La transparence devient une pratique : documenter quand et comment l’IA est utilisée. Ce qui est cliniquement intéressant, ce n’est pas l’illusion d’une « IA privée parfaite », mais la possibilité de concevoir des usages hybrides et nuancés : modèles locaux pour les contenus sensibles, systèmes cloud pour les tâches documentaires sous gouvernance.

Français

Quand les données de santé comportent un interlocuteur : les nouvelles intégrations de Perplexity, vues depuis la salle de thérapie

En thérapie, les « données de santé » arrivent rarement sous la forme d’un récit clair, et la dernière mise à jour santé de Perplexity s’inscrit précisément dans cette réalité. L’annonce met en avant de nouvelles intégrations permettant de rassembler des informations personnelles de santé, de les organiser dans des tableaux de bord, puis de les utiliser pour produire des synthèses et formuler des questions plus claires avant les consultations médicales. Depuis notre place de thérapeutes, une question humaine surgit immédiatement : qu’est-ce qui change lorsqu’une personne peut regrouper ses signaux de santé en un seul endroit et réellement en parler, au lieu de les traquer à travers une multitude d’applications ? Du point de vue thérapeutique, le bénéfice idéal est simple et concret : la mise en structure. Beaucoup de clients ont du mal à résumer ce qu’ils vivent d’une manière réellement exploitable par un clinicien : quand cela a commencé, ce qui le déclenche, ce qui l’améliore ou l’aggrave, ce qui a déjà été essayé, ce qui a changé, et comment cela affecte le sommeil, le travail, l’appétit, l’humeur ou les relations. Si un outil peut aider à élaborer un résumé préconsultation à partir du désordre de la vie réelle, il peut alléger la charge cognitive, réduire la honte « je n’arrive pas à bien l’expliquer » et permettre d’aborder un rendez-vous avec des questions plus claires et moins d’omissions. Mais les limites et les difficultés sont bien réelles, et ne tiennent pas seulement au paramétrage. Le principal enjeu clinique que nous observons est qu’un tableau de bord unifié peut insidieusement devenir un « moniteur de menace ». Chez les clients sujets à l’anxiété de santé, à la panique, aux conduites de réassurance de type TOC, à l’hypervigilance corporelle liée au traumatisme ou au stress chronique, davantage de suivi ne signifie pas toujours davantage de clarté. Cela peut au contraire multiplier les vérifications, amplifier des fluctuations normales et maintenir le système nerveux en état d’alerte, surtout lorsque les chiffres sont vécus comme des verdicts plutôt que comme des éléments de contexte. Un autre risque est celui d’une fausse clarté. Les objets connectés produisent des données bruitées, les bilans biologiques ne donnent que des instantanés, et les dossiers médicaux peuvent être incomplets ou incohérents. Lorsqu’un résumé généré par une IA adopte un ton trop assuré, il peut orienter vers des conclusions qui ne sont pas réellement étayées, tantôt en alimentant la catastrophisation, tantôt en minimisant quelque chose d’important. En thérapie, nous nous soucions moins de savoir si l’outil est « intelligent » que de sa capacité à communiquer l’incertitude avec honnêteté, et de la capacité de la personne qui l’utilise à tolérer cette incertitude sans s’emballer. S’ajoute à cela une difficulté plus élémentaire : l’accès et l’usage. Intégrer des comptes, gérer les autorisations et relier des dossiers peut être déroutant, et ceux qui ont le plus besoin de soutien sont souvent les moins équipés pour résoudre seuls une configuration complexe, surtout lorsqu’ils sont déjà épuisés, douloureux ou submergés. Si l’outil devient une tâche supplémentaire dans laquelle ils ont le sentiment d’« échouer », il peut renforcer précisément le sentiment d’impuissance que nous cherchons à atténuer. La confidentialité constitue un défi plus discret, qui apparaît souvent plus tard en séance. Les personnes ne téléversent pas seulement des « données de santé » ; elles téléversent aussi de la peur, de la vulnérabilité, et tout un contexte qui déborde sur la santé mentale, les relations, l’usage de substances, la santé sexuelle ou l’histoire traumatique. En situation de détresse, on est facilement tenté d’échanger de la confidentialité contre de la réassurance. Une part de notre travail consiste à ralentir ce moment, non pour juger ce choix, mais pour aider la personne à le faire de manière éclairée. Si nous devions intégrer ce type d’outil en thérapie, nous le traiterions comme un support collaboratif, non comme une autorité. Nous apporterions le résumé, puis nous ferions ce que la thérapie sait faire de mieux : ralentir, confronter à la réalité, et traduire cela en prochaines étapes. Qu’est-ce qui manque ? Qu’est-ce qui relève peut-être d’une surinterprétation ? Cet outil renforce-t-il votre pouvoir d’agir, ou alimente-t-il une forme de surveillance compulsive ? Utilisés avec discernement, ces outils peuvent favoriser de meilleures conversations avec les soignants. Utilisés sans précaution, ils peuvent donner au récit une cohérence apparente tout en augmentant subrepticement l’anxiété. La différence tient rarement à la technologie seule ; elle réside dans la relation que la personne construit avec elle.

Français

La « sécurité » de l'IA n'est pas la sécurité clinique : ce que la tendance de recherche implique pour notre pratique thérapeutique

Un point utile à garder à l’esprit est le suivant : de nombreux chatbots d’IA paraissent « sûrs » lors des tests parce qu’ils refusent les demandes manifestement nocives, mais peuvent malgré tout répondre de manière non sécurisée lorsque la même intention est formulée de façon indirecte. On parle souvent d’une sécurité fondée sur des mots‑clés (repérer des termes signalés) par opposition à une sensibilité à l’intention (comprendre ce que la personne cherche réellement à faire). Autrement dit, le modèle peut réussir des contrôles de sécurité en reconnaissant certains termes, tout en échouant lorsque la détresse est exprimée dans un langage plus humain et ambigu. Ce que cela signifie pour notre pratique thérapeutique est immédiat : nos clients parlent rarement un « langage du risque » clair et explicite. Ils testent le terrain. Ils minimisent. Ils recourent aux métaphores. Ils alternent les registres. Ils communiquent par le ton et l’omission. Si un outil ne « détecte » le risque que lorsque le client emploie les bons mots, il reproduit la forme d’évaluation la moins utile, celle qui récompense la performance et passe à côté de l’expérience vécue. Deuxième réalité clé : de nombreux modèles sont entraînés à être chaleureux, validants et accommodants. Cela peut sembler soutenant, mais cliniquement nous savons qu’une validation sans discernement peut se muer en renforcement. En tant que thérapeutes, nous validons l’émotion tout en examinant avec nuance et tact les distorsions, en vérifiant la réalité et en observant le fonctionnement dans le temps. Une IA peut, sans le vouloir, valider simultanément l’émotion, l’interprétation et le plan impulsif, car elle est optimisée pour être aidante et cohérente, non pour répondre à une exigence de responsabilité clinique. S’ajoute le biais de l’IA, et en thérapie nous devons partir du principe qu’il se manifeste de façons qui comptent. Les modèles peuvent répondre différemment selon le dialecte, l’anglais en seconde langue, des expressions de la douleur façonnées par la culture, ou même selon le degré d’« organisation » apparente du récit. Le client désorganisé, répétitif ou fragmenté (souvent celui qui a le plus besoin d’aide) peut recevoir une réassurance générique, tandis que le client articulé et persuasif obtient des réponses plus détaillées et plus convaincantes. Ce n’est pas seulement injuste, cela peut fausser l’évaluation du risque, l’alliance et la prise de décision. Concrètement, lorsqu’un client nous dit qu’il utilise un chatbot, nous ne le considérons plus comme un détail anecdotique : nous le traitons comme une nouvelle « un troisième interlocuteur» dans le système. Nous demandons : Quand l’utilisez‑vous, avant de dormir, après des disputes, en plein épisode de panique ? Que dit‑il le plus souvent ? Vous sentez‑vous plus calme, ou plus certain ? Réduit‑il la honte, ou vous maintient‑il dans une boucle ? Cette évaluation nous fournit des données cliniques : le rôle de l’outil (apaisement, escalade, évitement, répétition) et la relation du client avec lui (dépendance, secret, soulagement, honte). En séance, ces informations nous amènent à expliciter davantage la différence entre validation émotionnelle et contenance clinique. Nous pourrions dire : « Un chatbot peut paraître attentionné tout en manquant ce que nous suivons, les schémas de risque, les déclencheurs, les signatures de rechute, la coercition, la dissociation, les réponses traumatiques. » Ce n’est pas de l’anti‑tech ; c’est de la psychoéducation. Cela aide les clients à comprendre pourquoi « je me suis senti soutenu » n’équivaut pas à « c’était sûr pour mon système nerveux et pour mes conséquences réelles ». Cela modifie aussi notre manière d’aborder les conversations sur le risque. Parce que la sécurité de l’IA peut être guidée par des signaux, nous supposons que les clients ont pu apprendre (sans le vouloir) que certains formulations sont bloquées tandis que d’autres sont encouragées. Cela peut influencer la divulgation : les clients peuvent éviter un langage direct, ou répéter des récits qui « sonnent » plus sûrs. Concrètement, nous aménageons davantage d’espace pour une mise en mots progressive: « Si c’est difficile à dire franchement, pouvons‑nous l’encercler, quels sont les mots les plus proches que vous pouvez tolérer maintenant ? » On garde ainsi la porte ouverte sans exiger une performance. Côté praticiens, cela nous pousse à resserrer les limites et la documentation dès que l’IA touche notre flux de travail. Si nous utilisons l’IA pour des brouillons (supports, synthèses, exercices), nous la traitons comme un stagiaire : nous relisons chaque ligne, retirons tout ce qui sonne trop affirmatif et traquons les présupposés biaisés (culture, rôles de genre, attentes familiales, langage des « il faut »). Si une organisation propose des notes rédigées par IA, notre question clinique devient : où vont les données, qui peut y accéder, et que se passe‑t‑il si le modèle invente des détails ? La responsabilité clinique ne disparaît pas. Quand nous conseillons des collègues ou une clinique, nous traduisons tout cela en questions d’évaluation simples : L’outil reste‑t‑il sûr au fil de tours multiples, ou dérive‑t‑il vers un excès d’accord ? Répond‑il de manière appropriée à une détresse indirecte ? Traite‑t‑il de façon cohérente différents dialectes et expressions culturelles ? Dispose‑t‑il de modalités d’escalade claires (ressources de crise, « obtenir de l’aide humaine ») sans culpabiliser ? Si un fournisseur ne peut répondre clairement à ces points, nous supposons que l’outil est optimisé pour des démonstrations, pas pour la réalité concrète de la pratique thérapeutique. Enfin, nous considérons le biais de l’IA comme une question d’équité au sein des soins, non comme une note de bas de page technologique. Nous l’intégrons à la supervision et à la formation : nous jouons des scénarios avec des formulations indirectes, différents idiomes culturels de la détresse et des récits de relations coercitives pour voir comment les outils pourraient les mal interpréter. Et nous disons aux clients quelque chose de stabilisant : « Utilisez‑le si cela vous aide, mais ne le laissez pas devenir votre juge, votre diagnostic, ni votre plan de sécurité. » En pratique, cette position nous maintient cliniquement responsables tout en reconnaissant le monde dans lequel nos clients vivent déjà.

Français

Quand la numérisation devient invisible : vers un « Papier → PDF » quasi automatique

Dans le travail clinique et de recherche, la numérisation ne vise pas un « beauté » PDF ; elle sert surtout à ne pas utiliser les workflows. Sur scanne avenants, lettres d'orientation, listes de médicaments, CRF et notes manuscrites qui font foi. Des années durant, le mobile a amélioré l'image au prix d'une chorégraphie répétive, cadrer, appuyer, confirmer, recommencer. Dans l=expérience récente de Google Drive, l=essentiel est l=interaction : moins de tapotements, capture continue et avantage de « jument » logique sur le bon moment. Le scanner de Google Drive accepte le multi-pages depuis longtemps, mais fonctionne désormais comme un vrai canal d'acquisition in‐app, pas un outil à part. Concrètement, sur ne « Lance » plus une application pour exportateur, nommer, téléverser ; on « créer un document » là où l'équipe stocke déjà ses fichiers. Quand la capture doit native à la plateforme quotidienne, l'option progresse sans formation. La nouvelle tendance à la disparition des frottements, plus qu'à l'effet « Ouaih ». Le quasi-automatisme vivant de la chaîne de détection–stabilisation–déclenchement, qui élimine les micro-décisions. Au lieu de traiter chaque page isolément, le logiciel donne une séance, aidant à stabiliser le téléphone et à avancer. Cette conception épouse la réalité du papier en clinique et au labo : groupe, urgent, rare commode. Dès que la capture est continue, on dépense moins d'énergie sur la mécanique et plus sur la vérification et le classement. Il améliore la gestion des interruptions. En clinique, moins de

Français

« Plan directeur de l'IA » de la Maison-Blanche : une architecture ambiteuse, mais encore incomplète

Le cadre national de politique publique sur l’IA de la Maison-Blanche, publié le 20 mars 2026 (il n’a qu’une semaine d’existence au 29 mars 2026), se lit comme un plan d’orientation législative plutôt que comme un règlement abouti. Il vise à poser les termes du débat — ce que le Congrès devrait encadrer, ce qu’il devrait éviter, et quels risques traiter en priorité. Pour les praticiens et les chercheurs, l’enjeu central est de savoir si ce plan directeur se traduira en protections opérationnelles ou s’il restera au stade du signal politique. Sur le plan « explicatif », le document regroupe ses pistes en sept blocs : protection de l’enfance, protection des communautés, droit d’auteur, liberté d’expression, innovation, formation de la main‑d’œuvre et préemption fédérale. Cette architecture éclaire les priorités que l’exécutif entend soumettre au Congrès. Elle trahit toutefois un arbitrage classique : privilégier l’ampleur sur la profondeur, avec des sections qui indiquent une direction sans toujours préciser normes, seuils ni modalités d’application. L’affirmation structurelle la plus nette concerne la préemption fédérale, l’idée que les règles d’IA devraient relever d’un cadre national plutôt que d’un patchwork État par État. Sur le papier, une norme unique réduit la complexité de conformité et facilite les déploiements inter‑États. Dans les faits, la préemption n’est jamais neutre : elle conditionne la capacité des États à servir de laboratoires de protection plus exigeants… ou, au contraire, à voir leurs garde‑fous balayés avant maturité. S’agissant de la protection des enfants et des communautés, l’intuition du cadre épouse une approche fondée sur les risques : prioriser les publics les plus vulnérables et les préjudices les plus diffusables. Mais « protéger les enfants » peut masquer des choix de conception âpres : vérification de l’âge, minimisation des données, réglages sûrs par défaut, audits substantiels. Sans exigences concrètes, ce qui doit être testé, journalisé et vérifié de manière indépendante, le langage reste programmatique tandis que des systèmes potentiellement nocifs demeurent déployables. La section droit d’auteur illustre au plus près le biais « innovation d’abord » du cadre, en penchant vers une permissivité autour de l’entraînement et en renvoyant aux tribunaux le soin de trancher l’essentiel des litiges. Cela lisse les frictions pour les développeurs de modèles, mais déporte l’incertitude vers l’aval, côté acheteurs et opérateurs, universités, hôpitaux, startups. Quand la provenance est floue, on finit par normaliser le « faites‑nous confiance », socle fragile pour la légitimité publique et la reproductibilité. Le cadrage de la liberté d’expression envoie des signaux utiles, mais il peut estomper une ligne décisive : protéger l’expression n’équivaut pas à exonérer l’amplification, le ciblage, la fraude ou la tromperie à fort impact. Si le débat se réduit à « régulation versus liberté d’expression », on perd en précision sur l’objet réel de la régulation : les dommages mesurables, les schémas de conception manipulateurs, les déploiements négligents en contextes sensibles. Un cadre peut défendre les droits tout en exigeant des garanties de sécurité auditées pour les systèmes puissants. Là où la seconde moitié du cadre, et la « plongée approfondie » qui l’accompagne, demeure floue, c’est sur l’ossature opérationnelle manquante. Il faut des définitions nettes (qu’est‑ce qu’un système à haut risque), des obligations explicites (quels tests pré‑déploiement), et une gouvernance robuste (déclaration d’incidents, standards de red teaming, audits indépendants, suivi post‑déploiement). Les bacs à sable ne sauraient tenir lieu de protections de base : sans règles d’arrêt et supervision externe, ils deviennent des voies rapides vers le marché, pas des voies plus sûres vers l’évaluation. Enfin, le texte sous‑appréhende la réalité clinique et de la recherche : la confidentialité n’est pas un appendice, l’évaluation n’est pas optionnelle, et « l’intégration aux workflows » est précisément l’endroit où la sécurité tient… ou s’effondre. Si la préemption affaiblit la pression des États sans la compenser par des normes fédérales exécutoires, on ouvre un vide où les fournisseurs fixent la barre et où les institutions absorbent, en silence, le risque. Le cadre gagne en crédibilité lorsqu’il convertit des valeurs en exigences : ce qu’il faut tester, documenter, divulguer et surveiller. C’est la seule manière de transformer une ambition nationale en pratiques vérifiables.

Panier