French

French

Mots originaux, idées réutilisées : la réalité du plagiat dans la recherche générée par IA

Tout ce qui « a l’air » nouveau ne l’est pas vraiment. Les IA génératives peuvent réellement booster la productivité en recherche : plan détaillé, réécriture, traduction, et même remue‑méninges quand on est bloqué. Mais la même aisance qui rend ces sorties « publiables » peut aussi masquer un risque plus discret : des travaux générés par IA peuvent recycler, sans intention malveillante, des connaissances existantes, non pas forcément en copiant des phrases, mais en réutilisant des idées, des ossatures argumentatives familières, des logiques d’étude déjà vues, et une nouveauté de façade. C’est la réalité à laquelle beaucoup de chercheurs sont désormais confrontés : le problème d’intégrité n’est souvent pas un plagiat flagrant, mais une réutilisation cachée, où le texte est original dans la forme, tandis que l’apport intellectuel est mince, dérivé, ou trop proche de l’existant. Dans ces cas‑là, la « nouveauté » devient un effet de surface, et l’intégrité scientifique consiste moins à débusquer du texte copié qu’à protéger la véritable originalité, la traçabilité du raisonnement et l’honnêteté de la contribution. Un exemple éclairant vient de l’étude ACL 2025 de Gupta et Pruthi, All That Glitters is Not Novel: Plagiarism in AI Generated Research (Outstanding Paper à ACL 2025). Leur objet n’est pas le simple copier‑coller, mais une forme plus subtile : des textes de style recherche qui reformulent ou recombinent des travaux antérieurs de manière à paraître « neufs » lors d’une relecture rapide. Au lieu de demander aux évaluateurs de juger la nouveauté comme d’habitude, les auteurs ont conçu un dispositif piloté par des experts, explicitement chargés de rechercher des sources de plagiat. Ils ont fait évaluer 50 documents de recherche générés par LLM (y compris des documents issus de « The AI Scientist » et d’autres propositions publiques, ainsi que de nouvelles générations). C’est important, car les évaluations classiques supposent souvent la bonne foi et n’incitent pas à une chasse active aux sources. Ils ont aussi utilisé une grille claire : les notes les plus élevées correspondaient aux cas où l’on observe quasiment une correspondance un‑pour‑un entre la méthodologie générée et des travaux antérieurs, ou bien où des pans substantiels sont empruntés à un petit nombre d’articles précédents sans attribution. Autrement dit, il ne s’agit pas d’identifier des phrases identiques, mais de constater que l’ossature intellectuelle de la méthode et de la contribution est trop proche de quelque chose qui existe déjà. Le résultat clef est difficile à ignorer : les experts ont signalé 24 % des 50 documents comme plagiés (notes 4–5) après des vérifications comprenant le contact avec les auteurs originaux ; si l’on inclut les cas où la vérification n’a pas été possible (par ex. auteurs injoignables), le taux monte à 36 %. Cet écart compte, car il montre comment les cas « confirmés » peuvent rester sous‑estimés lorsque la vérification réelle est lente ou impossible. C’est précisément ce qui rend le plagiat à l’ère de l’IA si particulier : le risque se loge souvent au niveau des idées, du cadrage du problème, de la chaîne méthodologique et des revendications de contribution, plutôt que dans la phraséologie identique. Si une proposition est rédigée avec assurance, présentée par sections impeccables et saupoudrée de citations plausibles, elle peut passer un contrôle de surface, même si le concept sous‑jacent n’est pas vraiment original. L’étude met aussi en évidence un second problème : l’automatisation ne nous sauve pas (encore). Les auteurs rapportent que plusieurs approches automatisées, notamment la recherche par embeddings et un service commercial de détection de plagiat, se sont révélées insuffisantes pour repérer le plagiat dans ces propositions générées par LLM. C’est cohérent avec une réalité plus large : « l’emprunt sémantique » est bien plus difficile à détecter que le recouvrement de chaînes de caractères. Pour l’évaluation par les pairs, cela crée un compromis pénible en termes de charge de travail. Si l’IA augmente le volume de soumissions très polies tout en accroissant la probabilité d’emprunts cachés, les relecteurs doivent passer davantage de temps en travail d’enquête : fouiller la littérature, cartographier les méthodes, vérifier si les « contributions originales » ne sont pas de simples versions renommées d’idées connues. Cette pression ne fait pas que ralentir la revue ; elle peut aussi pousser les évaluateurs vers des heuristiques superficielles, rendant le système encore plus facile à contourner. Pour les auteurs qui utilisent l’IA de manière éthique, l’état d’esprit le plus sûr est : l’IA peut vous aider à exprimer vos idées, mais elle ne doit pas être la source de votre contribution. Gardez une « trace de provenance » : ce que vous avez lu, ce que vous avez copié dans vos notes (entre guillemets), et ce que vous avez décidé vous‑même. Si l’IA suggère une méthode ou un cadrage, traitez‑les comme des indices non fiables ; puis vérifiez en recherchant les travaux antérieurs et en ajoutant des citations explicites là où votre idée se rattache à la littérature existante. Pour les universités, les revues et les conférences, la réponse ne doit pas être la panique, mais la mise à niveau des processus. Exigez une divulgation transparente de l’usage d’IA, renforcez les contrôles de nouveauté (surtout au niveau des idées/méthodes), et donnez aux relecteurs des outils et du temps pour mener des recherches ciblées de sources quand quelque chose paraît « trop propre ». Surtout, récompensez la citation soignée et le positionnement honnête (« ceci est une extension de X ») plutôt que la sur‑vente de la nouveauté ; car à l’ère de l’IA, il est plus facile de fabriquer une nouveauté apparente que du véritable progrès scientifique. Enfin, c’est précisément là que les relecteurs humains et le jugement humain restent essentiels, et où la responsabilité ne peut pas être externalisée. Parce que la réutilisation au niveau des idées est subtile, il faut souvent une expertise de domaine pour repérer quand une « nouvelle » chaîne de traitement n’est en réalité qu’une version renommée ou légèrement réarrangée d’un travail établi. Autrement dit, l’intégrité à l’ère de l’IA repose moins sur des alertes automatisées que sur

French

Quand les algorithmes rencontrent l’interaction : lecture critique d’une clinicienne-chercheuse du document de position 2026 de l’ESLA sur l’IA

Dans la réalité quotidienne d’une semaine d’orthophonie chargée, l’IA n’apparaît pas comme un débat abstrait. Elle se manifeste plutôt comme une série de points de friction : peut-on faire confiance à la transcription automatique pour un enfant multilingue ? faut-il tester une application de dépistage pour réduire les listes d’attente ? un outil génératif peut-il rédiger des consignes de programme à domicile sans s’éloigner des données probantes ? Le document de position de l’ESLA, Shaping the Future of Speech and Language Therapy with Artificial Intelligence, publié le 6 mars 2026, s’inscrit pleinement dans cette réalité. Il reconnaît que l’intelligence artificielle transforme rapidement les soins de santé et rappelle que l’orthophonie repose avant tout sur l’interaction humaine, le contexte et le jugement clinique. Le document évite deux extrêmes fréquents : adopter les technologies simplement parce qu’elles sont nouvelles, ou les rejeter parce qu’elles semblent risquées. Il propose une posture professionnelle équilibrée : l’IA doit soutenir les thérapeutes, et non les remplacer, tout en respectant les droits humains, la dignité, la diversité et l’inclusion. Mais une difficulté apparaît rapidement : ces principes sont justes, mais restent parfois trop généraux pour guider les décisions du quotidien. En pratique, « soutenir sans remplacer » devrait se traduire par des limites clairement définies : quelles tâches peuvent être automatisées ? lesquelles doivent rester sous responsabilité directe du clinicien ? quel niveau de supervision humaine est réellement suffisant dans des services déjà sous tension ? Sans ces repères, le risque est que le document devienne un socle de valeurs largement partagé, tandis que les pratiques réelles évoluent sous l’influence des fournisseurs de technologies, des contraintes budgétaires ou du manque de temps. L’ESLA évoque plusieurs opportunités prometteuses : dépistage, soutien à l’évaluation, planification des interventions, suivi des résultats, personnalisation des soins, modalités hybrides et amélioration de l’accès aux services. Cependant, le texte aurait pu aller plus loin dans certaines questions pratiques. Une réalité parfois inconfortable mérite d’être discutée : la « personnalisation » technologique peut facilement se transformer en optimisation pour la majorité. Cette question concerne particulièrement certains groupes : enfants multilingues, dialectes minorisés, utilisateurs de CAA, profils de handicap complexes ou normes communicationnelles culturellement situées. Si l’équité constitue un objectif central, il devient nécessaire de préciser les attentes minimales en matière de preuve scientifique : quels niveaux de validation sont nécessaires pour les systèmes de reconnaissance vocale multilingue ? quelles tailles d’échantillon sont requises ? quels accents ou variétés linguistiques doivent être testés ? quels taux d’erreur sont acceptables, et pour qui ? Sans ces critères, l’équité reste davantage une intention qu’une exigence mesurable. Le document apparaît particulièrement solide sur son socle éthique : confidentialité, consentement, propriété des données, biais algorithmiques, accès inégal et risque de dépendance excessive. Mais une position éthique forte ne se traduit pas automatiquement par une utilisabilité clinique. C’est là que de nombreux cliniciens pourraient exprimer la même frustration : les principes sont pertinents, mais les recommandations restent trop générales. La profession aurait probablement bénéficié d’orientations plus concrètes : des listes de « à faire / à éviter », des outils pratiques, ou des garde-fous applicables dans les flux de travail réels. Par exemple, un document plus opérationnel pourrait inclure : une classification des usages vert / orange / rouge, une check-list de vérification de la confidentialité, des standards minimaux d’évaluation scientifique, une liste de questions à poser aux fournisseurs avant l’achat d’un outil. Sans ces outils, chaque service se retrouve à élaborer ses propres règles, souvent dans l’urgence et avec des niveaux de protection très variables. La conclusion de l’ESLA appelle à une adoption réfléchie, collaborative et éthique de l’IA afin de renforcer la participation, la dignité et l’inclusion. C’est une direction pertinente. Mais la prochaine étape devrait consister à transformer ces valeurs en recommandations concrètes pour la pratique. La profession n’a pas seulement besoin d’une permission d’explorer l’IA. Elle a besoin d’un cadre structuré pour le faire en toute sécurité. Dans l’état actuel, le document de l’ESLA constitue une prise de position éthique solide. Mais il ne représente pas encore la boussole pratique que de nombreux cliniciens espéraient.

French

ChatGPT 5.3 (« Instant ») vs 5.4 (« Thinking ») pour les thérapeutes : ce qui aide, ce qui nuit, et ce qui doit passer en premier

En recherche comme en thérapie, la partie la plus difficile de la semaine n’est souvent ni le « moment clinique » ni « l’idée de recherche » en soi. C’est l’accumulation du travail intermédiaire : transformer des notes brutes en formulations cohérentes, traduire des concepts techniques dans un langage avec lequel un patient peut réellement vivre, et documenter les soins de manière à la fois fidèle et lisible. Face à cette réalité, la manière la plus utile d’aborder ChatGPT 5.3 et 5.4 n’est pas sous l’angle de la nouveauté, mais sous celui du flux de travail. Que peuvent raisonnablement alléger ces outils, et quels nouveaux risques introduisent‑ils ? Avant de comparer la vitesse ou « l’intelligence », posez la question de conformité dont les lecteurs ont réellement besoin : cet outil est‑il approuvé HIPAA pour des PHI (informations de santé protégées), ou non ? La HIPAA ne « certifie » pas officiellement des logiciels comme « approuvés » ; en pratique, le socle est de savoir si vous pouvez obtenir un Accord d’association d’affaires (BAA: Business Associate Agreement) et faire appliquer les bons contrôles de conservation/accès. OpenAI indique que l’utilisation de son API (interface de programmation d’applications) avec des PHI requiert un BAA, et qu’un BAA pour ChatGPT est actuellement disponible uniquement pour les clients Enterprise ou Edu gérés par l’équipe commerciale (« sales managed »), et non pour ChatGPT Business. Donc si vous ne pouvez pas défendre, contractuellement et opérationnellement, la manière dont les données patients sont traitées, vous ne devriez pas considérer le système comme une extension de votre environnement clinique, que vous soyez aux États‑Unis sous HIPAA ou ailleurs sous l’éthique professionnelle et les attentes locales en matière de confidentialité. Une fois les garde‑fous clarifiés, la distinction 5.3/5.4 devient réellement utile. ChatGPT 5.3 (« Instant ») se lit comme un modèle réglé pour le flux quotidien : rapide, fluide, et souvent excellent pour transformer des idées brouillonnes en langage net. Dans un flux clinique, cela compte parce que cela cible les petites tâches qui deviennent écrasantes à grande échelle : rédiger de la psychoéducation, réécrire des consignes d’admission, simplifier l’explication des compétences d’adaptation, ou rendre le langage destiné aux patients moins technique. Il peut aussi produire rapidement plusieurs variantes afin que vous choisissiez la tonalité adaptée à l’âge, à la culture et à la disponibilité du client. La valeur clinique est réelle, mais l’abus peut être insidieux. Lorsqu’un modèle produit rapidement une prose assurée, il peut brouiller la frontière entre traduction (modifier le style en préservant le sens) et invention (combler discrètement des vides avec du contenu plausible). Cette frontière est cruciale, car les documents cliniques ne sont pas de la simple « écriture » : ce sont des dossiers qui façonnent la continuité des soins, la facturation, la supervision, et la manière dont les patients sont compris par d’autres systèmes. Si vous utilisez 5.3 pour des notes ou des synthèses, la posture la plus sûre est : il rédige la langue ; vous possédez les faits. ChatGPT 5.4 (« Thinking ») a tendance à être le plus utile lorsque la tâche a une structure interne, c’est‑à‑dire quand vous avez besoin que l’outil garde la trace des dépendances d’une étape à l’autre plutôt que de simplement réécrire un paragraphe. En recherche, cela peut signifier resserrer une section « Méthodes » sans en changer le sens, rédiger un canevas de plan d’analyse transparent, ou transformer des notes de réunion éparses en un plan de protocole que vous pourrez critiquer. En clinique, il peut vous aider à générer des hypothèses alternatives, à cartographier des facteurs de maintien, ou à créer des invites d’arbres décisionnels pour votre propre réflexion. L’intérêt n’est pas « il connaît la thérapie », mais qu’il peut vous aider à organiser la complexité lorsque vous êtes fatigué. Cette même cohérence introduit toutefois un type de risque spécifique : un récit « qui paraît remarquablement cohérent», psychologiquement convaincant, même s’il n’est pas redevable à la relation réelle, à la culture du patient, ou à vos données observées. Le 5.4 peut produire des formulations qui paraissent remarquablement intégrées, tout en restant subtilement erronées, excessivement confiantes ou prématurément interprétatives. En thérapie, cela peut se manifester par une fausse précision : des labels posés trop tôt, des récits causaux trop lisses, ou des synthèses qui écrasent involontairement les propres significations du patient. Plus la sortie est élégante, plus le clinicien doit être vigilant. La tarification compte, parce qu’elle détermine discrètement qui utilise quoi, à quelle fréquence et avec quelles garanties, ce qui, à son tour, façonne le risque clinique. Les paliers grand public d’OpenAI sont couramment présentés comme Go (~ 8$ /mois aux États‑Unis), Plus (20 $/mois) et Pro (200 $/mois), tandis que ChatGPT Business est affiché à 25$ par utilisateur/mois facturé annuellement (et la page de tarification propose « Essayer gratuitement »). Les prix peuvent également dépendre des régions, de sorte que ce que vous voyez au Liban peut différer des tarifs américains. La vraie question clinique n’est donc pas « Quel est le moins cher ? », mais : Quel plan s’aligne sur nos exigences de confidentialité et de gouvernance ? Des paliers personnels à moindre coût peuvent pousser des cliniciens vers un usage « compte personnel rapide » (souvent avec des contrôles administratifs plus faibles), tandis que les paliers Business/Enterprise sont conçus pour des contrôles organisationnels, tout en comportant encore des contraintes pratiques (par ex., l’« illimité » est généralement soumis à des garde‑fous contre les abus, et certains paliers comportent des réserves produit/fonctionnalités ; Go peut inclure de la publicité). Une manière réaliste d’utiliser correctement ces outils est de répartir les tâches selon le niveau de risque. Les usages à faible enjeu et à forte valeur comprennent la préparation de supports destinés aux patients (sans identifiants), la réécriture de contenus de psychoéducation, la génération de plusieurs formulations pour un message que vous allez relire, ou la création de gabarits de structuration de séance. Les zones à risque élevé diagnostic, évaluation du risque, décisions de obligation d’alerte (« duty to warn ») et

French

Nano Banana 2 dans le monde réel : quand des images plus rapides imposent un niveau de vérification plus élevé en recherche, en soins et en communication

Le lancement par Google, fin février 2026, de Nano Banana 2, également décrit par Google et dans certaines couvertures comme Gemini 3.1 Flash Image,  peut ressembler à une simple mise à jour de modèle, mais en clinique et dans les équipes de recherche, il agit plutôt comme un basculement de processus de travail. Il arrive dans un contexte de pressions de production bien connues : supports de recrutement contraints par les délais des IRB/comités d’éthique, figures de congrès qui doivent rester lisibles à distance, infographies patient qui simplifient sans déformer, et diapositives d’enseignement qui communiquent le risque de manière responsable. L’affirmation centrale de Google est d’associer une haute qualité d’image à une vitesse de type mode rapide, désormais accessible via l’application Gemini et les expériences de recherche Google telles que AI Mode et Lens, avec un message de déploiement explicite pour la région MENA. Quand la génération d’images devient à la fois rapide et visuellement persuasive, le changement ne se limite pas à une hausse du volume : il s’agit de cycles de décision plus courts. Google met en avant des fonctionnalités qui se superposent directement à la communication scientifique et clinique : rendu de texte amélioré à l’intérieur des images, meilleure cohérence des sujets à travers les éléments, contrôle des formats d’image, et sorties jusqu’en 4K. En pratique, cela peut signifier moins d’itérations de « design manuel » pour des illustrations d’ajustement posologique, des schémas de processus de consentement, des résumés visuels (visual abstracts) et des schématiques explicatives, en particulier dans les équipes dépourvues de support design dédié. Une revendication particulièrement lourde de conséquences est que Nano Banana 2 peut s’appuyer sur des informations et des images en temps réel issues de la recherche web pour améliorer la précision et soutenir la production de diagrammes et d’infographies. Le bénéfice est immédiat : des illustrations plus clairs produits rapidement, susceptibles d’améliorer la compréhension des patients et de réduire la charge cognitive des stagiaires. La tension méthodologique est tout aussi réelle : si l’« ancrage » dépend de sources qui ne sont pas clairement exposées, archivées et citables, nous gagnons en vitesse tout en perdant en traçabilité. Le risque n’est pas seulement qu’une image soit erronée, mais que nous ne puissions pas reconstruire pourquoi elle paraît si convaincante. Cette tension s’accentue avec le cadrage « à travers Gemini, Search et Ads ». Les intégrations les plus clairement documentées à ce stade concernent Gemini et Search. La direction Ads est plausible dans le contexte : Google Ads prend déjà en charge des processus protocoles d’intervention d’images génératives avec une consigne explicite demandant aux annonceurs de relire les assets générés par l’IA avant publication, et Google a déjà décrit l’intégration de modèles Gemini dans Performance Max. Mais les rapports affirmant que Nano Banana 2 alimentera directement les suggestions créatives dans Ads doivent être considérés comme une trajectoire rapportée tant que la documentation Ads de Google n’a pas nommé explicitement le modèle et son périmètre. Pour les chercheurs en santé et les cliniciens, l’enjeu est clair : le même bond qui améliore les supports d’éducation des patients peut aussi accélérer des contenus de santé persuasifs optimisés pour le clic et la conversion. À mesure que le vernis visuel devient moins coûteux, il se corrèle encore moins avec la vérité, déplaçant la charge d’évaluation vers des publics qui ont souvent le moins de temps et le plus à perdre. Le résumé pratique est simple : Nano Banana 2 compresse le temps de création, mais n’élimine pas la responsabilité, il la déplace. Les équipes responsables passeront moins de temps à brouillonner et plus de temps à vérifier : s’assurer que les schémas traduisent bien la relation causale visée, que les illustrations de risque correspondent aux seuils des lignes directrices, que les traductions préservent le sens, et que les graphismes destinés au grand public ne devancent pas l’état des preuves. Le point faible est institutionnel : nombre d’organisations manquent encore d’une gouvernance légère pour les « illustrations assistés par IA », alors même qu’elles disposent de contrôles matures pour les prescriptions, les instructions aux patients et les sorties de données de recherche. Sur le plan éthique, de meilleurs outils élèvent, et non abaissent, l’exigence sur trois devoirs. La transparence compte lorsque la provenance influe sur la confiance (supports destinés aux patients, éducation publique, communication de recherche à fort impact). L’intégrité des données et l’auditabilité comptent lorsque la génération adossée au web influence le contenu et que les sources ne sont pas récupérables. La discipline en matière de confidentialité demeure non négociable : des éléments identifiants de patients ne doivent pas devenir des ingrédients de instruction donnée à l’IA pour produire de « meilleures » images. Le filigranage et les « content credentials » peuvent aider, mais ils ne remplacent pas la relecture par des spécialistes lorsque le contenu est médical.

French

Quand un « ordinateur IA » entre en clinique : processus de travail multi‑agents

Le travail clinique et la recherche échouent rarement faute d’information introuvable ; ils échouent parce que nous ne parvenons pas à convertir l’information en résultats utilisables assez vite. La friction se niche dans les tâches intermédiaires : préparer une note de contexte pour une réunion de cas, transformer des notes éparses en un amendement de protocole cohérent, nettoyer des références avant une nouvelle soumission, ou rédiger un support patient à la fois lisible et exact. Ce qui rend l’idée d’un « ordinateur IA » nouvellement convaincante, c’est qu’il vise précisément ce tissu conjonctif du travail, et non la simple conversation. Perplexity décrit Computer comme un système unifié, basé sur le cloud, capable de « rechercher, concevoir, coder, déployer et gérer » des projets de bout en bout, en décomposant un objectif en sous‑tâches et en les aiguillant vers des composants spécialisés. Dans la description publique, il peut orchestrer le travail en parallèle sur 19 modèles, « en faisant correspondre chaque tâche au meilleur modèle », tout en se souvenant du contexte antérieur et en se connectant à des services externes. L’ambition est claire : transformer le navigateur en un espace de travail opérationnel où l’utilisateur exprime une intention et où le système exécute un travail multi‑étapes. L’attrait est facile à comprendre dans les processus réels. Nous pratiquons déjà une délégation contrainte au quotidien : nous confions des pans d’un projet à des stagiaires, assistants de recherche, administrateurs ou collègues, puis nous intégrons, vérifions et validons. Un système agentique promet un schéma analogue, mais à une vitesse et une échelle différentes. S’il fonctionne de manière fiable, il peut dégager du temps pour ce qui demeure obstinément humain : la présence thérapeutique, le jugement clinique sous incertitude, une supervision nuancée et l’interprétation soigneuse des données probantes. Cette tension s’accentue lorsque l’orchestration devient invisible. Si Computer décompose une tâche en étapes, choisit des outils et fusionne les résultats, alors la traçabilité devient essentielle : quelles sources ont été utilisées, quel modèle a généré quelle affirmation, et quel était le degré d’incertitude du système à chaque étape ? En recherche, ces détails conditionnent la reproductibilité d’une synthèse de la littérature ; en clinique, ils déterminent si une fiche d’information, une note de politique interne ou une aide à la documentation reste dans les limites de la pratique fondée sur les preuves. Plus le processus est autonome, plus nous avons besoin de systèmes qui rendent leur raisonnement lisible plutôt que simplement impressionnant. Une seconde tension tient à la provenance. En recherche, nous devons savoir quelles sources ont été mobilisées, comment les affirmations ont été dérivées et quelle incertitude subsiste, car la crédibilité d’une synthèse dépend d’un raisonnement traçable. En contexte clinique, la provenance importe tout autant, bien que moins souvent formalisée : nous devons savoir si un livrable s’appuie sur des lignes directrices, des essais de haute qualité, des politiques locales, ou de simples généralisations plausibles. Les outils agentiques peuvent compresser les étapes avec une telle efficacité qu’ils compressent aussi notre visibilité sur l’origine d’une conclusion. Le coût fait passer ces questions de la théorie aux décisions quotidiennes. À environ 240 $ par mois, il ne s’agit pas d’un abonnement impulsif pour la plupart des cliniciens ; c’est plutôt un arbitrage d’effectifs. Payer ce montant suppose implicitement que le temps gagné soit à la fois substantiel et fiable, et que le temps passé à vérifier les sorties ne regonfle pas insidieusement la charge de travail. En clinique, le « vrai coût » inclut non seulement l’argent, mais aussi la charge cognitive de supervision et le risque réputationnel d’erreurs. D’un point de vue pratique, les usages les plus sûrs à court terme sont ceux qui excluent les données identifiantes du système et maintiennent une vérification résolument humaine. Rédiger des gabarits psychoéducatifs non identifiants, créer des supports de formation pour les stagiaires, clarifier des procédures stagiaires, ou générer des plans détaillés de premier jet pour des documents de recherche peut être pertinent, à condition de traiter les sorties comme des brouillons et d’exiger une vérification des sources. Le profil de risque change nettement lorsqu’on se rapproche de détails de cas identifiants ou de recommandations cliniques très spécifiques, surtout dans de petites communautés ou des présentations rares où la ré‑identification est plus facile qu’on ne l’admet. Il faut aussi reconnaître une limite plus discrète que les chercheurs chevronnés connaissent bien : ces outils peuvent accélérer l’apparence de la production scientifique. Ils savent produire un cadrage cohérent, une prose convaincante et des synthèses soignées même lorsque la base de preuves est mitigée ou contestée. Le danger ne tient donc pas qu’aux « hallucinations » au sens spectaculaire du terme ; c’est aussi la surconfiance routinière, surtout sous la pression des délais, la fatigue ou des incitations institutionnelles qui privilégient la vitesse au détriment de la rigueur. Sur le plan éthique, traitons les systèmes agentiques comme une nouvelle couche de délégation professionnelle qui exige transparence et habitudes de documentation. Si l’IA a matériellement façonné un livrable qui éclaire les soins (une politique de clinique, un support patient, une note d’aide à la décision), la responsabilité du clinicien n’est pas réduite ; elle est reconfigurée. Nous devons à nos patients et collègues une posture disciplinée sur les données introduites dans le système, les sources mobilisées et la manière dont les affirmations ont été contrôlées. Cela s’aligne sur les cadres plus larges de gestion des risques liés à l’IA, qui insistent sur une gouvernance tout au long du cycle de vie : cartographier les défaillances probables, fixer des limites et construire des habitudes de vérification plutôt que de compter sur les bonnes intentions. Pour la suite, la question n’est pas de savoir si les « ordinateurs IA » deviendront plus courants ; ils le seront probablement. La vraie question est de savoir s’ils deviendront lisibles : des systèmes qui rendent leurs sources, leurs hypothèses et leurs limites suffisamment visibles pour des cultures cliniques et de recherche fondées sur l’auditabilité et la confiance. Si nous les adoptons avec discernement, en commençant par

French

« Agents brillants, jugements fuyants : ce que DeepMind nous oblige à voir »

À mesure que les systèmes d’IA entrent dans les flux cliniques, le vocabulaire doit devenir opérationnel plutôt que rhétorique. Un agent IA désigne un système logiciel piloté par modèle, capable de planifier et d’exécuter des tâches multi‑étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et réviser ses étapes en fonction des résultats. Autrement dit, c’est plus qu’une réponse de chatbot : c’est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît souvent lorsqu’on qualifie d’« agentique » tout système simplement fluide. Google DeepMind vient de publier un avertissement d’environ 42 pages sur les raisons pour lesquelles la plupart des « agences IA » échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même constat. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « agents » aujourd’hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne savent pas écrire ou planifier, mais parce qu’ils ne savent pas déléguer comme l’exigent les systèmes réels. Et la thérapie est précisément l’endroit où cet écart devient visible très tôt. Voici ce qui pique : la plupart des agents actuels ne sont pas des agents au sens fort qu’on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en étapes, appellent des outils et renvoient un résultat. C’est de l’automatisation puissante, qui peut réellement créer de l’efficacité pour des tâches à faible enjeu. Mais ce n’est pas de la délégation : c’est un pipeline plus élégant. Or, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s’infiltrent dans la pratique quotidienne. Qu’entend‑on par « délégation » ? La délégation n’est pas monolithique. Elle peut signifier déléguer l’exécution (le système réalise des étapes que vous avez déjà choisies), déléguer le contrôle du flux de travail (il séquence les outils, gère les relances et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « agentiques » savent surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit externalisé et que l’imputabilité bascule réellement. En thérapie, le danger survient quand, sans s’en rendre compte, on délègue le jugement tout en croyant n’avoir délégué que l’exécution. Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c’est transférer de l’autorité, de la responsabilité, de l’imputabilité et de la confiance et le faire dynamiquement au fil des situations. Il ne s’agit donc pas seulement de demander : « Qui peut le faire le plus vite ? » mais « À qui peut‑on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd’hui, les systèmes qui se comportent ainsi de bout en bout lorsque s’entremêlent multiplicité d’outils, données incertaines et véritables enjeux. Avant même de déléguer, le cadre proposé implique d’évaluer la capacité, le risque, le coût, la vérifiabilité et la réversibilité. Autrement dit, la question n’est pas « l’agent a‑t‑il accès à l’outil calendrier ? » mais « cette tâche est‑elle sûre à confier, pouvons‑nous en vérifier le résultat et pouvons‑nous annuler le tort si c’est erroné ? » C’est une manière très « clinique » de penser et c’est précisément pourquoi ce papier touche davantage les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection. La thérapie n’est pas qu’un travail informationnel ; c’est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « sorties » : ils l’éprouvent comme de la confiance, de la sécurité, du timing, de l’accordage et des limites. Donc, lorsqu’un système d’IA est présenté comme un « agent », la vraie question devient : que délègue‑t‑on, et qu’externalise‑t‑on sans le vouloir ? Si nous laissons un système dériver vers le jugement clinique, nous déléguerons peut‑être bien plus que prévu. Quand « l’agence » de l’IA échoue dans notre contexte, elle n’échoue pas par un non‑sens criant. Elle échoue en silence : une note se trouve subtilement déformée, un signal de risque est minimisé, un message au patient devient trop assuré, ou une phrase de plan de sécurité devient trop générique pour être sûre. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous écririons à 18 h et c’est précisément ce qui la rend dangereuse. La fluidité crée une fausse réassurance, et la fausse réassurance est un risque clinique. Limites actuelles des agents IA (surtout en flux de travail réels)

French

Quand un « médecin IA » devient une vraie clinique : le regard d’un thérapeute sur Lotus Health AI et les bénéfices cachés pour la thérapie

Au cours des deux dernières semaines, de nombreux cliniciens ont vu circuler des posts au sujet de Lotus Health AI, présenté comme un « médecin IA propulsé par de vrais médecins » : un service supervisé par des médecins, capable d’évaluer, de diagnostiquer, de prescrire et d’orienter, positionné comme gratuit, disponible en permanence et multilingue. L’entreprise a également annoncé une levée de fonds de série A de 35 M$, portant le financement total à 41 M$, co‑menée par Kleiner Perkins et CRV, et soutient qu’elle peut réduire le gaspillage administratif en rendant les médecins plus productifs, sans facturation à l’assurance. Du point de vue d’un thérapeute, la question centrale n’est pas de savoir si le marketing est convaincant, mais si cela devient une porte d’entrée fiable vers les soins de première intention, réduisant les frictions que la thérapie absorbe souvent : troubles du sommeil pris à tort pour une dépression, problèmes thyroïdiens/anémiques ressemblant à un burn‑out, effets secondaires médicamenteux déstabilisant l’humeur, et incertitude médicale alimentant panique et anxiété de santé. Dans le travail quotidien, la thérapie peut devenir le lieu où un système de santé fragmenté est « traité », émotionnellement, et parfois même sur le plan administrative, parce que les patients n’ont pas accès à des soins en temps utile ailleurs. Un bénéfice pratique, si Lotus fonctionne comme décrit, tient à la vitesse en tant que paramètre clinique, et pas seulement à la commodité. Une clarification médicale plus précoce peut rendre les interventions thérapeutiques plus précises et plus efficaces. Quand un patient dit : « Quelque chose ne va pas physiquement », nous validons et explorons les schémas ; pourtant, la démarche responsable consiste parfois à obtenir une évaluation médicale rapidement. La différentielle compte : si les symptômes sont physiologiques ou liés aux médicaments, le plan change ; s’ils sont portés par l’anxiété, il change différemment. Dans de nombreux systèmes, « bientôt » se transforme en plusieurs semaines, et la thérapie devient un espace d’attente pour une incertitude non résolue. Un canal de type soins primaires, disponible 24 h/24 et 7 j/7, qui passe en revue l’historique consolidé et oriente vers des soins en présentiel, pourrait réduire cet écart. Lotus se positionne explicitement au‑delà des conseils génériques d’un chatbot en impliquant des médecins certifiés qui relisent les recommandations et prescrivent lorsque c’est approprié. Un second bénéfice est indirect mais significatif : il pourrait améliorer la qualité et la cohérence des informations que les patients rapportent en thérapie. Beaucoup peinent à décrire clairement leurs symptômes en raison du stress, de la dissociation, d’un dysfonctionnement exécutif, d’un traumatisme ou de l’épuisement. Si une plateforme aide à organiser traitements, bilans et dossiers antérieurs en un récit plus clair, elle peut réduire la honte (« Je n’invente pas »), affiner la compréhension (« mes attaques de panique se regroupent autour des perturbations du sommeil ») et aider les thérapeutes à choisir des interventions plus précises (p. ex., exposition pour l’anxiété de santé versus orientation urgente face à des signaux d’alarme). Troisièmement, il existe des bénéfices de coordination et d’accès, même si les thérapeutes n’utilisent jamais la plateforme. Lorsque les patients peuvent obtenir renouvellements d’ordonnances, revues médicamenteuses et orientations avec moins d’obstacles, la thérapie est moins susceptible d’être déstabilisée par des facteurs évitables. Concrètement, cela peut signifier moins de séances consacrées au dépannage de l’accès et davantage de temps pour le cœur du travail thérapeutique : compétences, élaboration de sens, réparation de l’attachement, changement de comportements et intégration au niveau identitaire. Cela dit, les thérapeutes sont formés à repérer comment les outils peuvent s’intégrer à un cycle symptomatique. Un « médecin dans la poche » disponible en continu peut stabiliser certains patients, mais aussi alimenter la quête de réassurance chez d’autres, en particulier dans l’anxiété de santé, les vérifications de type spectre TOC, les attaques de panique, les tableaux de symptômes somatiques ou le balayage corporel lié au trauma. Même si les recommandations sont solides, les vérifications répétées peuvent malgré tout fonctionner comme évitement ou compulsion. L’objectif n’est pas de diaboliser l’outil, mais de l’intégrer à un plan de traitement avec un usage clair, limité dans le temps et cohérent avec les valeurs. Des questions de limites apparaissent également très vite. Si les patients s’appuient sur des soins médiés par application, les thérapeutes seront sollicités pour les interpréter : « Puis‑je m’y fier ? » « Que signifie ce diagnostic ? » « Pouvez‑vous leur écrire pour moi ? » Une posture aidante consiste à le traiter comme tout prestataire externe : aider les patients à clarifier leurs questions, à traiter l’impact et à décider des prochaines étapes, tout en évitant de faire de la médecine par procuration. Il importe aussi de rappeler que la portée de tout service numérique piloté par des médecins peut varier selon la juridiction, les licences et les règles de télémédecine ; ainsi, « disponible » ne signifie pas toujours « autorisé à traiter » comme les patients l’imaginent. Sur le plan éthique, le modèle économique compte, car la confiance est un ingrédient clinique. Si les patients soupçonnent que des parrainages ou des incitations commerciales influencent les recommandations (que ce soit vrai ou non), cela peut éroder la confiance dans le système de santé et se manifester en thérapie par du cynisme, de l’évitement ou du désespoir. Cela rend la transparence pratique plutôt que philosophique : qu’est‑ce qui est automatisé versus relu par un clinicien, et comment les conflits d’intérêts sont‑ils gérés dans le temps ? La confidentialité et l’intégrité des données sont tout aussi centrales. Même avec des garanties de sécurité solides, il est utile de raisonner concrètement : quelles données sont mises en lien, qui peut y accéder, quel consentement a été donné, que peut‑on supprimer et que pourrait‑on conserver. Les systèmes riches en données peuvent échouer de manières Nouvelles, par des violations, des usages abusifs ou un excès de confiance dans des dossiers incomplets; la posture la plus éthique reste donc une intégration prudente, un consentement explicite et de l’humilité. Globalement, je m’intéresse avec prudence

French

Du manuscrit au modèle : repenser l’illustration académique à l’ère de l’IA

En tant que chercheurs, nous passons un temps surprenant à faire des choses qui ne sont pas, à proprement parler, de la recherche. Nous concevons des études, affinons des hypothèses, collectons et analysons des données, nous engageons dans la théorie… puis nous ouvrons PowerPoint ou Illustrator et entamons le patient travail de transformer méthodes et résultats en figures. Nous ajustons des flèches, réalignons des blocs, standardisons des polices, corrigeons des axes, et exportons plusieurs versions pour respecter les consignes de soumission. La science peut être rigoureuse, mais le passage du texte à des visuels prêts pour la publication est souvent inefficace et cognitivement épuisant. Dernièrement, nous nous sommes penchés sur PaperBanana, un outil d’IA « texte‑vers‑figure » qui vise clairement les chercheurs souhaitant accélérer la création de figures sans sacrifier la clarté académique. La promesse centrale est simple : transformer des descriptions de méthode en schémas méthodologiques structurés, et transformer des données en graphiques d’une manière fidèle à ce que nous avons réellement fait (et pas seulement « plausible » à l’œil). Le détail qui lui donne un côté plus « research‑first » que des générateurs d’images génériques, c’est l’idée d’une boucle fermée de travail : au lieu d’un rendu en un seul jet, l’outil cherche à ébaucher, vérifier et affiner, de sorte que la figure corresponde mieux à la logique de la méthode. Le « plus » ici, ce n’est pas d’obtenir une jolie figure en quelques secondes. La vraie valeur ajoutée, c’est l’itération à faible coût. Quand l’itération ne coûte pas cher, on arrête de « figer » trop tôt les figures. On peut générer plusieurs versions, les comparer et traiter la construction d’une figure comme l’écriture : brouillon → critique → révision. C’est là que la qualité s’améliore en general, non parce que l’IA est parfaite, mais parce que notre boucle de retour s’accélère et s’épuise moins. En parallèle, soyons honnêtes : Illustrae joue un autre jeu. C’est souvent le meilleur choix quand la tâche n’est pas seulement « créer un schéma », mais assembler un récit visuel complet : figures multipanneaux, posters, supports pédagogiques, et beaucoup de décisions de mise en page manuelles. Illustrae offre en général davantage de fonctionnalités et de flexibilité, avec plus d’options prêtes à l’emploi pour gérer variables, dispositions, itérations et ajustements visuels. Le compromis que beaucoup ressentent, c’est le coût : on le décrit souvent comme nettement plus cher (et/ou moins prévisible) qu’un abonnement simple pour chercheurs, ce qui peut constituer un frein pour les individus ou les petits laboratoires. À l’inverse, PaperBanana paraît plus minimaliste et centré sur la recherche. Pour les schémas de méthodes et les figures conceptuelles, surtout au stade de l’ébauche, il peut offrir des performances comparables, tout en restant plus abordable, ce qui compte énormément pour les laboratoires, les doctorants et les jeunes chercheurs. Il est aussi souvent présenté comme bâtissant sur NanoBanana Pro, réputé plus adapté aux visuels scientifiques structurés que des modèles d’images généralistes comme DALL·E 3 (du moins pour des sorties de type schéma, où la structure et les libellés priment sur le « style artistique »). Comparatif synthétique Copy table Outil Idéal pour Modèle tarifaire (en pratique) Prix public (USD, tel qu’indiqué) Prévisibilité du coût (1–5) Valeur pour chercheurs (1–5) Flexibilité / contrôle (1–5) Atouts Compromis Illustrae Posters, figures multipanneaux, pédagogie, mises en page complexes Abonnement + crédits Tarifs payants non publiés (devis) (illustrae.co) 2 4 5 Plus de fonctionnalités ; meilleur contrôle de la mise en page ; solide pour assembler et peaufiner de grands visuels Peut être nettement plus cher / moins prévisible ; le coût peut bloquer individus/petits labos ; nécessite tout de même une relecture experte pour éviter les dérives conceptuelles PaperBanana Schémas de méthodes, figures conceptuelles, ébauches rapides de visuels de recherche Abonnement + crédits À partir de 4,90 $/mois (facturation annuelle) pour 100 crédits ; 6,90 $/mois pour 400 ; 19,90 $/mois pour 1 500 (paperbanana.studio). Autre page « plans de crédits » listant 14,90 $/mois, 59,90 $/mois, 119,90 $/mois (paperbanana.org). 4 5 3 Minimaliste et orienté recherche ; ébauche rapide ; bon pour schémas de méthodes ; suffisamment abordable pour étudiants/labos Pas de véritable offre gratuite pour une exploration poussée (abonnement requis) ; les figures finales exigent une retouche humaine ; les politiques de confidentialité peuvent ne pas garantir explicitement l’exclusion des travaux non publiés de l’entraînement des modèles Les limites, là où « l’IA pour l’académique » devient utile… ou risquée: La relecture humaine reste essentielle, car si ces outils accélèrent l’ébauche, les figures finales exigent une expertise, précision des libellés, causalités implicites, sens statistique, et vérification que le schéma n’exagère pas ce que la méthode peut réellement soutenir. À cela s’ajoute une friction d’abonnement bien réelle: sans véritable palier gratuit, l’adoption devient un choix budgétaire plus qu’une simple expérimentation, surtout pour les étudiants. Enfin, la confidentialité demeure une zone d’ombre: à moins qu’un outil ne garantisse explicitement et fermement l’exclusion des articles ou figures non publiés de l’entraînement (et n’éclaircisse ses politiques de rétention), la prudence s’impose pour tout contenu sensible ou en prépublication. Et oui, on peut toujours s’appuyer sur des outils d’IA « classiques » comme Notebook ou NotebookLM pour résumer, structurer ou remanier des idées. Ils excellent pour les flux de travail textuels, mais ne sont pas conçus spécifiquement pour les besoins visuels des chercheurs ; ils sont en général moins précis sur les conventions des schémas scientifiques, ce qui augmente le risque d’inexactitudes visuelles ou conceptuelles subtiles par rapport à des outils dédiés aux figures académiques. Alors, le véritable « plus », c’est quoi ? Nous rachetons de l’attention. Pas seulement du temps : de l’attention. Si l’ébauche de figures devient assez rapide pour que l’on itère sans appréhension, nous pouvons réinvestir nos efforts là où la recherche progresse vraiment : des hypothèses plus claires, des méthodes plus nettes, une meilleure interprétation et des figures qui communiquent plutôt que de décorer. Le bon choix d’outil n’a rien à voir avec la mode : il tient à son adéquation

French

Quand les algorithmes entrent en clinique : pourquoi les géants de l’IA se tournent vers la santé

L’IA en santé n’est plus une idée abstraite. C’est une réalité en mouvement, que l’on voit désormais gagner en maturité, avec plus de sérieux et de structure. Pendant longtemps, la santé a été traitée comme un « cas d’usage possible » pour une IA généraliste. En pratique, elle a déjà été l’un des terrains les plus courants où l’on teste ces systèmes dans le monde réel. Les patients posent des questions après les heures de consultation, parce que l’anxiété n’obéit pas aux horaires de bureau. Les aidants tentent d’interpréter des résultats de laboratoire en attendant un rendez-vous de suivi. Les personnes vivant avec des maladies chroniques cherchent des explications en langage clair à des plans de traitement complexes. De leur côté, les cliniciens subissent une pression documentaire incessante et recherchent constamment des outils qui allègent la charge cognitive sans sacrifier la sécurité. La demande n’était pas hypothétique, elle était déjà là. Ce qui change aujourd’hui, c’est que les grandes entreprises de l’IA conçoivent des produits spécifiquement dédiés à la santé, en reconnaissant sans détour que la médecine n’est pas un domaine « taille unique ». Deux lancements rendent ce virage particulièrement visible : Claude for Healthcare et ChatGPT Health. On les évoque souvent ensemble, mais cliniquement et éthiquement, il ne faut pas les traiter comme interchangeables. Ils répondent à deux problèmes différents et à deux publics distincts, et cette distinction importe, car elle détermine la façon dont le risque se manifeste. ChatGPT Health se comprend avant tout comme un espace orienté vers le patient : un lieu où chacun peut connecter ses informations personnelles de santé ou de bien‑être et recevoir des explications, des résumés et du contexte dans un langage humain. Sa promesse, c’est la clarté. Le système de santé est saturé de jargon, de portails fragmentés et de consultations pressées ; un outil qui aide une personne à comprendre ses propres informations peut réduire la confusion et améliorer l’adhésion. Utilisé à bon escient, il peut soutenir de meilleures conversations avec les cliniciens, car les patients arrivent avec des questions plus précises et moins de débordement émotionnel. Mais cette force est aussi son risque le plus prévisible. Lorsqu’un système explique les choses avec aisance, on peut confondre fluidité et autorité clinique. Nous l’avons tous constaté : un ton assuré peut donner l’illusion de la certitude, même lorsque la situation sous-jacente demeure ambiguë. En santé, cet écart n’a rien de théorique, il influence des décisions bien réelles. Le défi de sécurité pour un outil tourné vers le patient ne se réduit donc pas à l’exactitude au sens étroit. Il s’agit de cadrer les attentes, de poser des frontières claires et d’ériger des garde‑fous pour empêcher que le « soutien informationnel » ne soit interprété comme un diagnostic ou une consigne médicale. Claude for Healthcare, à l’inverse, s’inscrit plus naturellement comme un outil d’entreprise et de flux de travail. L’enjeu n’est pas tant « demandez‑moi n’importe quoi » que « connectez‑moi au travail ». Les organisations de santé n’ont pas seulement besoin de réponses ; elles ont besoin d’appui opérationnel : interpréter et résumer des informations complexes à grande échelle, réduire les frictions administratives, soutenir la recherche et les processus internes, et s’intégrer aux systèmes existants sans transformer chaque tâche en un onglet et un identifiant supplémentaires. Si l’on est honnête sur ce qui épuise les cliniciens, une large part se situe ici, dans la documentation, les tâches administratives et l’effort sans fin pour retrouver encore et encore l’information au sein de workflows brouillons. C’est pourquoi les outils orientés workflow paraissent si attrayants : ils ciblent les points de pression qui fissurent réellement le système. Mais là encore, le risque est différent. Quand l’IA s’intègre au flux de travail, elle peut amplifier à la fois l’efficacité et l’erreur. Si une sortie est erronée et que personne ne la repère, la faute ne touche pas qu’une conversation : elle s’inscrit dans la documentation, se propage, se recopie et se normalise. Plus l’outil est « branché » au système, plus il devient essentiel de le concevoir pour la supervision et pas seulement pour la vitesse. C’est ici que la conformité dépasse le simple « à cocher ». Dès que ces systèmes manipulent des données de santé sensibles, la question n’est pas seulement « est‑il conforme à la HIPAA ? » ou « est‑il conforme au RGPD ? ». La vraie question est : comment la gouvernance des données fonctionnera‑t‑elle dans la vraie vie, avec de vraies personnes, sous une vraie pression temporelle ? La HIPAA (Health Insurance Portability and Accountability Act) et le RGPD (Règlement général sur la protection des données) sont des cadres différents, mais ils poussent tous deux vers la même discipline : des règles claires sur les données collectées, la raison de leur collecte, qui peut y accéder, combien de temps elles sont conservées et ce qu’il se passe en cas de problème. Et voici un point à ne pas édulcorer : la conformité n’est pas quelque chose qu’une entreprise peut entièrement « octroyer » à un utilisateur par une annonce produit. Même si un système est conçu pour être compatible HIPAA ou propose des fonctions de sécurité robustes, les organisations doivent encore le déployer de manière responsable. Cela implique des contrôles d’accès, des permissions fondées sur les rôles, des pistes d’audit, la formation du personnel, des politiques de rétention, une planification de réponse aux incidents, et des frontières limpides sur les données qui doivent, ou ne doivent pas, être saisies dans le système. Pour une IA tournée vers le patient comme ChatGPT Health, la confidentialité et le consentement doivent être particulièrement lisibles, car les patients ne mesurent pas toujours ce qu’ils partagent lorsqu’ils téléversent des documents, connectent des comptes ou collent des textes issus de portails. L’outil doit prévenir la sur‑divulgation accidentelle et rendre évident le moment où une question franchit la limite du « vous avez besoin d’un clinicien ». Pour une IA orientée workflow comme Claude for Healthcare, la charge se déplace vers les contrôles institutionnels

French

Quand l’IA commence à faire le travail des « jeunes diplômés » : ce que cela signifie pour nous, thérapeutes

Si vous exercez depuis suffisamment longtemps, vous vous souvenez probablement à quel point vos premières années ont été façonnées par les aspects les moins glamour du métier. Notes, rapports, formulaires d’admission, messages de planification, cotation, et interminable mise au propre de la documentation. C’était épuisant, mais cela faisait aussi partie de l’apprentissage. Écrire nous obligeait à clarifier ce que nous observions, ce que nous pensions que cela signifiait, et pourquoi nous choisissions une prochaine étape particulière. Aujourd’hui, l’intelligence artificielle s’invite précisément à ce niveau de la vie clinique, en ergothérapie, orthophonie, psychologie et kinésithérapie. Pas de manière spectaculaire « les robots remplacent les thérapeutes », mais de manière pratique, au quotidien. L’IA peut rédiger de la documentation, résumer des textes longs, organiser l’information et générer des modèles de première intention. Cela change ce que les cliniques mesurent, ce que les responsables attendent, et ce que les cliniciens en début de carrière se sentent pressés de produire. De notre point de vue de cliniciens, le plus grand changement est que l’IA compresse certaines parties de la courbe d’apprentissage. Un nouveau diplômé peut produire très vite quelque chose de soigné, et parfois cette production soignée peut masquer le fait que le raisonnement clinique est encore en développement. Un paragraphe au ton assuré n’est pas la même chose qu’une formulation solide. Un plan bien rangé n’est pas un plan individualisé. Lorsque les charges de cas sont lourdes et le temps de supervision limité, il devient plus facile de confondre vitesse et compétence et c’est là que le risque grandit, discrètement. Ainsi, le seuil d’exigence à l’entrée évolue. Si les tâches routinières deviennent plus rapides, l’attente est que le clinicien apporte davantage de ce qui ne peut pas être automatisé. Un raisonnement clinique plus robuste apparaît plus tôt. Le jugement éthique cesse d’être un thème de formation annuel pour devenir une décision quotidienne, en particulier autour de la confidentialité, du consentement, des biais, et de ce qui ne doit jamais être saisi dans un outil public. La littératie numérique devient également une dimension du professionnalisme, non pas parce que nous devons être des experts techniques, mais parce que nous devons en comprendre assez pour utiliser les outils de manière responsable et en expliquer les limites. Nous pensons aussi qu’il est utile d’être très clair sur ce à quoi l’IA sert réellement en pratique. Elle peut soutenir la préparation, la structuration et l’efficacité. Elle peut nous aider à rédiger, à réfléchir et à organiser. Mais elle ne peut pas assumer la responsabilité. Nous devons toujours relire chaque sortie comme si nous devions en répondre. Nous devons toujours vérifier les sources lorsque des recherches sont résumées. Nous devons toujours adapter chaque plan à la personne en face de nous, car des recommandations génériques peuvent être subtilement inadaptées au contexte, à la culture, aux risques et aux objectifs d’un patient. Pour les superviseurs, propriétaires de cliniques et cliniciens seniors, une responsabilité parallèle existe. Si l’IA réduit le temps de documentation, nous devons décider intentionnellement où va ce temps. Il peut être réinvesti dans une réflexion plus approfondie, des discussions de consentement plus claires, des soins plus collaboratifs et un suivi renforcé. Ou il peut servir à caser davantage de séances tout en appelant cela de l’innovation. Une seule de ces options protège les soins centrés sur la personne, et une seule soutient le développement de cliniciens sûrs. Au bout du compte, nous ne voyons pas l’IA comme un substitut à la thérapie : elle en redéfinit le rôle. Les thérapeutes qui prospéreront seront ceux qui pensent avec clarté, utilisent les outils avec discernement et protègent ce qui demeure profondément humain : la relation, le rythme et le jugement éthique. Cela signifie aussi utiliser l’IA de manière responsable : garder les informations des patients anonymisées/dé‑identifiées dès que possible, et privilégier des systèmes locaux et hors ligne (sur l’appareil ou sur un serveur interne sécurisé) plutôt que d’envoyer des données vers des outils en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites strictes sur ce qui est saisi, et une explication transparente de l’itinéraire des données, des personnes qui peuvent y accéder et de la manière dont elles sont stockées. Si l’IA nous offre quelque chose qui mérite d’être conservé, c’est du temps pour faire davantage de ce que seuls les cliniciens peuvent faire. Ressources • World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance (ISBN 9789240029200). World Health Organization. https://www.who.int/publications/i/item/9789240029200• NHS England. (2025, April 27). Guidance on the use of AI-enabled ambient scribing products in health and care settings (Version 2). NHS England. https://www.england.nhs.uk/long-read/guidance-on-the-use-of-ai-enabled-ambient-scribing-products-in-health-and-care-settings/• American Speech-Language-Hearing Association. (n.d.). Generative Artificial Intelligence (AI) for clinicians in audiology and speech-language pathology. https://www.asha.org/practice/generative-artificial-intelligence-for-clinicians/• American Physical Therapy Association. (2024, September 23). Ethical and effective integration of artificial intelligence across physical therapist practice, education, and research [Policy]. https://www.apta.org/apta-and-you/leadership-and-governance/policies/ethical-and-effective-integration-of-artificial-intelligence-across-physical-therapist-practice-education-and-research• Krebs, K., Montagne, L., & Rodakowski, J. (2025, August 2). Generative Artificial Intelligence for OT practitioners: Easy as ABC and 123. OT Practice, 30(8). https://www.aota.org/publications/ot-practice/ot-practice-issues/2025/generative-artificial-intelligence-for-ot-practitioners-easy-as-abc-and-123

Shopping Cart