Français

Français

Utiliser ChatGPT avec Excel lorsque la précision est déterminante

Dans les contextes cliniques et de recherche, Excel reste omniprésent parce qu’il permet de travailler rapidement, simplement et de manière souple. Les journaux de sélection, les suivis d’événements indésirables, les synthèses d’activité clinique ou les bases de données d’amélioration de la qualité commencent souvent et demeurent parfois durablement sous forme de feuilles de calcul. Ce qui devient particulièrement intéressant aujourd’hui, c’est la possibilité de travailler non plus uniquement par formules ou par manipulation directe, mais par le langage. Décrire ce que l’on souhaite faire, puis laisser un système d’IA construire, mettre à jour, analyser ou dépanner un classeur, tout en conservant l’essentiel de sa structure, peut transformer un grand nombre de micro-tâches répétitives. Pour une équipe clinique ou de recherche déjà fortement sollicitée par la documentation et les échéances de reporting, ce changement est loin d’être marginal. L’intérêt ne réside pas tant dans une automatisation abstraite que dans la réduction de tâches fragiles et chronophages : étendre une logique à plusieurs feuilles, réparer une référence après insertion de colonnes, harmoniser des formats de date, ou produire des synthèses cohérentes sous contrainte de temps. L’interaction en langage naturel peut alors agir comme une couche de spécification au-dessus des formules. Par exemple : « Ajouter un indicateur de rendez-vous manqué selon notre définition actuelle » ou « Étendre ce tableau au nouveau site sans modifier le format du rapport ». Lorsqu’elle fonctionne correctement, cette approche permet de recentrer l’attention sur les choix de conception plutôt que sur la mécanique des cellules. La préservation de la structure est ici fondamentale. Dans de nombreux classeurs réels, la logique ne réside pas seulement dans les données, mais également dans la forme même du fichier : conventions de couleur, cellules protégées, formules traduisant des définitions locales, onglets masqués servant au calcul, dépendances entre feuilles. Un assistant d’IA qui reconstruit les tableaux, aplatit les formules ou réorganise librement les colonnes peut compromettre des usages en aval, même si la sortie semble pertinente. La question n’est donc pas seulement : « Le résultat est-il juste ? », mais aussi : « La feuille reste-t-elle fonctionnelle comme système ? » Les usages les plus sûrs se situent souvent du côté de l’ajout ou de la mise à jour contrôlée : création de nouvelles colonnes calculées, mise en place de règles de validation, ajout d’un onglet de synthèse, production d’un tableau croisé ou d’un graphique simple. Ces opérations sont d’autant plus sécurisées lorsqu’on demande explicitement que les modifications soient réalisées dans une zone séparée, un nouvel onglet ou une section clairement identifiée. L’objectif n’est pas de masquer le travail, mais au contraire de le rendre plus facilement relisible et vérifiable. La détection d’erreurs, en revanche, constitue un domaine dans lequel les bénéfices et les risques progressent de concert. Les erreurs de feuille de calcul sont souvent silencieuses : référence absolue devenue relative, plage SUMIF tronquée, conversion texte-vers-nombre produisant des zéros, recherche défaillante après changement de format d’identifiant. Un système d’IA peut aider à formuler des hypothèses plausibles et proposer des corrections minimales, ce qui est précieux lorsque le temps manque. Mais en contexte clinique, une seule cellule modifiée peut suffire à fausser des dénominateurs, des critères d’inclusion ou des valeurs de référence. Un autre apport intéressant concerne la lisibilité au sein d’équipes pluridisciplinaires. Tout le monde ne lit pas aisément des formules imbriquées, et cet écart peut concentrer la compréhension du système entre les mains d’une seule personne. Si un assistant peut traduire une demande telle que « Résumer les taux d’absence par site et par mois, en explicitant le traitement des données manquantes » en étapes explicites et en sorties clairement étiquetées, la feuille devient plus accessible au collectif. Cela peut améliorer la revue par les pairs et réduire les choix analytiques implicites dissimulés dans les cellules. Il subsiste néanmoins des limites qu’aucune interface ne peut abolir. Le langage naturel est ambigu, alors que les feuilles de calcul sont littérales. Une instruction comme « nettoyer les données » peut recouvrir des opérations très différentes : supprimer des espaces, fusionner des catégories, exclure certaines lignes, recoder des valeurs. Les formules générées peuvent paraître convaincantes tout en étant subtilement erronées, et les synthèses produites peuvent ignorer des artefacts comme les doublons, les décalages temporels ou les changements de pratiques de codage. Pour cette raison, l’usage responsable demeure d’abord procédural : gestion de versions, contrôles avant/après, tests sur des cas connus, rapprochement des totaux, et séparation stricte entre données sources, transformations et rapports. Sur le plan éthique, les enjeux majeurs sont la confidentialité, la transparence et la responsabilité. Envoyer des données identifiantes de patients à un outil externe sans cadre de gouvernance approprié serait incompatible avec une pratique rigoureuse. Même dans des environnements sécurisés, il doit être possible de documenter où l’IA a été utilisée, ce qui a été modifié et qui a validé la version finale. En pratique, il est sans doute plus juste de considérer l’assistance par IA comme un collaborateur junior : très utile pour esquisser des transformations, expliquer la logique d’une formule ou proposer des contrôles, mais jamais comme un substitut au jugement méthodologique. Plus le classeur porte des enjeux élevés, décision clinique, reporting réglementaire, résultats publiables, plus les exigences de validation doivent être fortes. À terme, le changement le plus important pourrait être culturel. Le langage naturel nous conduit à expliciter nos définitions avant de les encoder : qu’appelle-t-on un rendez-vous manqué ? Quelle date sert d’ancrage ? Comment traitons-nous les valeurs manquantes ? Si cette explicitation s’accompagne d’une vérification rigoureuse, nous pouvons espérer produire des feuilles non seulement plus rapides à maintenir, mais également plus faciles à auditer, à transmettre et à fiabiliser.

Français

Quand les preuves rencontrent l=interface : Wiley–OpenEvidence et la prochaine étape de l=accès aux connaissances cliniques

En clinique, la question qui nous arrête n’est presque jamais celle du « manuel ». Il s’agit bien davantage du patient singulier devant nous, d’une interaction médicamenteuse plausible mais non évidente, de la nuance d’une recommandation récemment actualisée, ou encore d’une analyse de sous-groupe dont nous conservons un souvenir partiel sans pouvoir la citer avec précision. Dans ce contexte, l’annonce, le 3 mars 2026, d’un partenariat entre Wiley et OpenEvidence relève moins d’une actualité technologique que d’une évolution concrète du flux de travail clinique : un grand éditeur concède sous licence un corpus médical de grande ampleur à un système d’IA au point de soin, conçu pour retrouver, synthétiser et citer des preuves biomédicales dans des situations où le temps est compté. Ce qui mérite d’être souligné, ce n’est pas simplement que l’intelligence artificielle poursuit son intégration dans le champ medical, les outils de recherche clinique et d’aide à la décision existent depuis longtemps, mais plutôt que cet accord remet au centre une évidence bien connue : la qualité d’une réponse dépend directement de la qualité et de l’intégrité de la littérature sous-jacente. Wiley formule d’ailleurs le problème de manière particulièrement parlante pour les cliniciens : le volume de publications augmente, tandis que le décalage entre production scientifique et appropriation dans la pratique persiste. OpenEvidence, de son côté, met en avant des réponses fondées sur des preuves, avec la volonté explicite de maintenir le clinicien au contact de sources citables plutôt que de synthèses impossibles à auditer. Le périmètre annoncé est particulièrement significatif. Il inclut notamment des contenus Cochrane, comme la Cochrane Database of Systematic Reviews et les Cochrane Clinical Answers, ainsi que des centaines de revues à comité de lecture publiées par Wiley, sans oublier un ensemble substantiel d’ouvrages et de revues couvrant de nombreuses spécialités. En pratique, cela est important, car les revues systématiques et les réponses cliniques structurées se situent au plus près de ce que l’on pourrait qualifier de niveau « actionnable » de la pratique fondée sur les preuves : celui où les étudiants, internes et cliniciens ont besoin d’une synthèse exploitable sans perdre le lien avec la méthode et les références. Le partenariat met également en lumière une contrainte souvent mal comprise par les utilisateurs finaux : le fait qu’une plateforme puisse analyser le texte intégral d’un article ne signifie pas qu’elle puisse en afficher librement l’intégralité. Dans l’édition scientifique, la version officielle demeure encadrée par le droit d’auteur et par des règles strictes de diffusion. En pratique, cela signifie qu’un outil peut traiter le texte complet en interne tout en ne restituant à l’utilisateur que des citations, des liens et des extraits limités. Ce fonctionnement protège la propriété intellectuelle, mais il crée aussi une tension pédagogique : les cliniciens et les apprenants peuvent avoir le sentiment qu’on leur demande d’accorder leur confiance à un résumé sans accès immédiat au raisonnement, aux méthodes ou aux limites détaillées. Du point de vue du flux de travail clinique, la promesse est claire : gagner du temps sans sacrifier la traçabilité. Si un outil d’IA peut répondre à une question telle que « Quelle est la preuve pour X dans la population Y ? » et orienter immédiatement vers la revue systématique pertinente, l’essai pivot ou l’ouvrage de référence approprié, avec un niveau de contexte suffisant pour juger de l’applicabilité, il peut effectivement réduire une part du temps à faible valeur consacré à la recherche dans plusieurs interfaces. Et ce gain de temps n’est pas anodin : il peut libérer de la disponibilité cognitive pour ce que seul le clinicien peut accomplir, intégrer les comorbidités, les préférences du patient, les contraintes de ressources, la faisabilité et le contexte local. Pour les étudiants en médecine et les internes, il est compréhensible que le premier réflexe soit souvent de se tourner vers des systèmes conversationnels généralistes. Des outils comme ChatGPT, Gemini ou Claude peuvent être utiles pour clarifier un concept, structurer un plan d’étude ou soutenir l’apprentissage. En médecine, toutefois, la fluidité ne doit jamais être confondue avec la fiabilité. Une réponse plausible mais non vérifiable ne constitue pas une simple approximation : elle représente un risque. L’approche la plus rigoureuse consiste donc à réserver les systèmes généralistes à l’apprentissage, à la reformulation ou à la rédaction, et à considérer la recherche de preuves comme une tâche distincte, qui exige des citations, une provenance explicite et la possibilité de vérifier les affirmations à partir des sources primaires. C’est précisément à cet endroit que des plateformes spécialisées peuvent s’avérer plus pertinentes. Non parce qu’elles seraient exemptes de limites, mais parce que leur logique de conception peut être mieux alignée sur les exigences de la pratique fondée sur les preuves. Un système conçu pour répondre à des questions médicales, ancré dans la littérature évaluée par les pairs et capable d’offrir une véritable piste de citations, correspond davantage à la manière dont nous enseignons et pratiquons : poser une question, rechercher, évaluer de manière critique, appliquer, puis réévaluer. Il convient néanmoins de reconnaître les limites de ce type d’intégration. Tout corpus sous licence a des frontières : ce qui est inclus, ce qui ne l’est pas, les spécialités les mieux représentées, les années les plus couvertes, les formats réellement accessibles. Si l’accès le plus robuste d’un système repose principalement sur certains portefeuilles éditoriaux, il existe un risque que la recherche favorise implicitement ces sources, sauf si des mécanismes explicites d’équilibrage sont mis en place. Et bien entendu, la littérature biomédicale elle-même n’est pas exempte de biais : biais de publication, représentativité mondiale inégale, évolution des standards méthodologiques. En d’autres termes, un corpus plus vaste ne garantit pas à lui seul un meilleur jugement clinique. Sur le plan éthique, de tels partenariats renforcent les exigences de transparence, de responsabilité et d’intégrité des données. Il est légitime d’attendre une information claire sur la nature du contenu interrogé, sur la sélection des citations et sur la manière dont l’incertitude est présentée, notamment lorsque les preuves sont faibles, contradictoires ou incomplètes. La question de la

Français

Mots originaux, idées réutilisées : la réalité du plagiat dans la recherche générale par IA

Tout ce qui « a l’air » nouveau ne l’est pas vraiment. Les IA génératives peuvent réellement booster la productivité en recherche : plan détaillé, réécriture, traduction, et même remue‑méninges quand on est bloqué. Mais la même aisance qui rend ces sorties « publiables » peut aussi masquer un risque plus discret : des travaux générés par IA peuvent recycler, sans intention malveillante, des connaissances existantes, non pas forcément en copiant des phrases, mais en réutilisant des idées, des ossatures argumentatives familières, des logiques d’étude déjà vues, et une nouveauté de façade. C’est la réalité à laquelle beaucoup de chercheurs sont désormais confrontés : le problème d’intégrité n’est souvent pas un plagiat flagrant, mais une réutilisation cachée, où le texte est original dans la forme, tandis que l’apport intellectuel est mince, dérivé, ou trop proche de l’existant. Dans ces cas‑là, la « nouveauté » devient un effet de surface, et l’intégrité scientifique consiste moins à débusquer du texte copié qu’à protéger la véritable originalité, la traçabilité du raisonnement et l’honnêteté de la contribution. Un exemple éclairant vient de l’étude ACL 2025 de Gupta et Pruthi, All That Glitters is Not Novel: Plagiarism in AI Generated Research (Outstanding Paper à ACL 2025). Leur objet n’est pas le simple copier‑coller, mais une forme plus subtile : des textes de style recherche qui reformulent ou recombinent des travaux antérieurs de manière à paraître « neufs » lors d’une relecture rapide. Au lieu de demander aux évaluateurs de juger la nouveauté comme d’habitude, les auteurs ont conçu un dispositif piloté par des experts, explicitement chargés de rechercher des sources de plagiat. Ils ont fait évaluer 50 documents de recherche générés par LLM (y compris des documents issus de « The AI Scientist » et d’autres propositions publiques, ainsi que de nouvelles générations). C’est important, car les évaluations classiques supposent souvent la bonne foi et n’incitent pas à une chasse active aux sources. Ils ont aussi utilisé une grille claire : les notes les plus élevées correspondaient aux cas où l’on observe quasiment une correspondance un‑pour‑un entre la méthodologie générée et des travaux antérieurs, ou bien où des pans substantiels sont empruntés à un petit nombre d’articles précédents sans attribution. Autrement dit, il ne s’agit pas d’identifier des phrases identiques, mais de constater que l’ossature intellectuelle de la méthode et de la contribution est trop proche de quelque chose qui existe déjà. Le résultat clef est difficile à ignorer : les experts ont signalé 24 % des 50 documents comme plagiés (notes 4–5) après des vérifications comprenant le contact avec les auteurs originaux ; si l’on inclut les cas où la vérification n’a pas été possible (par ex. auteurs injoignables), le taux monte à 36 %. Cet écart compte, car il montre comment les cas « confirmés » peuvent rester sous‑estimés lorsque la vérification réelle est lente ou impossible. C’est précisément ce qui rend le plagiat à l’ère de l’IA si particulier : le risque se loge souvent au niveau des idées, du cadrage du problème, de la chaîne méthodologique et des revendications de contribution, plutôt que dans la phraséologie identique. Si une proposition est rédigée avec assurance, présentée par sections impeccables et saupoudrée de citations plausibles, elle peut passer un contrôle de surface, même si le concept sous‑jacent n’est pas vraiment original. L’étude met aussi en évidence un second problème : l’automatisation ne nous sauve pas (encore). Les auteurs rapportent que plusieurs approches automatisées, notamment la recherche par embeddings et un service commercial de détection de plagiat, se sont révélées insuffisantes pour repérer le plagiat dans ces propositions générées par LLM. C’est cohérent avec une réalité plus large : « l’emprunt sémantique » est bien plus difficile à détecter que le recouvrement de chaînes de caractères. Pour l’évaluation par les pairs, cela crée un compromis pénible en termes de charge de travail. Si l’IA augmente le volume de soumissions très polies tout en accroissant la probabilité d’emprunts cachés, les relecteurs doivent passer davantage de temps en travail d’enquête : fouiller la littérature, cartographier les méthodes, vérifier si les « contributions originales » ne sont pas de simples versions renommées d’idées connues. Cette pression ne fait pas que ralentir la revue ; elle peut aussi pousser les évaluateurs vers des heuristiques superficielles, rendant le système encore plus facile à contourner. Pour les auteurs qui utilisent l’IA de manière éthique, l’état d’esprit le plus sûr est : l’IA peut vous aider à exprimer vos idées, mais elle ne doit pas être la source de votre contribution. Gardez une « trace de provenance » : ce que vous avez lu, ce que vous avez copié dans vos notes (entre guillemets), et ce que vous avez décidé vous‑même. Si l’IA suggère une méthode ou un cadrage, traitez‑les comme des indices non fiables ; puis vérifiez en recherchant les travaux antérieurs et en ajoutant des citations explicites là où votre idée se rattache à la littérature existante. Pour les universités, les revues et les conférences, la réponse ne doit pas être la panique, mais la mise à niveau des processus. Exigez une divulgation transparente de l’usage d’IA, renforcez les contrôles de nouveauté (surtout au niveau des idées/méthodes), et donnez aux relecteurs des outils et du temps pour mener des recherches ciblées de sources quand quelque chose paraît « trop propre ». Surtout, récompensez la citation soignée et le positionnement honnête (« ceci est une extension de X ») plutôt que la sur‑vente de la nouveauté ; car à l’ère de l’IA, il est plus facile de fabriquer une nouveauté apparente que du véritable progrès scientifique. Enfin, c’est précisément là que les relecteurs humains et le jugement humain restent essentiels, et où la responsabilité ne peut pas être externalisée. Parce que la réutilisation au niveau des idées est subtile, il faut souvent une expertise de domaine pour repérer quand une « nouvelle » chaîne de traitement n’est en réalité qu’une version renommée ou légèrement réarrangée d’un travail établi. Autrement dit, l’intégrité à l’ère de l’IA repose moins sur des alertes automatisées que sur

Français

Quand les algorithmes répondent à l'interaction : lecture critique d'une clinique-chercheuse du document de position 2026 de l=ESLA sur l=IA

Dans la réalité quotidienne d’une semaine d’orthophonie chargée, l’IA n’apparaît pas comme un débat abstrait. Elle se manifeste plutôt comme une série de points de friction : peut-on faire confiance à la transcription automatique pour un enfant multilingue ? faut-il tester une application de dépistage pour réduire les listes d’attente ? un outil génératif peut-il rédiger des consignes de programme à domicile sans s’éloigner des données probantes ? Le document de position de l’ESLA, Shaping the Future of Speech and Language Therapy with Artificial Intelligence, publié le 6 mars 2026, s’inscrit pleinement dans cette réalité. Il reconnaît que l’intelligence artificielle transforme rapidement les soins de santé et rappelle que l’orthophonie repose avant tout sur l’interaction humaine, le contexte et le jugement clinique. Le document évite deux extrêmes fréquents : adopter les technologies simplement parce qu’elles sont nouvelles, ou les rejeter parce qu’elles semblent risquées. Il propose une posture professionnelle équilibrée : l’IA doit soutenir les thérapeutes, et non les remplacer, tout en respectant les droits humains, la dignité, la diversité et l’inclusion. Mais une difficulté apparaît rapidement : ces principes sont justes, mais restent parfois trop généraux pour guider les décisions du quotidien. En pratique, « soutenir sans remplacer » devrait se traduire par des limites clairement définies : quelles tâches peuvent être automatisées ? lesquelles doivent rester sous responsabilité directe du clinicien ? quel niveau de supervision humaine est réellement suffisant dans des services déjà sous tension ? Sans ces repères, le risque est que le document devienne un socle de valeurs largement partagé, tandis que les pratiques réelles évoluent sous l’influence des fournisseurs de technologies, des contraintes budgétaires ou du manque de temps. L’ESLA évoque plusieurs opportunités prometteuses : dépistage, soutien à l’évaluation, planification des interventions, suivi des résultats, personnalisation des soins, modalités hybrides et amélioration de l’accès aux services. Cependant, le texte aurait pu aller plus loin dans certaines questions pratiques. Une réalité parfois inconfortable mérite d’être discutée : la « personnalisation » technologique peut facilement se transformer en optimisation pour la majorité. Cette question concerne particulièrement certains groupes : enfants multilingues, dialectes minorisés, utilisateurs de CAA, profils de handicap complexes ou normes communicationnelles culturellement situées. Si l’équité constitue un objectif central, il devient nécessaire de préciser les attentes minimales en matière de preuve scientifique : quels niveaux de validation sont nécessaires pour les systèmes de reconnaissance vocale multilingue ? quelles tailles d’échantillon sont requises ? quels accents ou variétés linguistiques doivent être testés ? quels taux d’erreur sont acceptables, et pour qui ? Sans ces critères, l’équité reste davantage une intention qu’une exigence mesurable. Le document apparaît particulièrement solide sur son socle éthique : confidentialité, consentement, propriété des données, biais algorithmiques, accès inégal et risque de dépendance excessive. Mais une position éthique forte ne se traduit pas automatiquement par une utilisabilité clinique. C’est là que de nombreux cliniciens pourraient exprimer la même frustration : les principes sont pertinents, mais les recommandations restent trop générales. La profession aurait probablement bénéficié d’orientations plus concrètes : des listes de « à faire / à éviter », des outils pratiques, ou des garde-fous applicables dans les flux de travail réels. Par exemple, un document plus opérationnel pourrait inclure : une classification des usages vert / orange / rouge, une check-list de vérification de la confidentialité, des standards minimaux d’évaluation scientifique, une liste de questions à poser aux fournisseurs avant l’achat d’un outil. Sans ces outils, chaque service se retrouve à élaborer ses propres règles, souvent dans l’urgence et avec des niveaux de protection très variables. La conclusion de l’ESLA appelle à une adoption réfléchie, collaborative et éthique de l’IA afin de renforcer la participation, la dignité et l’inclusion. C’est une direction pertinente. Mais la prochaine étape devrait consister à transformer ces valeurs en recommandations concrètes pour la pratique. La profession n’a pas seulement besoin d’une permission d’explorer l’IA. Elle a besoin d’un cadre structuré pour le faire en toute sécurité. Dans l’état actuel, le document de l’ESLA constitue une prise de position éthique solide. Mais il ne représente pas encore la boussole pratique que de nombreux cliniciens espéraient.

Français

CouvertureGPT 5.3 (« Instantané ») vs 5.4 (« Penser ») pour les thérapeutes : ce qui aide, ce qui nuit, et ce qui doit passer en premier

En recherche comme en thérapie, la partie la plus difficile de la semaine n’est souvent ni le « moment clinique » ni « l’idée de recherche » en soi. C’est l’accumulation du travail intermédiaire : transformer des notes brutes en formulations cohérentes, traduire des concepts techniques dans un langage avec lequel un patient peut réellement vivre, et documenter les soins de manière à la fois fidèle et lisible. Face à cette réalité, la manière la plus utile d’aborder ChatGPT 5.3 et 5.4 n’est pas sous l’angle de la nouveauté, mais sous celui du flux de travail. Que peuvent raisonnablement alléger ces outils, et quels nouveaux risques introduisent‑ils ? Avant de comparer la vitesse ou « l’intelligence », posez la question de conformité dont les lecteurs ont réellement besoin : cet outil est‑il approuvé HIPAA pour des PHI (informations de santé protégées), ou non ? La HIPAA ne « certifie » pas officiellement des logiciels comme « approuvés » ; en pratique, le socle est de savoir si vous pouvez obtenir un Accord d’association d’affaires (BAA: Business Associate Agreement) et faire appliquer les bons contrôles de conservation/accès. OpenAI indique que l’utilisation de son API (interface de programmation d’applications) avec des PHI requiert un BAA, et qu’un BAA pour ChatGPT est actuellement disponible uniquement pour les clients Enterprise ou Edu gérés par l’équipe commerciale (« sales managed »), et non pour ChatGPT Business. Donc si vous ne pouvez pas défendre, contractuellement et opérationnellement, la manière dont les données patients sont traitées, vous ne devriez pas considérer le système comme une extension de votre environnement clinique, que vous soyez aux États‑Unis sous HIPAA ou ailleurs sous l’éthique professionnelle et les attentes locales en matière de confidentialité. Une fois les garde‑fous clarifiés, la distinction 5.3/5.4 devient réellement utile. ChatGPT 5.3 (« Instant ») se lit comme un modèle réglé pour le flux quotidien : rapide, fluide, et souvent excellent pour transformer des idées brouillonnes en langage net. Dans un flux clinique, cela compte parce que cela cible les petites tâches qui deviennent écrasantes à grande échelle : rédiger de la psychoéducation, réécrire des consignes d’admission, simplifier l’explication des compétences d’adaptation, ou rendre le langage destiné aux patients moins technique. Il peut aussi produire rapidement plusieurs variantes afin que vous choisissiez la tonalité adaptée à l’âge, à la culture et à la disponibilité du client. La valeur clinique est réelle, mais l’abus peut être insidieux. Lorsqu’un modèle produit rapidement une prose assurée, il peut brouiller la frontière entre traduction (modifier le style en préservant le sens) et invention (combler discrètement des vides avec du contenu plausible). Cette frontière est cruciale, car les documents cliniques ne sont pas de la simple « écriture » : ce sont des dossiers qui façonnent la continuité des soins, la facturation, la supervision, et la manière dont les patients sont compris par d’autres systèmes. Si vous utilisez 5.3 pour des notes ou des synthèses, la posture la plus sûre est : il rédige la langue ; vous possédez les faits. ChatGPT 5.4 (« Thinking ») a tendance à être le plus utile lorsque la tâche a une structure interne, c’est‑à‑dire quand vous avez besoin que l’outil garde la trace des dépendances d’une étape à l’autre plutôt que de simplement réécrire un paragraphe. En recherche, cela peut signifier resserrer une section « Méthodes » sans en changer le sens, rédiger un canevas de plan d’analyse transparent, ou transformer des notes de réunion éparses en un plan de protocole que vous pourrez critiquer. En clinique, il peut vous aider à générer des hypothèses alternatives, à cartographier des facteurs de maintien, ou à créer des invites d’arbres décisionnels pour votre propre réflexion. L’intérêt n’est pas « il connaît la thérapie », mais qu’il peut vous aider à organiser la complexité lorsque vous êtes fatigué. Cette même cohérence introduit toutefois un type de risque spécifique : un récit « qui paraît remarquablement cohérent», psychologiquement convaincant, même s’il n’est pas redevable à la relation réelle, à la culture du patient, ou à vos données observées. Le 5.4 peut produire des formulations qui paraissent remarquablement intégrées, tout en restant subtilement erronées, excessivement confiantes ou prématurément interprétatives. En thérapie, cela peut se manifester par une fausse précision : des labels posés trop tôt, des récits causaux trop lisses, ou des synthèses qui écrasent involontairement les propres significations du patient. Plus la sortie est élégante, plus le clinicien doit être vigilant. La tarification compte, parce qu’elle détermine discrètement qui utilise quoi, à quelle fréquence et avec quelles garanties, ce qui, à son tour, façonne le risque clinique. Les paliers grand public d’OpenAI sont couramment présentés comme Go (~ 8$ /mois aux États‑Unis), Plus (20 $/mois) et Pro (200 $/mois), tandis que ChatGPT Business est affiché à 25$ par utilisateur/mois facturé annuellement (et la page de tarification propose « Essayer gratuitement »). Les prix peuvent également dépendre des régions, de sorte que ce que vous voyez au Liban peut différer des tarifs américains. La vraie question clinique n’est donc pas « Quel est le moins cher ? », mais : Quel plan s’aligne sur nos exigences de confidentialité et de gouvernance ? Des paliers personnels à moindre coût peuvent pousser des cliniciens vers un usage « compte personnel rapide » (souvent avec des contrôles administratifs plus faibles), tandis que les paliers Business/Enterprise sont conçus pour des contrôles organisationnels, tout en comportant encore des contraintes pratiques (par ex., l’« illimité » est généralement soumis à des garde‑fous contre les abus, et certains paliers comportent des réserves produit/fonctionnalités ; Go peut inclure de la publicité). Une manière réaliste d’utiliser correctement ces outils est de répartir les tâches selon le niveau de risque. Les usages à faible enjeu et à forte valeur comprennent la préparation de supports destinés aux patients (sans identifiants), la réécriture de contenus de psychoéducation, la génération de plusieurs formulations pour un message que vous allez relire, ou la création de gabarits de structuration de séance. Les zones à risque élevé diagnostic, évaluation du risque, décisions de obligation d’alerte (« duty to warn ») et

Français

Nano Banana 2 dans le monde réel : quand des images plus rapides imposent un niveau de vérification plus élevé en recherche, en soins et en communication

Le lancement par Google, fin février 2026, de Nano Banana 2, également décrit par Google et dans certaines couvertures comme Gemini 3.1 Flash Image, peut ressembler à une simple mise à jour de modèle, mais en clinique et dans les équipes de recherche, il agit plutôt comme un basculement de processus de travail. Il arrive dans un contexte de pressions de production bien connues : supports de recrutement contraints par les délais des IRB/comités d’éthique, figures de congrès qui doivent rester lisibles à distance, infographies patient qui simplifient sans déformer, et diapositives d’enseignement qui communiquent le risque de manière responsable. L’affirmation centrale de Google est d’associer une haute qualité d’image à une vitesse de type mode rapide, désormais accessible via l’application Gemini et les expériences de recherche Google telles que AI Mode et Lens, avec un message de déploiement explicite pour la région MENA. Quand la génération d’images devient à la fois rapide et visuellement persuasive, le changement ne se limite pas à une hausse du volume : il s’agit de cycles de décision plus courts. Google met en avant des fonctionnalités qui se superposent directement à la communication scientifique et clinique : rendu de texte amélioré à l’intérieur des images, meilleure cohérence des sujets à travers les éléments, contrôle des formats d’image, et sorties jusqu’en 4K. En pratique, cela peut signifier moins d’itérations de « design manuel » pour des illustrations d’ajustement posologique, des schémas de processus de consentement, des résumés visuels (visual abstracts) et des schématiques explicatives, en particulier dans les équipes dépourvues de support design dédié. Une revendication particulièrement lourde de conséquences est que Nano Banana 2 peut s’appuyer sur des informations et des images en temps réel issues de la recherche web pour améliorer la précision et soutenir la production de diagrammes et d’infographies. Le bénéfice est immédiat : des illustrations plus clairs produits rapidement, susceptibles d’améliorer la compréhension des patients et de réduire la charge cognitive des stagiaires. La tension méthodologique est tout aussi réelle : si l’« ancrage » dépend de sources qui ne sont pas clairement exposées, archivées et citables, nous gagnons en vitesse tout en perdant en traçabilité. Le risque n’est pas seulement qu’une image soit erronée, mais que nous ne puissions pas reconstruire pourquoi elle paraît si convaincante. Cette tension s’accentue avec le cadrage « à travers Gemini, Search et Ads ». Les intégrations les plus clairement documentées à ce stade concernent Gemini et Search. La direction Ads est plausible dans le contexte : Google Ads prend déjà en charge des processus protocoles d’intervention d’images génératives avec une consigne explicite demandant aux annonceurs de relire les assets générés par l’IA avant publication, et Google a déjà décrit l’intégration de modèles Gemini dans Performance Max. Mais les rapports affirmant que Nano Banana 2 alimentera directement les suggestions créatives dans Ads doivent être considérés comme une trajectoire rapportée tant que la documentation Ads de Google n’a pas nommé explicitement le modèle et son périmètre. Pour les chercheurs en santé et les cliniciens, l’enjeu est clair : le même bond qui améliore les supports d’éducation des patients peut aussi accélérer des contenus de santé persuasifs optimisés pour le clic et la conversion. À mesure que le vernis visuel devient moins coûteux, il se corrèle encore moins avec la vérité, déplaçant la charge d’évaluation vers des publics qui ont souvent le moins de temps et le plus à perdre. Le résumé pratique est simple : Nano Banana 2 compresse le temps de création, mais n’élimine pas la responsabilité, il la déplace. Les équipes responsables passeront moins de temps à brouillonner et plus de temps à vérifier : s’assurer que les schémas traduisent bien la relation causale visée, que les illustrations de risque correspondent aux seuils des lignes directrices, que les traductions préservent le sens, et que les graphismes destinés au grand public ne devancent pas l’état des preuves. Le point faible est institutionnel : nombre d’organisations manquent encore d’une gouvernance légère pour les « illustrations assistés par IA », alors même qu’elles disposent de contrôles matures pour les prescriptions, les instructions aux patients et les sorties de données de recherche. Sur le plan éthique, de meilleurs outils élèvent, et non abaissent, l’exigence sur trois devoirs. La transparence compte lorsque la provenance influe sur la confiance (supports destinés aux patients, éducation publique, communication de recherche à fort impact). L’intégrité des données et l’auditabilité comptent lorsque la génération adossée au web influence le contenu et que les sources ne sont pas récupérables. La discipline en matière de confidentialité demeure non négociable : des éléments identifiants de patients ne doivent pas devenir des ingrédients de instruction donnée à l’IA pour produire de « meilleures » images. Le filigranage et les « content credentials » peuvent aider, mais ils ne remplacent pas la relecture par des spécialistes lorsque le contenu est médical.

Français

Quand « Agent IA » entre en clinique : processus de travail multiagents

Le travail clinique et la recherche échouent rarement faute d’information introuvable ; ils échouent parce que nous ne parvenons pas à convertir l’information en résultats utilisables assez vite. La friction se niche dans les tâches intermédiaires : préparer une note de contexte pour une réunion de cas, transformer des notes éparses en un amendement de protocole cohérent, nettoyer des références avant une nouvelle soumission, ou rédiger un support patient à la fois lisible et exact. Ce qui rend l’idée d’un « ordinateur IA » nouvellement convaincante, c’est qu’il vise précisément ce tissu conjonctif du travail, et non la simple conversation. Perplexity décrit Computer comme un système unifié, basé sur le cloud, capable de « rechercher, concevoir, coder, déployer et gérer » des projets de bout en bout, en décomposant un objectif en sous‑tâches et en les aiguillant vers des composants spécialisés. Dans la description publique, il peut orchestrer le travail en parallèle sur 19 modèles, « en faisant correspondre chaque tâche au meilleur modèle », tout en se souvenant du contexte antérieur et en se connectant à des services externes. L’ambition est claire : transformer le navigateur en un espace de travail opérationnel où l’utilisateur exprime une intention et où le système exécute un travail multi‑étapes. L’attrait est facile à comprendre dans les processus réels. Nous pratiquons déjà une délégation contrainte au quotidien : nous confions des pans d’un projet à des stagiaires, assistants de recherche, administrateurs ou collègues, puis nous intégrons, vérifions et validons. Un système agentique promet un schéma analogue, mais à une vitesse et une échelle différentes. S’il fonctionne de manière fiable, il peut dégager du temps pour ce qui demeure obstinément humain : la présence thérapeutique, le jugement clinique sous incertitude, une supervision nuancée et l’interprétation soigneuse des données probantes. Cette tension s’accentue lorsque l’orchestration devient invisible. Si Computer décompose une tâche en étapes, choisit des outils et fusionne les résultats, alors la traçabilité devient essentielle : quelles sources ont été utilisées, quel modèle a généré quelle affirmation, et quel était le degré d’incertitude du système à chaque étape ? En recherche, ces détails conditionnent la reproductibilité d’une synthèse de la littérature ; en clinique, ils déterminent si une fiche d’information, une note de politique interne ou une aide à la documentation reste dans les limites de la pratique fondée sur les preuves. Plus le processus est autonome, plus nous avons besoin de systèmes qui rendent leur raisonnement lisible plutôt que simplement impressionnant. Une seconde tension tient à la provenance. En recherche, nous devons savoir quelles sources ont été mobilisées, comment les affirmations ont été dérivées et quelle incertitude subsiste, car la crédibilité d’une synthèse dépend d’un raisonnement traçable. En contexte clinique, la provenance importe tout autant, bien que moins souvent formalisée : nous devons savoir si un livrable s’appuie sur des lignes directrices, des essais de haute qualité, des politiques locales, ou de simples généralisations plausibles. Les outils agentiques peuvent compresser les étapes avec une telle efficacité qu’ils compressent aussi notre visibilité sur l’origine d’une conclusion. Le coût fait passer ces questions de la théorie aux décisions quotidiennes. À environ 240 $ par mois, il ne s’agit pas d’un abonnement impulsif pour la plupart des cliniciens ; c’est plutôt un arbitrage d’effectifs. Payer ce montant suppose implicitement que le temps gagné soit à la fois substantiel et fiable, et que le temps passé à vérifier les sorties ne regonfle pas insidieusement la charge de travail. En clinique, le « vrai coût » inclut non seulement l’argent, mais aussi la charge cognitive de supervision et le risque réputationnel d’erreurs. D’un point de vue pratique, les usages les plus sûrs à court terme sont ceux qui excluent les données identifiantes du système et maintiennent une vérification résolument humaine. Rédiger des gabarits psychoéducatifs non identifiants, créer des supports de formation pour les stagiaires, clarifier des procédures stagiaires, ou générer des plans détaillés de premier jet pour des documents de recherche peut être pertinent, à condition de traiter les sorties comme des brouillons et d’exiger une vérification des sources. Le profil de risque change nettement lorsqu’on se rapproche de détails de cas identifiants ou de recommandations cliniques très spécifiques, surtout dans de petites communautés ou des présentations rares où la ré‑identification est plus facile qu’on ne l’admet. Il faut aussi reconnaître une limite plus discrète que les chercheurs chevronnés connaissent bien : ces outils peuvent accélérer l’apparence de la production scientifique. Ils savent produire un cadrage cohérent, une prose convaincante et des synthèses soignées même lorsque la base de preuves est mitigée ou contestée. Le danger ne tient donc pas qu’aux « hallucinations » au sens spectaculaire du terme ; c’est aussi la surconfiance routinière, surtout sous la pression des délais, la fatigue ou des incitations institutionnelles qui privilégient la vitesse au détriment de la rigueur. Sur le plan éthique, traitons les systèmes agentiques comme une nouvelle couche de délégation professionnelle qui exige transparence et habitudes de documentation. Si l’IA a matériellement façonné un livrable qui éclaire les soins (une politique de clinique, un support patient, une note d’aide à la décision), la responsabilité du clinicien n’est pas réduite ; elle est reconfigurée. Nous devons à nos patients et collègues une posture disciplinée sur les données introduites dans le système, les sources mobilisées et la manière dont les affirmations ont été contrôlées. Cela s’aligne sur les cadres plus larges de gestion des risques liés à l’IA, qui insistent sur une gouvernance tout au long du cycle de vie : cartographier les défaillances probables, fixer des limites et construire des habitudes de vérification plutôt que de compter sur les bonnes intentions. Pour la suite, la question n’est pas de savoir si les « ordinateurs IA » deviendront plus courants ; ils le seront probablement. La vraie question est de savoir s’ils deviendront lisibles : des systèmes qui rendent leurs sources, leurs hypothèses et leurs limites suffisamment visibles pour des cultures cliniques et de recherche fondées sur l’auditabilité et la confiance. Si nous les adoptons avec discernement, en commençant par

Français

« Agents brillants, juges fuyants : ce que DeepMind nous oblige à voir »

À mesure que les systèmes d’IA entrent dans les flux cliniques, le vocabulaire doit devenir opérationnel plutôt que rhétorique. Un agent IA désigne un système logiciel piloté par modèle, capable de planifier et d’exécuter des tâches multi‑étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et réviser ses étapes en fonction des résultats. Autrement dit, c’est plus qu’une réponse de chatbot : c’est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît souvent lorsqu’on qualifie d’« agentique » tout système simplement fluide. Google DeepMind vient de publier un avertissement d’environ 42 pages sur les raisons pour lesquelles la plupart des « agences IA » échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même constat. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « agents » aujourd’hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne savent pas écrire ou planifier, mais parce qu’ils ne savent pas déléguer comme l’exigent les systèmes réels. Et la thérapie est précisément l’endroit où cet écart devient visible très tôt. Voici ce qui pique : la plupart des agents actuels ne sont pas des agents au sens fort qu’on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en étapes, appellent des outils et renvoient un résultat. C’est de l’automatisation puissante, qui peut réellement créer de l’efficacité pour des tâches à faible enjeu. Mais ce n’est pas de la délégation : c’est un pipeline plus élégant. Or, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s’infiltrent dans la pratique quotidienne. Qu’entend‑on par « délégation » ? La délégation n’est pas monolithique. Elle peut signifier déléguer l’exécution (le système réalise des étapes que vous avez déjà choisies), déléguer le contrôle du flux de travail (il séquence les outils, gère les relances et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « agentiques » savent surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit externalisé et que l’imputabilité bascule réellement. En thérapie, le danger survient quand, sans s’en rendre compte, on délègue le jugement tout en croyant n’avoir délégué que l’exécution. Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c’est transférer de l’autorité, de la responsabilité, de l’imputabilité et de la confiance et le faire dynamiquement au fil des situations. Il ne s’agit donc pas seulement de demander : « Qui peut le faire le plus vite ? » mais « À qui peut‑on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd’hui, les systèmes qui se comportent ainsi de bout en bout lorsque s’entremêlent multiplicité d’outils, données incertaines et véritables enjeux. Avant même de déléguer, le cadre proposé implique d’évaluer la capacité, le risque, le coût, la vérifiabilité et la réversibilité. Autrement dit, la question n’est pas « l’agent a‑t‑il accès à l’outil calendrier ? » mais « cette tâche est‑elle sûre à confier, pouvons‑nous en vérifier le résultat et pouvons‑nous annuler le tort si c’est erroné ? » C’est une manière très « clinique » de penser et c’est précisément pourquoi ce papier touche davantage les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection. La thérapie n’est pas qu’un travail informationnel ; c’est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « sorties » : ils l’éprouvent comme de la confiance, de la sécurité, du timing, de l’accordage et des limites. Donc, lorsqu’un système d’IA est présenté comme un « agent », la vraie question devient : que délègue‑t‑on, et qu’externalise‑t‑on sans le vouloir ? Si nous laissons un système dériver vers le jugement clinique, nous déléguerons peut‑être bien plus que prévu. Quand « l’agence » de l’IA échoue dans notre contexte, elle n’échoue pas par un non‑sens criant. Elle échoue en silence : une note se trouve subtilement déformée, un signal de risque est minimisé, un message au patient devient trop assuré, ou une phrase de plan de sécurité devient trop générique pour être sûre. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous écririons à 18 h et c’est précisément ce qui la rend dangereuse. La fluidité crée une fausse réassurance, et la fausse réassurance est un risque clinique. Limites actuelles des agents IA (surtout en flux de travail réels)

Français

Quand « médecine IA » découvrir une réalité clinique : le regard d'un thérapeute sur Lotus Health AI et les bienfaits cachés pour la thérapie

Au cours des deux dernières semaines, de nombreux cliniciens ont vu circuler des posts au sujet de Lotus Health AI, présenté comme un « médecin IA propulsé par de vrais médecins » : un service supervisé par des médecins, capable d’évaluer, de diagnostiquer, de prescrire et d’orienter, positionné comme gratuit, disponible en permanence et multilingue. L’entreprise a également annoncé une levée de fonds de série A de 35 M$, portant le financement total à 41 M$, co‑menée par Kleiner Perkins et CRV, et soutient qu’elle peut réduire le gaspillage administratif en rendant les médecins plus productifs, sans facturation à l’assurance. Du point de vue d’un thérapeute, la question centrale n’est pas de savoir si le marketing est convaincant, mais si cela devient une porte d’entrée fiable vers les soins de première intention, réduisant les frictions que la thérapie absorbe souvent : troubles du sommeil pris à tort pour une dépression, problèmes thyroïdiens/anémiques ressemblant à un burn‑out, effets secondaires médicamenteux déstabilisant l’humeur, et incertitude médicale alimentant panique et anxiété de santé. Dans le travail quotidien, la thérapie peut devenir le lieu où un système de santé fragmenté est « traité », émotionnellement, et parfois même sur le plan administrative, parce que les patients n’ont pas accès à des soins en temps utile ailleurs. Un bénéfice pratique, si Lotus fonctionne comme décrit, tient à la vitesse en tant que paramètre clinique, et pas seulement à la commodité. Une clarification médicale plus précoce peut rendre les interventions thérapeutiques plus précises et plus efficaces. Quand un patient dit : « Quelque chose ne va pas physiquement », nous validons et explorons les schémas ; pourtant, la démarche responsable consiste parfois à obtenir une évaluation médicale rapidement. La différentielle compte : si les symptômes sont physiologiques ou liés aux médicaments, le plan change ; s’ils sont portés par l’anxiété, il change différemment. Dans de nombreux systèmes, « bientôt » se transforme en plusieurs semaines, et la thérapie devient un espace d’attente pour une incertitude non résolue. Un canal de type soins primaires, disponible 24 h/24 et 7 j/7, qui passe en revue l’historique consolidé et oriente vers des soins en présentiel, pourrait réduire cet écart. Lotus se positionne explicitement au‑delà des conseils génériques d’un chatbot en impliquant des médecins certifiés qui relisent les recommandations et prescrivent lorsque c’est approprié. Un second bénéfice est indirect mais significatif : il pourrait améliorer la qualité et la cohérence des informations que les patients rapportent en thérapie. Beaucoup peinent à décrire clairement leurs symptômes en raison du stress, de la dissociation, d’un dysfonctionnement exécutif, d’un traumatisme ou de l’épuisement. Si une plateforme aide à organiser traitements, bilans et dossiers antérieurs en un récit plus clair, elle peut réduire la honte (« Je n’invente pas »), affiner la compréhension (« mes attaques de panique se regroupent autour des perturbations du sommeil ») et aider les thérapeutes à choisir des interventions plus précises (p. ex., exposition pour l’anxiété de santé versus orientation urgente face à des signaux d’alarme). Troisièmement, il existe des bénéfices de coordination et d’accès, même si les thérapeutes n’utilisent jamais la plateforme. Lorsque les patients peuvent obtenir renouvellements d’ordonnances, revues médicamenteuses et orientations avec moins d’obstacles, la thérapie est moins susceptible d’être déstabilisée par des facteurs évitables. Concrètement, cela peut signifier moins de séances consacrées au dépannage de l’accès et davantage de temps pour le cœur du travail thérapeutique : compétences, élaboration de sens, réparation de l’attachement, changement de comportements et intégration au niveau identitaire. Cela dit, les thérapeutes sont formés à repérer comment les outils peuvent s’intégrer à un cycle symptomatique. Un « médecin dans la poche » disponible en continu peut stabiliser certains patients, mais aussi alimenter la quête de réassurance chez d’autres, en particulier dans l’anxiété de santé, les vérifications de type spectre TOC, les attaques de panique, les tableaux de symptômes somatiques ou le balayage corporel lié au trauma. Même si les recommandations sont solides, les vérifications répétées peuvent malgré tout fonctionner comme évitement ou compulsion. L’objectif n’est pas de diaboliser l’outil, mais de l’intégrer à un plan de traitement avec un usage clair, limité dans le temps et cohérent avec les valeurs. Des questions de limites apparaissent également très vite. Si les patients s’appuient sur des soins médiés par application, les thérapeutes seront sollicités pour les interpréter : « Puis‑je m’y fier ? » « Que signifie ce diagnostic ? » « Pouvez‑vous leur écrire pour moi ? » Une posture aidante consiste à le traiter comme tout prestataire externe : aider les patients à clarifier leurs questions, à traiter l’impact et à décider des prochaines étapes, tout en évitant de faire de la médecine par procuration. Il importe aussi de rappeler que la portée de tout service numérique piloté par des médecins peut varier selon la juridiction, les licences et les règles de télémédecine ; ainsi, « disponible » ne signifie pas toujours « autorisé à traiter » comme les patients l’imaginent. Sur le plan éthique, le modèle économique compte, car la confiance est un ingrédient clinique. Si les patients soupçonnent que des parrainages ou des incitations commerciales influencent les recommandations (que ce soit vrai ou non), cela peut éroder la confiance dans le système de santé et se manifester en thérapie par du cynisme, de l’évitement ou du désespoir. Cela rend la transparence pratique plutôt que philosophique : qu’est‑ce qui est automatisé versus relu par un clinicien, et comment les conflits d’intérêts sont‑ils gérés dans le temps ? La confidentialité et l’intégrité des données sont tout aussi centrales. Même avec des garanties de sécurité solides, il est utile de raisonner concrètement : quelles données sont mises en lien, qui peut y accéder, quel consentement a été donné, que peut‑on supprimer et que pourrait‑on conserver. Les systèmes riches en données peuvent échouer de manières Nouvelles, par des violations, des usages abusifs ou un excès de confiance dans des dossiers incomplets; la posture la plus éthique reste donc une intégration prudente, un consentement explicite et de l’humilité. Globalement, je m’intéresse avec prudence

Français

Du manuscrit au modèle : repenser l'illustration académique à l'ère de l'IA

En tant que chercheurs, nous passons un temps surprenant à faire des choses qui ne sont pas, à proprement parler, de la recherche. Nous concevons des études, affinons des hypothèses, collectons et analysons des données, nous engageons dans la théorie… puis nous ouvrons PowerPoint ou Illustrator et entamons le patient travail de transformer méthodes et résultats en figures. Nous ajustons des flèches, réalignons des blocs, standardisons des polices, corrigeons des axes, et exportons plusieurs versions pour respecter les consignes de soumission. La science peut être rigoureuse, mais le passage du texte à des visuels prêts pour la publication est souvent inefficace et cognitivement épuisant. Dernièrement, nous nous sommes penchés sur PaperBanana, un outil d’IA « texte‑vers‑figure » qui vise clairement les chercheurs souhaitant accélérer la création de figures sans sacrifier la clarté académique. La promesse centrale est simple : transformer des descriptions de méthode en schémas méthodologiques structurés, et transformer des données en graphiques d’une manière fidèle à ce que nous avons réellement fait (et pas seulement « plausible » à l’œil). Le détail qui lui donne un côté plus « research‑first » que des générateurs d’images génériques, c’est l’idée d’une boucle fermée de travail : au lieu d’un rendu en un seul jet, l’outil cherche à ébaucher, vérifier et affiner, de sorte que la figure corresponde mieux à la logique de la méthode. Le « plus » ici, ce n’est pas d’obtenir une jolie figure en quelques secondes. La vraie valeur ajoutée, c’est l’itération à faible coût. Quand l’itération ne coûte pas cher, on arrête de « figer » trop tôt les figures. On peut générer plusieurs versions, les comparer et traiter la construction d’une figure comme l’écriture : brouillon → critique → révision. C’est là que la qualité s’améliore en general, non parce que l’IA est parfaite, mais parce que notre boucle de retour s’accélère et s’épuise moins. En parallèle, soyons honnêtes : Illustrae joue un autre jeu. C’est souvent le meilleur choix quand la tâche n’est pas seulement « créer un schéma », mais assembler un récit visuel complet : figures multipanneaux, posters, supports pédagogiques, et beaucoup de décisions de mise en page manuelles. Illustrae offre en général davantage de fonctionnalités et de flexibilité, avec plus d’options prêtes à l’emploi pour gérer variables, dispositions, itérations et ajustements visuels. Le compromis que beaucoup ressentent, c’est le coût : on le décrit souvent comme nettement plus cher (et/ou moins prévisible) qu’un abonnement simple pour chercheurs, ce qui peut constituer un frein pour les individus ou les petits laboratoires. À l’inverse, PaperBanana paraît plus minimaliste et centré sur la recherche. Pour les schémas de méthodes et les figures conceptuelles, surtout au stade de l’ébauche, il peut offrir des performances comparables, tout en restant plus abordable, ce qui compte énormément pour les laboratoires, les doctorants et les jeunes chercheurs. Il est aussi souvent présenté comme bâtissant sur NanoBanana Pro, réputé plus adapté aux visuels scientifiques structurés que des modèles d’images généralistes comme DALL·E 3 (du moins pour des sorties de type schéma, où la structure et les libellés priment sur le « style artistique »). Comparatif synthétique Copy table Outil Idéal pour Modèle tarifaire (en pratique) Prix public (USD, tel qu’indiqué) Prévisibilité du coût (1–5) Valeur pour chercheurs (1–5) Flexibilité / contrôle (1–5) Atouts Compromis Illustrae Posters, figures multipanneaux, pédagogie, mises en page complexes Abonnement + crédits Tarifs payants non publiés (devis) (illustrae.co) 2 4 5 Plus de fonctionnalités ; meilleur contrôle de la mise en page ; solide pour assembler et peaufiner de grands visuels Peut être nettement plus cher / moins prévisible ; le coût peut bloquer individus/petits labos ; nécessite tout de même une relecture experte pour éviter les dérives conceptuelles PaperBanana Schémas de méthodes, figures conceptuelles, ébauches rapides de visuels de recherche Abonnement + crédits À partir de 4,90 $/mois (facturation annuelle) pour 100 crédits ; 6,90 $/mois pour 400 ; 19,90 $/mois pour 1 500 (paperbanana.studio). Autre page « plans de crédits » listant 14,90 $/mois, 59,90 $/mois, 119,90 $/mois (paperbanana.org). 4 5 3 Minimaliste et orienté recherche ; ébauche rapide ; bon pour schémas de méthodes ; suffisamment abordable pour étudiants/labos Pas de véritable offre gratuite pour une exploration poussée (abonnement requis) ; les figures finales exigent une retouche humaine ; les politiques de confidentialité peuvent ne pas garantir explicitement l’exclusion des travaux non publiés de l’entraînement des modèles Les limites, là où « l’IA pour l’académique » devient utile… ou risquée: La relecture humaine reste essentielle, car si ces outils accélèrent l’ébauche, les figures finales exigent une expertise, précision des libellés, causalités implicites, sens statistique, et vérification que le schéma n’exagère pas ce que la méthode peut réellement soutenir. À cela s’ajoute une friction d’abonnement bien réelle: sans véritable palier gratuit, l’adoption devient un choix budgétaire plus qu’une simple expérimentation, surtout pour les étudiants. Enfin, la confidentialité demeure une zone d’ombre: à moins qu’un outil ne garantisse explicitement et fermement l’exclusion des articles ou figures non publiés de l’entraînement (et n’éclaircisse ses politiques de rétention), la prudence s’impose pour tout contenu sensible ou en prépublication. Et oui, on peut toujours s’appuyer sur des outils d’IA « classiques » comme Notebook ou NotebookLM pour résumer, structurer ou remanier des idées. Ils excellent pour les flux de travail textuels, mais ne sont pas conçus spécifiquement pour les besoins visuels des chercheurs ; ils sont en général moins précis sur les conventions des schémas scientifiques, ce qui augmente le risque d’inexactitudes visuelles ou conceptuelles subtiles par rapport à des outils dédiés aux figures académiques. Alors, le véritable « plus », c’est quoi ? Nous rachetons de l’attention. Pas seulement du temps : de l’attention. Si l’ébauche de figures devient assez rapide pour que l’on itère sans appréhension, nous pouvons réinvestir nos efforts là où la recherche progresse vraiment : des hypothèses plus claires, des méthodes plus nettes, une meilleure interprétation et des figures qui communiquent plutôt que de décorer. Le bon choix d’outil n’a rien à voir avec la mode : il tient à son adéquation

Panier