
Dans les cliniques et les laboratoires de recherche, la difficulté principale n’est souvent pas le jugement clinique lui-même, mais la préservation du temps et de l’espace mental nécessaires à ce jugement. Les notes s’accumulent, les emails et formulaires se multiplient, les analyses attendent un moment de calme qui n’arrive jamais, et les décisions doivent malgré tout être formalisées clairement. C’est dans ce contexte que GPT5.5 devient cliniquement pertinent : non pas comme un modèle plus spectaculaire, mais comme un levier de transformation des flux de travail. OpenAI le décrit comme plus rapide pour comprendre l’intention, plus performant sur des tâches complexes, et plus efficient en tokens, ce qui se traduit souvent par des itérations plus rapides ou moins coûteuses.
En pratique, « comprendre ce que vous essayez de faire » distingue un assistant qui se contente de reformuler des phrases d’un outil qui aide à préserver le raisonnement clinique sous contrainte temporelle. Prenons l’exemple d’une évaluation complexe où antécédents traumatiques, troubles du sommeil, usage de substances et symptômes thymiques entrent en compétition explicative. Un modèle plus performant peut aider à maintenir une narration cohérente, suivre les hypothèses en cours et distinguer les données observées des inférences. Le risque est que la cohérence donne l’illusion de la vérité et favorise une fermeture prématurée du raisonnement.
L’efficience en tokens peut sembler technique, mais elle influence les comportements en modifiant la fréquence des révisions. Si la réécriture d’un formulaire de consentement, l’amélioration d’un email de supervision, la simplification de consignes de sortie ou la traduction de psychoéducation deviennent plus faciles, les équipes itéreront davantage, ce qui peut améliorer la clarté et réduire les erreurs. À l’inverse, une friction réduite peut favoriser un élargissement des usages vers des tâches à plus fort enjeu. Lorsque le langage devient facile à produire, l’incertitude peut se transformer en discours assuré.
Un changement plus profond concerne le travail agentif, c’est-à-dire la capacité de l’outil à faire avancer les tâches à travers plusieurs étapes et outils, et pas seulement à produire du texte. En recherche, cela peut resserrer la boucle entre plan d’analyse, code et rédaction. En clinique, cela peut accélérer la production de premières versions de lettres, synthèses et guides, qui nécessitent néanmoins validation et signature par un clinicien. La promesse est une réduction de la charge administrative, et non un remplacement du raisonnement clinique.
Un effet plus discret concerne le travail en équipe. Si un outil conserve le contexte, suit les dépendances et propose des actions suivantes, les professionnels peuvent externaliser la planification et la synthèse, ce qui allège la charge mais peut aussi éroder des compétences de sécurité essentielles : détecter les incohérences, remettre en question les hypothèses et identifier les éléments manquants. Des outils plus performants n’éliminent pas les biais ; ils les redistribuent souvent. Des productions soignées peuvent induire un biais d’automatisation (« cela semble validé »), et des formulations initiales peuvent s’ancrer durablement même lorsque de nouvelles données apparaissent.
La mesure de protection la plus concrète consiste à maintenir une structure clinique explicite, même lorsque la rédaction devient fluide. Il est utile de distinguer systématiquement faits, interprétations et décisions, et de solliciter régulièrement des alternatives : quelles autres hypothèses pourraient expliquer ce tableau, quels éléments permettraient de les invalider, et quelles incertitudes persistent. En recherche, l’usage le plus rigoureux concerne souvent le soutien méthodologique plutôt que la génération narrative, par exemple pour clarifier des pré-enregistrements, documenter les étapes de traitement des données et standardiser les rapports. À mesure que les capacités augmentent, le contrôle des versions devient central : prompts, productions intermédiaires, modifications et décisions finales doivent être traçables pour l’évaluation par les pairs ou l’audit.
Sur le plan éthique, la responsabilité incombe toujours au clinicien ou au chercheur, et non à l’interface. Même si les documents systèmes décrivent des mesures de sécurité, ils ne remplacent pas la gouvernance locale, les contrôles de confidentialité et les règles encadrant les données pouvant être partagées, ainsi que les validations nécessaires pour les contenus destinés aux patients ou influençant les décisions. La transparence implique de pouvoir expliquer ce que le modèle a modifié, ce qu’il n’a pas modifié, et comment les productions ont été vérifiées. La surveillance des biais doit rester active, car une langue fluide peut masquer des erreurs inégales selon les contextes culturels, les handicaps, le niveau de littératie ou les conditions socio-économiques, en particulier dans les contenus traduits ou simplifiés.
La conclusion doit rester mesurée. L’enjeu n’est pas l’automatisation du jugement, mais l’amélioration des conditions dans lesquelles il s’exerce. Si l’efficience en tokens libère du temps et que les outils réduisent la charge administrative, l’attention peut se recentrer sur la qualité de la formulation clinique, l’alliance thérapeutique, la mesure et la rigueur méthodologique. La question clé n’est pas de savoir si GPT5.5 « fonctionne », mais dans quelles conditions il améliore les décisions, comment il échoue sous contrainte, et quelles structures de responsabilité garantissent que le raisonnement humain reste clairement au centre.
