« Agents brillants, jugements fuyants : ce que DeepMind nous oblige à voir »

À mesure que les systèmes d’IA entrent dans les flux cliniques, le vocabulaire doit devenir opérationnel plutôt que rhétorique. Un agent IA désigne un système logiciel piloté par modèle, capable de planifier et d’exécuter des tâches multi‑étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et réviser ses étapes en fonction des résultats. Autrement dit, c’est plus qu’une réponse de chatbot : c’est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît souvent lorsqu’on qualifie d’« agentique » tout système simplement fluide.

Google DeepMind vient de publier un avertissement d’environ 42 pages sur les raisons pour lesquelles la plupart des « agences IA » échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même constat. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « agents » aujourd’hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne savent pas écrire ou planifier, mais parce qu’ils ne savent pas déléguer comme l’exigent les systèmes réels. Et la thérapie est précisément l’endroit où cet écart devient visible très tôt.

Voici ce qui pique : la plupart des agents actuels ne sont pas des agents au sens fort qu’on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en étapes, appellent des outils et renvoient un résultat. C’est de l’automatisation puissante, qui peut réellement créer de l’efficacité pour des tâches à faible enjeu. Mais ce n’est pas de la délégation : c’est un pipeline plus élégant. Or, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s’infiltrent dans la pratique quotidienne.

Qu’entend‑on par « délégation » ? La délégation n’est pas monolithique. Elle peut signifier déléguer l’exécution (le système réalise des étapes que vous avez déjà choisies), déléguer le contrôle du flux de travail (il séquence les outils, gère les relances et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « agentiques » savent surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit externalisé et que l’imputabilité bascule réellement. En thérapie, le danger survient quand, sans s’en rendre compte, on délègue le jugement tout en croyant n’avoir délégué que l’exécution.

Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c’est transférer de l’autorité, de la responsabilité, de l’imputabilité et de la confiance et le faire dynamiquement au fil des situations. Il ne s’agit donc pas seulement de demander : « Qui peut le faire le plus vite ? » mais « À qui peut‑on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd’hui, les systèmes qui se comportent ainsi de bout en bout lorsque s’entremêlent multiplicité d’outils, données incertaines et véritables enjeux.

Avant même de déléguer, le cadre proposé implique d’évaluer la capacité, le risque, le coût, la vérifiabilité et la réversibilité. Autrement dit, la question n’est pas « l’agent a‑t‑il accès à l’outil calendrier ? » mais « cette tâche est‑elle sûre à confier, pouvons‑nous en vérifier le résultat et pouvons‑nous annuler le tort si c’est erroné ? » C’est une manière très « clinique » de penser et c’est précisément pourquoi ce papier touche davantage les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection.

La thérapie n’est pas qu’un travail informationnel ; c’est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « sorties » : ils l’éprouvent comme de la confiance, de la sécurité, du timing, de l’accordage et des limites. Donc, lorsqu’un système d’IA est présenté comme un « agent », la vraie question devient : que délègue‑t‑on, et qu’externalise‑t‑on sans le vouloir ? Si nous laissons un système dériver vers le jugement clinique, nous déléguerons peut‑être bien plus que prévu.

Quand « l’agence » de l’IA échoue dans notre contexte, elle n’échoue pas par un non‑sens criant. Elle échoue en silence : une note se trouve subtilement déformée, un signal de risque est minimisé, un message au patient devient trop assuré, ou une phrase de plan de sécurité devient trop générique pour être sûre. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous écririons à 18 h et c’est précisément ce qui la rend dangereuse. La fluidité crée une fausse réassurance, et la fausse réassurance est un risque clinique.

Limites actuelles des agents IA (surtout en flux de travail réels)

  • Coordination et interopérabilité fragiles
    Même performants sur des tâches ponctuelles, les agents peinent souvent à coopérer de façon fiable entre outils, politiques, jeux de données et autres agents. Les configurations multi‑agents deviennent cassantes : l’hypothèse d’un agent devient le « fait » d’un autre, les erreurs d’outils se propagent et il devient difficile d’identifier la chaîne de responsabilité. Or les cliniques réelles ne sont pas des bacs à sable mono‑outil : ce sont des environnements multi‑systèmes, avec données partielles et contraintes mouvantes. La limite n’est pas seulement l’intelligence, c’est la collaboration fiable et gouvernable.
  • Diffusion de l’imputabilité (problème de gouvernance)
    Faute d’interopérabilité robuste, les humains doivent encore gérer la coordination entre agents. Si un agent délègue à un autre, qui appelle un outil, qui s’appuie sur des données incomplètes, qui répond vraiment du libellé final envoyé à un patient ? Nous signons peut‑être, la clinique déploie, le fournisseur outille, le modèle génère et pourtant, personne ne peut pointer une frontière de décision traçable et vérifiable. En thérapie, ce n’est pas théorique : c’est ainsi que la responsabilité éthique se brouille.
  • Oui aux gains, non au glissement de mission
    Les agents offrent de vrais gains : réduction de la charge administrative, brouillons de psychoéducation que nous validons, structuration de fiches, traduction ou simplification adaptées au niveau de littératie, synthèses de nos notes antérieures avec provenance claire. Mais des contraintes pratiques demeurent, donc les frontières doivent rester explicites : déléguer des tâches à faible risque, réversibles et vérifiables, et résister à déléguer tout ce qui ressemble à du diagnostic, de l’évaluation du risque, de la réponse en crise ou des décisions de traitement. Si nous tenons cette ligne, nous récoltons les bénéfices sans céder ce pour quoi les patients viennent : une responsabilité humaine digne de confiance.

Leave a Comment

Your email address will not be published. Required fields are marked *

Shopping Cart