« Agents brillants, juges fuyants : ce que DeepMind nous oblige à voir »

À mesurer que les systèmes d'IA entrent dans les flux cliniques, le vocabulaire fait devenir opérationnel plutôt que traditionnel. Un agent IA crée un système logique pilote par modèle, capable de planifier et d'exécuter des tâches multi-étapes orientées vers un but, y compris sélectionner des actions, utiliser des outils externes et revoir ses étapes en fonction des résultats. Autre dit, c=est plus qu=une réponse de chatbot : c=est un exécuteur de flux de travail finalisés vers un objectif. Cette définition compte, car la confusion naît toujours d'ailleurs« agent » tout système simple fluide.

Google DeepMind vient de publier un aperçu d'environnement 42 pages sur les raisons pour lesquelles la plupart des « Années IA » Échoueront dans le monde réel. En lisant Intelligent AI Delegation (publié le 12 février 2026), on y voit, exposé depuis les principes de base, le même état. La conclusion, inconfortable, est simple : une grande partie de ce qui est vendu comme « Agents » aujourd'hui ne survivra pas au contact du terrain. Non pas parce que ces systèmes ne sauvent pas écrit ou planificateur, mais parce qu'ils ne sauvent pas deéléguer comme l'a fait les systèmes réels. Et la thérapie est précisément l'Endroit où cet emplacement est visible très loin.

Voici ce qui pice : la plupart des agents actuels ne sont pas des agents au sens fort qu'on imagine. Ce sont des exécuteurs de tâches joliment emballés : on leur donne un objectif, ils le décomposent en bandes, appelent des outils et renvoyent un résultat. C'est de l'automatisation capable, qui peut vraiment créer de l'efficacité pour des tâches à faire enjeu. Mais ce n-est pas de la délégation : c-est un pipeline plus élégant. Ou, en santé, les « jolis pipelines » sont exactement la façon dont des risques cachés s'infiltrent dans la pratique quotidienne.

Quentend‐on par « délégation » ? La délégation n'est pas monolithique. Elle peut signifier déléguer l'exécution (le système réalise des enregistrements que vous avez déjà choisis), déléguer le contrôle du flux de travail (il sécunce les outils, gérer les rapports et les passages de main) ou déléguer le jugement (il décide quoi faire et quand, en interprétant le contexte et le risque). La plupart des systèmes vendus comme « Agents » épargnant surtout exécuter et, parfois, piloter un flux de travail, pas déléguer au point que le jugement soit extériorisé et que l'imputabilité bascule réel. En thérapie, le danger survient quand, sans s=en rendre compte, on délègue le jugement tout en croyant n=avoir délégué que l=exécution.

Le point, implacable, de DeepMind est que la vraie délégation ne consiste pas à morceler des tâches. Déléguer, c=est transférer de l=autorité, de la responsabilité, de l=imputabilité et de la confiance et le fait dynamique au fil des situations. Il n'a pas besoin de demander : « Qui peut le faire le plus vite ? » mais « À qui peut-on confier cela, sous ces contraintes, avec ces conséquences ? » Rares sont, aujourd'hui, les systèmes qui se comportent ai de bout en bout lorsque s=entremêlent multiplié d=outils, données incertaines et vénérables enjeux.

Avant même de télécharger, le cadre proposé implique d'évaluer la capacité, le risque, le coût, la vulnérabilité et la réversibilité. Autrement dit, la question n'est pas « L'agent a-t-il accès à l'outil calendrier ? » mais « cette tâche est-elle sûre à confier, pouvoir-nous en vérifier le résultat et pouvoir-nous annuler le tort si c'est erroné ? » C'est une manière très « clinique » de penser et c=est précisément ce papier toucher avant les thérapeutes que les démos techniques. Notre travail assume déjà le risque, pas la perfection.

La thérapie n'est pas qu'un travail informationnel ; c'est un travail relationnel, sous éthique, confidentialité et devoir de protection. Les patients ne vivent pas notre travail comme des « Sorties » : ils l'étaient comme de la confiance, de la sécurité, du timing, de l'accord et des limites. Donc, lorsqu'un système d'IA est présenté comme un « agent », la vraie question doit : que delegue‐t‐on, et qu'externalise‐t‐on sans le vouloir ? Si nous laissons un système dérivant vers le jugement clinique, nous avons peut-être bien plus que prévu.

Quand « Évolution » de l'IA echoue dans notre contexte, elle n'echoue pas par un non-sens criant. Elle écho en silence : une note se trouve subtilement déformé, un signal de risque est minimisé, un message au patient devenir trop assuré, ou une phrase de plan de sécurité devenir trop générique pour être sûr. La sortie peut paraître cohérente et professionnelle, parfois plus professionnelle que ce que nous avons écrit à 18 h et c'est précisément ce qui la rend dangereuse. La fluidité crée une fausse assurance, et la fausse assurance est un risque clinique.

Limites actuelles des agents IA (surtout en flux de travail réels)

  • Coordination et interopérabilité fragiles
    Même exécutants sur des tâches ponctuelles, les agents peinent toujours à coopérer de façon fiable entre outils, politiques, jeux de données et autres agents. Les configurations multi-agents déviennent cassantes : l'hypothèse d'un agent dévient le « Fait » d. un autre, les erreurs d.outils se propagent et il doit difficile d.identifier la chaîne de responsabilité. Ou les cliniques réelles ne sont pas des bacs à sable mono-outil : ce sont des environnements multi-systèmes, avec données partielles et contraintes mouvantes. La limite n=est pas seulement l=intelligence, c=est la collaboration fiable et gouvernementable.
  • Diffusion de l'information (problème de gouvernance)
    Faute d'interopérabilité robuste, les humains doivent encore gérer la coordination entre agents. Si un agent délégue à un autre, qui appelle un outil, qui appuie sur des données incomplétes, qui répondait vraiment du libéral envoyé à un patient ? Nous signons peut-être, la clinique opérationnelle, le fournisseur externe, le modèle génétique et résistant, personne ne peut pointer une frontière de décision traçable et vérifiable. En thérapie, ce n=est pas théorique : c=est ainsi que la responsabilité éthique se brouille.
  • Oui aux gains, non au glissement de mission
    Les agents offrent de vrais gains : réduction de la charge administrative, brouillons de psychoéducation que nous validons, structuration de fiches, traduction ou simplification adaptée au niveau de littérature, synthèses de nos notes anciennes avec provenance claire. Mais des contraintes pratiques demeurent, donne les frontières doivent rester explicites : téléphone des tâches à faible risque, réversibles et vérifiables, et résister à déléguer tout ce qui ressemble à du diagnostic, de l'évaluation du risque, de la réponse en crise ou des décisions de traitement. Si nous tenons cette ligne, nous récoltons les bénéfices sans cela pour quoi les patients viennent : une responsabilité humaine ligne de confiance.

Laissez un commentaire

Votre adresse email ne sera pas publiée. Les champs obligatoires sont marqués *

Panier