
Le travail clinique et la recherche échouent rarement faute d’information introuvable ; ils échouent parce que nous ne parvenons pas à convertir l’information en résultats utilisables assez vite. La friction se niche dans les tâches intermédiaires : préparer une note de contexte pour une réunion de cas, transformer des notes éparses en un amendement de protocole cohérent, nettoyer des références avant une nouvelle soumission, ou rédiger un support patient à la fois lisible et exact. Ce qui rend l’idée d’un « ordinateur IA » nouvellement convaincante, c’est qu’il vise précisément ce tissu conjonctif du travail, et non la simple conversation.
Perplexity décrit Computer comme un système unifié, basé sur le cloud, capable de « rechercher, concevoir, coder, déployer et gérer » des projets de bout en bout, en décomposant un objectif en sous‑tâches et en les aiguillant vers des composants spécialisés. Dans la description publique, il peut orchestrer le travail en parallèle sur 19 modèles, « en faisant correspondre chaque tâche au meilleur modèle », tout en se souvenant du contexte antérieur et en se connectant à des services externes. L’ambition est claire : transformer le navigateur en un espace de travail opérationnel où l’utilisateur exprime une intention et où le système exécute un travail multi‑étapes.
L’attrait est facile à comprendre dans les processus réels. Nous pratiquons déjà une délégation contrainte au quotidien : nous confions des pans d’un projet à des stagiaires, assistants de recherche, administrateurs ou collègues, puis nous intégrons, vérifions et validons. Un système agentique promet un schéma analogue, mais à une vitesse et une échelle différentes. S’il fonctionne de manière fiable, il peut dégager du temps pour ce qui demeure obstinément humain : la présence thérapeutique, le jugement clinique sous incertitude, une supervision nuancée et l’interprétation soigneuse des données probantes.
Cette tension s’accentue lorsque l’orchestration devient invisible. Si Computer décompose une tâche en étapes, choisit des outils et fusionne les résultats, alors la traçabilité devient essentielle : quelles sources ont été utilisées, quel modèle a généré quelle affirmation, et quel était le degré d’incertitude du système à chaque étape ? En recherche, ces détails conditionnent la reproductibilité d’une synthèse de la littérature ; en clinique, ils déterminent si une fiche d’information, une note de politique interne ou une aide à la documentation reste dans les limites de la pratique fondée sur les preuves. Plus le processus est autonome, plus nous avons besoin de systèmes qui rendent leur raisonnement lisible plutôt que simplement impressionnant.
Une seconde tension tient à la provenance. En recherche, nous devons savoir quelles sources ont été mobilisées, comment les affirmations ont été dérivées et quelle incertitude subsiste, car la crédibilité d’une synthèse dépend d’un raisonnement traçable. En contexte clinique, la provenance importe tout autant, bien que moins souvent formalisée : nous devons savoir si un livrable s’appuie sur des lignes directrices, des essais de haute qualité, des politiques locales, ou de simples généralisations plausibles. Les outils agentiques peuvent compresser les étapes avec une telle efficacité qu’ils compressent aussi notre visibilité sur l’origine d’une conclusion.
Le coût fait passer ces questions de la théorie aux décisions quotidiennes. À environ 240 $ par mois, il ne s’agit pas d’un abonnement impulsif pour la plupart des cliniciens ; c’est plutôt un arbitrage d’effectifs. Payer ce montant suppose implicitement que le temps gagné soit à la fois substantiel et fiable, et que le temps passé à vérifier les sorties ne regonfle pas insidieusement la charge de travail. En clinique, le « vrai coût » inclut non seulement l’argent, mais aussi la charge cognitive de supervision et le risque réputationnel d’erreurs.
D’un point de vue pratique, les usages les plus sûrs à court terme sont ceux qui excluent les données identifiantes du système et maintiennent une vérification résolument humaine. Rédiger des gabarits psychoéducatifs non identifiants, créer des supports de formation pour les stagiaires, clarifier des procédures stagiaires, ou générer des plans détaillés de premier jet pour des documents de recherche peut être pertinent, à condition de traiter les sorties comme des brouillons et d’exiger une vérification des sources. Le profil de risque change nettement lorsqu’on se rapproche de détails de cas identifiants ou de recommandations cliniques très spécifiques, surtout dans de petites communautés ou des présentations rares où la ré‑identification est plus facile qu’on ne l’admet.
Il faut aussi reconnaître une limite plus discrète que les chercheurs chevronnés connaissent bien : ces outils peuvent accélérer l’apparence de la production scientifique. Ils savent produire un cadrage cohérent, une prose convaincante et des synthèses soignées même lorsque la base de preuves est mitigée ou contestée. Le danger ne tient donc pas qu’aux « hallucinations » au sens spectaculaire du terme ; c’est aussi la surconfiance routinière, surtout sous la pression des délais, la fatigue ou des incitations institutionnelles qui privilégient la vitesse au détriment de la rigueur.
Sur le plan éthique, traitons les systèmes agentiques comme une nouvelle couche de délégation professionnelle qui exige transparence et habitudes de documentation. Si l’IA a matériellement façonné un livrable qui éclaire les soins (une politique de clinique, un support patient, une note d’aide à la décision), la responsabilité du clinicien n’est pas réduite ; elle est reconfigurée. Nous devons à nos patients et collègues une posture disciplinée sur les données introduites dans le système, les sources mobilisées et la manière dont les affirmations ont été contrôlées. Cela s’aligne sur les cadres plus larges de gestion des risques liés à l’IA, qui insistent sur une gouvernance tout au long du cycle de vie : cartographier les défaillances probables, fixer des limites et construire des habitudes de vérification plutôt que de compter sur les bonnes intentions.
Pour la suite, la question n’est pas de savoir si les « ordinateurs IA » deviendront plus courants ; ils le seront probablement. La vraie question est de savoir s’ils deviendront lisibles : des systèmes qui rendent leurs sources, leurs hypothèses et leurs limites suffisamment visibles pour des cultures cliniques et de recherche fondées sur l’auditabilité et la confiance. Si nous les adoptons avec discernement, en commençant par des tâches à faible risque, en mesurant le temps gagné face au temps de vérification, et en maintenant des frontières strictes autour des données sensibles, nous pourrons traiter ces outils comme des assistants plutôt que des autorités, et préserver l’intégrité de notre travail tout en réduisant les frictions évitables.
