
Au cours des deux dernières semaines, de nombreux cliniciens ont vu circuler des posts au sujet de Lotus Health AI, présenté comme un « médecin IA propulsé par de vrais médecins » : un service supervisé par des médecins, capable d’évaluer, de diagnostiquer, de prescrire et d’orienter, positionné comme gratuit, disponible en permanence et multilingue. L’entreprise a également annoncé une levée de fonds de série A de 35 M$, portant le financement total à 41 M$, co‑menée par Kleiner Perkins et CRV, et soutient qu’elle peut réduire le gaspillage administratif en rendant les médecins plus productifs, sans facturation à l’assurance.
Du point de vue d’un thérapeute, la question centrale n’est pas de savoir si le marketing est convaincant, mais si cela devient une porte d’entrée fiable vers les soins de première intention, réduisant les frictions que la thérapie absorbe souvent : troubles du sommeil pris à tort pour une dépression, problèmes thyroïdiens/anémiques ressemblant à un burn‑out, effets secondaires médicamenteux déstabilisant l’humeur, et incertitude médicale alimentant panique et anxiété de santé. Dans le travail quotidien, la thérapie peut devenir le lieu où un système de santé fragmenté est « traité », émotionnellement, et parfois même sur le plan administrative, parce que les patients n’ont pas accès à des soins en temps utile ailleurs.
Un bénéfice pratique, si Lotus fonctionne comme décrit, tient à la vitesse en tant que paramètre clinique, et pas seulement à la commodité. Une clarification médicale plus précoce peut rendre les interventions thérapeutiques plus précises et plus efficaces. Quand un patient dit : « Quelque chose ne va pas physiquement », nous validons et explorons les schémas ; pourtant, la démarche responsable consiste parfois à obtenir une évaluation médicale rapidement. La différentielle compte : si les symptômes sont physiologiques ou liés aux médicaments, le plan change ; s’ils sont portés par l’anxiété, il change différemment. Dans de nombreux systèmes, « bientôt » se transforme en plusieurs semaines, et la thérapie devient un espace d’attente pour une incertitude non résolue. Un canal de type soins primaires, disponible 24 h/24 et 7 j/7, qui passe en revue l’historique consolidé et oriente vers des soins en présentiel, pourrait réduire cet écart. Lotus se positionne explicitement au‑delà des conseils génériques d’un chatbot en impliquant des médecins certifiés qui relisent les recommandations et prescrivent lorsque c’est approprié.
Un second bénéfice est indirect mais significatif : il pourrait améliorer la qualité et la cohérence des informations que les patients rapportent en thérapie. Beaucoup peinent à décrire clairement leurs symptômes en raison du stress, de la dissociation, d’un dysfonctionnement exécutif, d’un traumatisme ou de l’épuisement. Si une plateforme aide à organiser traitements, bilans et dossiers antérieurs en un récit plus clair, elle peut réduire la honte (« Je n’invente pas »), affiner la compréhension (« mes attaques de panique se regroupent autour des perturbations du sommeil ») et aider les thérapeutes à choisir des interventions plus précises (p. ex., exposition pour l’anxiété de santé versus orientation urgente face à des signaux d’alarme).
Troisièmement, il existe des bénéfices de coordination et d’accès, même si les thérapeutes n’utilisent jamais la plateforme. Lorsque les patients peuvent obtenir renouvellements d’ordonnances, revues médicamenteuses et orientations avec moins d’obstacles, la thérapie est moins susceptible d’être déstabilisée par des facteurs évitables. Concrètement, cela peut signifier moins de séances consacrées au dépannage de l’accès et davantage de temps pour le cœur du travail thérapeutique : compétences, élaboration de sens, réparation de l’attachement, changement de comportements et intégration au niveau identitaire.
Cela dit, les thérapeutes sont formés à repérer comment les outils peuvent s’intégrer à un cycle symptomatique. Un « médecin dans la poche » disponible en continu peut stabiliser certains patients, mais aussi alimenter la quête de réassurance chez d’autres, en particulier dans l’anxiété de santé, les vérifications de type spectre TOC, les attaques de panique, les tableaux de symptômes somatiques ou le balayage corporel lié au trauma. Même si les recommandations sont solides, les vérifications répétées peuvent malgré tout fonctionner comme évitement ou compulsion. L’objectif n’est pas de diaboliser l’outil, mais de l’intégrer à un plan de traitement avec un usage clair, limité dans le temps et cohérent avec les valeurs.
Des questions de limites apparaissent également très vite. Si les patients s’appuient sur des soins médiés par application, les thérapeutes seront sollicités pour les interpréter : « Puis‑je m’y fier ? » « Que signifie ce diagnostic ? » « Pouvez‑vous leur écrire pour moi ? » Une posture aidante consiste à le traiter comme tout prestataire externe : aider les patients à clarifier leurs questions, à traiter l’impact et à décider des prochaines étapes, tout en évitant de faire de la médecine par procuration. Il importe aussi de rappeler que la portée de tout service numérique piloté par des médecins peut varier selon la juridiction, les licences et les règles de télémédecine ; ainsi, « disponible » ne signifie pas toujours « autorisé à traiter » comme les patients l’imaginent.
Sur le plan éthique, le modèle économique compte, car la confiance est un ingrédient clinique. Si les patients soupçonnent que des parrainages ou des incitations commerciales influencent les recommandations (que ce soit vrai ou non), cela peut éroder la confiance dans le système de santé et se manifester en thérapie par du cynisme, de l’évitement ou du désespoir. Cela rend la transparence pratique plutôt que philosophique : qu’est‑ce qui est automatisé versus relu par un clinicien, et comment les conflits d’intérêts sont‑ils gérés dans le temps ?
La confidentialité et l’intégrité des données sont tout aussi centrales. Même avec des garanties de sécurité solides, il est utile de raisonner concrètement : quelles données sont mises en lien, qui peut y accéder, quel consentement a été donné, que peut‑on supprimer et que pourrait‑on conserver. Les systèmes riches en données peuvent échouer de manières Nouvelles, par des violations, des usages abusifs ou un excès de confiance dans des dossiers incomplets; la posture la plus éthique reste donc une intégration prudente, un consentement explicite et de l’humilité.
Globalement, je m’intéresse avec prudence à ce que cela pourrait devenir pour les soins adjacents à la thérapie : des évaluations plus rapides, moins de souffrances évitables et moins de coordination informelle des soins retombant sur les thérapeutes. Mais cette promesse dépend de la confiance gagnée en usage reel, sur les plans clinique, éthique et opérationnel, afin que les patients ne restent pas seuls avec une incertitude médicale que la seule introspection ne peut pas résoudre.
