Français

Français

Quand les algorithmes entrent en clinique : pourquoi les géants de l'IA se tournent vers la santé

L’IA en santé n’est plus une idée abstraite. C’est une réalité en mouvement, que l’on voit désormais gagner en maturité, avec plus de sérieux et de structure. Pendant longtemps, la santé a été traitée comme un « cas d’usage possible » pour une IA généraliste. En pratique, elle a déjà été l’un des terrains les plus courants où l’on teste ces systèmes dans le monde réel. Les patients posent des questions après les heures de consultation, parce que l’anxiété n’obéit pas aux horaires de bureau. Les aidants tentent d’interpréter des résultats de laboratoire en attendant un rendez-vous de suivi. Les personnes vivant avec des maladies chroniques cherchent des explications en langage clair à des plans de traitement complexes. De leur côté, les cliniciens subissent une pression documentaire incessante et recherchent constamment des outils qui allègent la charge cognitive sans sacrifier la sécurité. La demande n’était pas hypothétique, elle était déjà là. Ce qui change aujourd’hui, c’est que les grandes entreprises de l’IA conçoivent des produits spécifiquement dédiés à la santé, en reconnaissant sans détour que la médecine n’est pas un domaine « taille unique ». Deux lancements rendent ce virage particulièrement visible : Claude for Healthcare et ChatGPT Health. On les évoque souvent ensemble, mais cliniquement et éthiquement, il ne faut pas les traiter comme interchangeables. Ils répondent à deux problèmes différents et à deux publics distincts, et cette distinction importe, car elle détermine la façon dont le risque se manifeste. ChatGPT Health se comprend avant tout comme un espace orienté vers le patient : un lieu où chacun peut connecter ses informations personnelles de santé ou de bien‑être et recevoir des explications, des résumés et du contexte dans un langage humain. Sa promesse, c’est la clarté. Le système de santé est saturé de jargon, de portails fragmentés et de consultations pressées ; un outil qui aide une personne à comprendre ses propres informations peut réduire la confusion et améliorer l’adhésion. Utilisé à bon escient, il peut soutenir de meilleures conversations avec les cliniciens, car les patients arrivent avec des questions plus précises et moins de débordement émotionnel. Mais cette force est aussi son risque le plus prévisible. Lorsqu’un système explique les choses avec aisance, on peut confondre fluidité et autorité clinique. Nous l’avons tous constaté : un ton assuré peut donner l’illusion de la certitude, même lorsque la situation sous-jacente demeure ambiguë. En santé, cet écart n’a rien de théorique, il influence des décisions bien réelles. Le défi de sécurité pour un outil tourné vers le patient ne se réduit donc pas à l’exactitude au sens étroit. Il s’agit de cadrer les attentes, de poser des frontières claires et d’ériger des garde‑fous pour empêcher que le « soutien informationnel » ne soit interprété comme un diagnostic ou une consigne médicale. Claude for Healthcare, à l’inverse, s’inscrit plus naturellement comme un outil d’entreprise et de flux de travail. L’enjeu n’est pas tant « demandez‑moi n’importe quoi » que « connectez‑moi au travail ». Les organisations de santé n’ont pas seulement besoin de réponses ; elles ont besoin d’appui opérationnel : interpréter et résumer des informations complexes à grande échelle, réduire les frictions administratives, soutenir la recherche et les processus internes, et s’intégrer aux systèmes existants sans transformer chaque tâche en un onglet et un identifiant supplémentaires. Si l’on est honnête sur ce qui épuise les cliniciens, une large part se situe ici, dans la documentation, les tâches administratives et l’effort sans fin pour retrouver encore et encore l’information au sein de workflows brouillons. C’est pourquoi les outils orientés workflow paraissent si attrayants : ils ciblent les points de pression qui fissurent réellement le système. Mais là encore, le risque est différent. Quand l’IA s’intègre au flux de travail, elle peut amplifier à la fois l’efficacité et l’erreur. Si une sortie est erronée et que personne ne la repère, la faute ne touche pas qu’une conversation : elle s’inscrit dans la documentation, se propage, se recopie et se normalise. Plus l’outil est « branché » au système, plus il devient essentiel de le concevoir pour la supervision et pas seulement pour la vitesse. C’est ici que la conformité dépasse le simple « à cocher ». Dès que ces systèmes manipulent des données de santé sensibles, la question n’est pas seulement « est‑il conforme à la HIPAA ? » ou « est‑il conforme au RGPD ? ». La vraie question est : comment la gouvernance des données fonctionnera‑t‑elle dans la vraie vie, avec de vraies personnes, sous une vraie pression temporelle ? La HIPAA (Health Insurance Portability and Accountability Act) et le RGPD (Règlement général sur la protection des données) sont des cadres différents, mais ils poussent tous deux vers la même discipline : des règles claires sur les données collectées, la raison de leur collecte, qui peut y accéder, combien de temps elles sont conservées et ce qu’il se passe en cas de problème. Et voici un point à ne pas édulcorer : la conformité n’est pas quelque chose qu’une entreprise peut entièrement « octroyer » à un utilisateur par une annonce produit. Même si un système est conçu pour être compatible HIPAA ou propose des fonctions de sécurité robustes, les organisations doivent encore le déployer de manière responsable. Cela implique des contrôles d’accès, des permissions fondées sur les rôles, des pistes d’audit, la formation du personnel, des politiques de rétention, une planification de réponse aux incidents, et des frontières limpides sur les données qui doivent, ou ne doivent pas, être saisies dans le système. Pour une IA tournée vers le patient comme ChatGPT Health, la confidentialité et le consentement doivent être particulièrement lisibles, car les patients ne mesurent pas toujours ce qu’ils partagent lorsqu’ils téléversent des documents, connectent des comptes ou collent des textes issus de portails. L’outil doit prévenir la sur‑divulgation accidentelle et rendre évident le moment où une question franchit la limite du « vous avez besoin d’un clinicien ». Pour une IA orientée workflow comme Claude for Healthcare, la charge se déplace vers les contrôles institutionnels

Français

Quand l'IA commence à faire le travail des « jeunes diplômés » : ce que cela signifie pour nous, thérapeutes

Si vous exercez depuis suffisamment longtemps, vous vous souvenez probablement à quel point vos premières années ont été façonnées par les aspects les moins glamour du métier. Notes, rapports, formulaires d’admission, messages de planification, cotation, et interminable mise au propre de la documentation. C’était épuisant, mais cela faisait aussi partie de l’apprentissage. Écrire nous obligeait à clarifier ce que nous observions, ce que nous pensions que cela signifiait, et pourquoi nous choisissions une prochaine étape particulière. Aujourd’hui, l’intelligence artificielle s’invite précisément à ce niveau de la vie clinique, en ergothérapie, orthophonie, psychologie et kinésithérapie. Pas de manière spectaculaire « les robots remplacent les thérapeutes », mais de manière pratique, au quotidien. L’IA peut rédiger de la documentation, résumer des textes longs, organiser l’information et générer des modèles de première intention. Cela change ce que les cliniques mesurent, ce que les responsables attendent, et ce que les cliniciens en début de carrière se sentent pressés de produire. De notre point de vue de cliniciens, le plus grand changement est que l’IA compresse certaines parties de la courbe d’apprentissage. Un nouveau diplômé peut produire très vite quelque chose de soigné, et parfois cette production soignée peut masquer le fait que le raisonnement clinique est encore en développement. Un paragraphe au ton assuré n’est pas la même chose qu’une formulation solide. Un plan bien rangé n’est pas un plan individualisé. Lorsque les charges de cas sont lourdes et le temps de supervision limité, il devient plus facile de confondre vitesse et compétence et c’est là que le risque grandit, discrètement. Ainsi, le seuil d’exigence à l’entrée évolue. Si les tâches routinières deviennent plus rapides, l’attente est que le clinicien apporte davantage de ce qui ne peut pas être automatisé. Un raisonnement clinique plus robuste apparaît plus tôt. Le jugement éthique cesse d’être un thème de formation annuel pour devenir une décision quotidienne, en particulier autour de la confidentialité, du consentement, des biais, et de ce qui ne doit jamais être saisi dans un outil public. La littératie numérique devient également une dimension du professionnalisme, non pas parce que nous devons être des experts techniques, mais parce que nous devons en comprendre assez pour utiliser les outils de manière responsable et en expliquer les limites. Nous pensons aussi qu’il est utile d’être très clair sur ce à quoi l’IA sert réellement en pratique. Elle peut soutenir la préparation, la structuration et l’efficacité. Elle peut nous aider à rédiger, à réfléchir et à organiser. Mais elle ne peut pas assumer la responsabilité. Nous devons toujours relire chaque sortie comme si nous devions en répondre. Nous devons toujours vérifier les sources lorsque des recherches sont résumées. Nous devons toujours adapter chaque plan à la personne en face de nous, car des recommandations génériques peuvent être subtilement inadaptées au contexte, à la culture, aux risques et aux objectifs d’un patient. Pour les superviseurs, propriétaires de cliniques et cliniciens seniors, une responsabilité parallèle existe. Si l’IA réduit le temps de documentation, nous devons décider intentionnellement où va ce temps. Il peut être réinvesti dans une réflexion plus approfondie, des discussions de consentement plus claires, des soins plus collaboratifs et un suivi renforcé. Ou il peut servir à caser davantage de séances tout en appelant cela de l’innovation. Une seule de ces options protège les soins centrés sur la personne, et une seule soutient le développement de cliniciens sûrs. Au bout du compte, nous ne voyons pas l’IA comme un substitut à la thérapie : elle en redéfinit le rôle. Les thérapeutes qui prospéreront seront ceux qui pensent avec clarté, utilisent les outils avec discernement et protègent ce qui demeure profondément humain : la relation, le rythme et le jugement éthique. Cela signifie aussi utiliser l’IA de manière responsable : garder les informations des patients anonymisées/dé‑identifiées dès que possible, et privilégier des systèmes locaux et hors ligne (sur l’appareil ou sur un serveur interne sécurisé) plutôt que d’envoyer des données vers des outils en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites strictes sur ce qui est saisi, et une explication transparente de l’itinéraire des données, des personnes qui peuvent y accéder et de la manière dont elles sont stockées. Si l’IA nous offre quelque chose qui mérite d’être conservé, c’est du temps pour faire davantage de ce que seuls les cliniciens peuvent faire. Ressources • World Health Organization. (2021). Ethics and governance of artificial intelligence for health: WHO guidance (ISBN 9789240029200). World Health Organization. https://www.who.int/publications/i/item/9789240029200• NHS England. (2025, April 27). Guidance on the use of AI-enabled ambient scribing products in health and care settings (Version 2). NHS England. https://www.england.nhs.uk/long-read/guidance-on-the-use-of-ai-enabled-ambient-scribing-products-in-health-and-care-settings/• American Speech-Language-Hearing Association. (n.d.). Generative Artificial Intelligence (AI) for clinicians in audiology and speech-language pathology. https://www.asha.org/practice/generative-artificial-intelligence-for-clinicians/• American Physical Therapy Association. (2024, September 23). Ethical and effective integration of artificial intelligence across physical therapist practice, education, and research [Policy]. https://www.apta.org/apta-and-you/leadership-and-governance/policies/ethical-and-effective-integration-of-artificial-intelligence-across-physical-therapist-practice-education-and-research• Krebs, K., Montagne, L., & Rodakowski, J. (2025, August 2). Generative Artificial Intelligence for OT practitioners: Easy as ABC and 123. OT Practice, 30(8). https://www.aota.org/publications/ot-practice/ot-practice-issues/2025/generative-artificial-intelligence-for-ot-practitioners-easy-as-abc-and-123

Français

Vers des soins « Vraiment adaptés » : comment l'IA personnalise le traitement en santé mentale

La thérapie a toujours comporté une forme d’incertitude maîtrisée, et en tant que psychologues et professionnels de la santé mentale, nous savons combien de compétences il faut pour travailler à l’intérieur de cette incertitude sans chercher à « résoudre » une personne trop vite. Nous écoutons, évaluons, élaborons une formulation, choisissons un point de départ fondé sur les données probantes, puis nous apprenons avec le patient ce qui fonctionne réellement. Même lorsque nous pratiquons avec rigueur, la phase initiale peut ressembler à de l’essai‑erreur : quelques semaines pour tester si cette structure, ce rythme et cette approche conviennent vraiment à cette personne. Pour des patients déjà épuisés ou à risque, ce délai compte. L’IA commence à réduire cette période de « découverte » en utilisant des données personnelles, partagées uniquement avec consentement explicite, afin de soutenir des décisions plus précoces et plus précises. Plutôt que de nous appuyer surtout sur l’auto‑évaluation rétrospective (« Comment s’est passée votre semaine ? »), nous pouvons ajouter des signaux du monde réel issus des téléphones et des dispositifs portés : durée et régularité du sommeil, activité et temps sédentaire, rythme quotidien, temps passé à domicile versus à l’extérieur, et changements de routine ou de lien social. Dans certains contextes spécialisés, cliniciens et chercheurs explorent aussi des données cérébrales (par exemple, mesures IRM ou EEG) pour enrichir l’information sur les circuits et patterns neuronaux susceptibles d’être liés aux profils symptomatiques ou à la réponse au traitement. L’objectif n’est pas de remplacer le jugement clinique, mais de le renforcer. Le changement pratique consiste à passer d’un instantané à l’admission à une image vivante de la semaine du patient. L’auto‑rapport est essentiel, mais la mémoire est imparfaite et les symptômes peuvent brouiller le rappel. Les données passives et semi‑passives peuvent révéler des schémas que les patients ressentent souvent sans pouvoir les nommer aisément. Si un patient dit aller « bien », alors que son sommeil se fragmente et que son niveau d’activité baisse régulièrement, nous disposons d’un point d’entrée compatissant pour approfondir. Si l’anxiété grimpe de façon fiable à certains moments et dans certains contextes, nous pouvons cesser de la traiter comme aléatoire et commencer à la traiter comme prévisible. C’est ici que l’IA aide : elle peut analyser de larges séries temporelles désordonnées et détecter des relations qui échapperaient aux humains, ce qui tend à précéder une baisse d’humeur, ce qui prédit l’irritabilité, ou quelle combinaison d’isolement et de perturbation du sommeil précède des pulsions d’automutilation. Voyez‑la comme une table de correspondance entre signaux et hypothèses cliniques. Une variabilité du sommeil peut indiquer une capacité réduite de régulation émotionnelle et une vulnérabilité à la rechute. Une baisse de l’activité peut pointer vers l’évitement et l’anhédonie, suggérant une activation comportementale ou une action guidée par les valeurs. Des changements de routine brusques peuvent signaler une rupture interpersonnelle, de la honte ou des préoccupations de sécurité. Les données ne posent pas de diagnostic ; elles nous aident à poser de meilleures questions plus tôt et à affiner plus vite le plan. Vous avez également évoqué une idée tournée vers l’avenir : combiner des examens cérébraux avec des données de smartphone et d’appareils portés pour estimer la meilleure intervention avant d’entamer un long parcours d’essais et erreurs. Cette voie est prometteuse, mais elle exige de la prudence. Certains modèles peuvent prédire la réponse au traitement en contexte de recherche, mais ils ne se généralisent pas forcément à d’autres populations, appareils et à la complexité du monde réel. Utilisés de façon éthique, ces outils doivent fonctionner comme une aide à la décision, un second avis, et jamais comme un décideur automatique. L’un des bénéfices les plus immédiats concerne le timing. Une classe grandissante d’outils vise à offrir un soutien au moment où les symptômes sont les plus susceptibles de culminer (souvent décrits comme des interventions au bon moment). La thérapie hebdomadaire enseigne des compétences, mais l’épreuve réelle est la capacité des patients à y accéder à 23 h lorsqu’ils sont épuisés, pendant un trajet quand la panique monte, ou juste après un conflit quand les impulsions s’intensifient. Si les données montrent un schéma fiable, perturbation du sommeil suivie d’agitation le lendemain, ou isolement suivi de ruminations nocturnes, les soutiens numériques peuvent être calés sur la fenêtre de risque : un bref rappel d’ancrage, un rappel de plan d’adaptation, ou un micro‑exercice qui reconnecte l’instant à la formulation que vous avez élaborée ensemble. Au mieux, ces outils jouent le rôle de pont entre les séances, pas de dispositif de surveillance. Ces avancées pourraient aussi élargir l’accès dans un contexte de pénurie de professionnels. Tout le monde ne peut pas suivre des séances régulières, et beaucoup n’accèdent aux soins qu’en situation de crise. Des soutiens numériques soigneusement conçus peuvent offrir une continuité sur mesure à ceux qui peinent à accéder aux services, tout en conservant à la thérapie son caractère humain, relationnel et collaboratif lorsque les séances ont lieu. Les limites éthiques sont non négociables. Les données personnelles doivent reposer sur l’adhésion explicite (opt‑in), être limitées à une finalité déterminée et faciles à mettre en pause ou à arrêter. L’approche la plus sûre est le minimalisme : ne collecter que ce qui répond à une question clinique. Dans de nombreux cas, nous n’avons pas besoin de contenus privés (messages, audio, contacts) ; nous avons besoin de schémas (sommeil, activité, routine) et de brefs check‑ins. Dans la mesure du possible, l’information doit être anonymisée ou dé‑identifiée (suppression des noms, dates de naissance, adresses exactes, coordonnées, numéros de dossier et tout identifiant unique) afin qu’elle ne puisse raisonnablement pas être rattachée à une personne. La même logique s’applique aux IA génératives utilisées pour la rédaction clinique ou le soutien : pour protéger la confidentialité, elles devraient idéalement être locales (installées et exécutées sur un appareil ou un serveur interne sécurisé) plutôt que d’envoyer des informations patient vers un système en ligne. Si un outil cloud est utilisé, ce ne doit être qu’avec un consentement éclairé explicite, des limites claires sur les données saisies,

Français

Deux approches d'usage de l'IA en thérapie : processus vs collaboration (et commentaire en pneus un verre bénéfice)

Nous le remarquons sans cesse : quand les cliniciens parlent d’« utiliser l’IA », ils décrivent en réalité deux approches très différentes, même quand ils emploient le même outil. Et la confusion se cristallise souvent autour d’un mot : automatisation. Beaucoup entendent « automatisation » et imaginent un remplacement froid de la thérapie, ou bien pensent que c’est grosso modo la même chose que la collaboration. En pratique, l’automatisation en clinique est plus simple et plus concrète que cela. Ce n’est pas « l’IA qui fait la thérapie ». C’est le clinicien qui délègue des étapes répétables du flux de travail, puis qui supervise la production comme il le ferait avec un·e assistant·e ou un·e stagiaire. En mode procédural, l’IA devient un substitut d’exécution. On demande, elle répond ; on colle, on envoie. Le résultat sert l’efficacité : textes plus rapides, formulations plus rapides, structures plus rapides. Cela peut réellement alléger la charge, surtout les jours où l’on porte plusieurs cas tout en essayant de documenter, planifier et communiquer clairement. Mais le mode procédural comporte un risque intégré : il peut court-circuiter l’étape où l’on se demande « Quelle affirmation vient d’être faite, et ai‑je réellement les données cliniques pour la soutenir ? » En thérapie, où le travail est à forts enjeux et dépend fortement du contexte, sauter cette étape n’est jamais anodin. Le mode collaboratif est différent. Ici, l’IA est traitée comme un partenaire de réflexion qui nous aide à affiner ce que nous savons déjà. Nous fournissons le contexte, les contraintes et les objectifs, et nous évaluons activement puis révisons ce qui revient. Le bénéfice n’est pas seulement la Vitesse, c’est la qualité. À mesure que les objectifs deviennent plus complexes, le travail ne disparaît pas ; il se déplace vers la formulation, la supervision et le jugement. Ce déplacement est essentiel, car il reflète ce qu’est déjà une bonne thérapie. La valeur centrale n’est pas de « faire des tâches ». La valeur centrale, c’est de choisir ce qui compte, de rester fidèle à la formulation, et de vérifier si ce que nous faisons aide réellement ce client, ici et maintenant. Avec cette clarté, la question « où l’automatisation a‑t‑elle sa place ? » devient plus simple : l’automatisation a sa place autour de la séance, pas au cœur de la relation thérapeutique. Elle soutient le travail répétitif qui épuise silencieusement les cliniciens, pour que vous arriviez avec davantage de focus et de présence. Concrètement, cela commence souvent par la gestion des courriels : proposer des brouillons pour la prise de rendez‑vous, les messages de cadrage et de limites, les premiers contacts, les suivis, ou la coordination avec les parents ou les écoles. L’IA peut vous fournir un brouillon propre très vite, mais le clinicien protège toujours le ton, la confidentialité et le cadre thérapeutique avant tout envoi. L’automatisation peut aussi soutenir les parcours d’évaluation, surtout dans leurs volets mécaniques comme la cotation et l’organisation du rapport. Elle peut aider à mettre en forme des tableaux, à structurer les sections de manière cohérente, et à rédiger des descriptions neutres un gain de temps sans prétendre « interpréter ». De même, elle peut vous aider à préparer des questions : générer des questions d’anamnèse, des invites de check‑in, ou des questions de réflexion entre les séances, adaptées à votre modèle et aux objectifs du client. Cela ne remplace pas le jugement clinique ; cela vous offre simplement un échafaudage plus clair pour recueillir l’information et suivre le changement. Autre levier à fort impact : la préparation de séance. Si vous fournissez un bref résumé non identifiant de la séance précédente, l’IA peut aider à élaborer un plan focalisé : thèmes à revisiter, hypothèses à tester, rappels de ce qui a été convenu, et pistes de questions ou d’interventions alignées sur votre orientation. L’objectif n’est pas de « scénariser la thérapie », mais de réduire la charge mentale liée au fait de reconstruire le fil pour démarrer la séance ancré. Plus sensible, mais parfois très utile, est l’usage de l’automatisation autour de l’enregistrement et de la documentation des séances (uniquement avec consentement explicite et au sein d’un système respectueux de la confidentialité). L’IA peut aider à produire des transcriptions, relever des thèmes, et proposer une trame de note ou un résumé. Cela doit toutefois rester supervisé : l’IA peut manquer une nuance, mal interpréter un sens, ou formuler trop fortement. En documentation clinique, l’exactitude et la responsabilité priment sur la vitesse ; le clinicien vérifie donc toujours ce qui est écrit, en particulier concernant le risque, les plans de sécurité, et toute affirmation diagnostique ou médicale. Enfin, l’automatisation peut soutenir ce que beaucoup de cliniciens souhaitent faire mais peinent à maintenir régulièrement : comparer les progrès dans le temps. Qu’il s’agisse de mesures d’issue, d’évaluations de séance, d’objectifs, de suivi des tâches entre les séances, ou de repères narratifs, l’IA peut aider à résumer les évolutions depuis la ligne de base, repérer des motifs au fil des séances, et proposer un court bilan « ce qui s’améliore / ce qui coince / ce qu’on ajuste ensuite ». L’outil organise et met en évidence les tendances ; vous décidez de ce qu’elles signifient et de la prochaine étape clinique. Tout cela ne fonctionne que si nous restons vigilants sur les données et la confidentialité. Nous évitons d’entrer des informations identifiantes, sauf dans un système approuvé et conforme à la protection de la vie privée. Nous ne traitons pas la sortie de l’IA comme une verité, en particulier pour le diagnostic, l’évaluation du risque, les sujets liés à la médication, ou toute assertion médicale. Et nous gardons le rôle du clinicien explicite : l’IA peut générer du langage, des options et de la structure, mais nous apportons le jugement, l’éthique et la responsabilité. C’est aussi pourquoi de nombreux cliniciens sont attirés par l’idée de faire tourner un modèle génératif privé en local sur leur ordinateur, hors ligne, afin que les données ne quittent pas l’appareil. Même dans ce cas,

Français

Prism : l'espace d'écriture dont les chercheurs ont rêvé au moment de publication

Si nous avons déjà essayé de rédiger un véritable manuscrit après une journée entière de travail de recherche, nous savons que le problème n’est généralement pas l’absence d’idées. Nous en avons. Le problème, c’est que l’écriture académique exige une forme spécifique de stabilité mentale. Nous devons tenir le fil, garder la structure en tête, suivre les définitions avec précision et construire un argument cohérent alors que notre esprit est déjà saturé de réunions, de supervision, d’échéances de financement, de nettoyage de données, de commentaires de relecteurs et de la série ininterrompue de micro‑décisions qui accompagnent la conduite des études. C’est pourquoi l’annonce de Prism par OpenAI a retenu notre attention pour une raison étonnamment pragmatique. L’outil semble conçu pour réduire la surcharge dans le processus d’écriture, non pas en rédigeant l’article à notre place, mais en rendant l’environnement moins fragmenté et plus propice à une attention soutenue. OpenAI présente Prism comme un espace de travail gratuit, dans le cloud, natif LaTeX, dédié à la rédaction scientifique et à la collaboration, avec un assistant IA intégré au flux de travail du document. Et cette expression, intégré au flux de travail, compte. Beaucoup d’entre nous écrivent encore dans une configuration en patchwork. Le brouillon vit à un endroit, les références ailleurs, les PDF dans des dossiers que nous jurons être organisés, les tableaux dans des feuilles de calcul, les figures dans des outils séparés, et des règles de mise en forme qui semblent mouvantes. Si nous utilisons l’IA, elle se trouve souvent sur le côté, dans une fenêtre distincte, sans réelle conscience de ce que contient le document. Prism propose autre chose. Un espace unique où la rédaction, la révision, la compilation et la collaboration cohabitent, pour éviter de changer constamment de contexte et perdre notre élan. Cela ressemble moins à de l’automatisation qu’à une véritable infrastructure pour la recherche. Quelque chose qui nous aide à préserver l’intégrité de l’argumentation tandis que nous consacrons notre énergie limitée à ce qui compte vraiment : les méthodes, la logique, l’interprétation et la discipline qui consiste à ne pas surestimer nos résultats. Nous apprécions aussi que Prism semble viser les problèmes pratiques, certes peu glamour, qui minent silencieusement la productivité. La collaboration, les commentaires, l’aide à la relecture, l’assistance aux citations et les fonctions liées au flux de travail documentaire ne sont pas tape‑à‑l’œil, mais ce sont précisément ces frictions qui nous font fermer l’ordinateur en nous disant qu’on s’y remettra demain, parce que l’inertie administrative dévore ce qu’il reste de notre attention. Et si nous avons déjà co‑signé un article, nous savons combien de temps se perd en contrôle de versions, en fusion d’annotations et en vérification de ce qu’est « la version actuelle ». Un espace de travail partagé dans le cloud peut réduire cette surcharge en réunissant écriture et collaboration au même endroit. C’est ici que l’angle « chercheur » intervient. Les chercheurs sont formés à suivre la nuance, l’incertitude et les limites de ce que les données peuvent réellement étayer. Beaucoup d’entre nous écrivent bien lorsque nous avons l’espace pour réfléchir. Mais la recherche accorde rarement à l’écriture la priorité absolue. Elle se fait dans des heures volées, entre analyses, enseignement, gestion de projet et demandes de financement. Cela change ce que « technologie utile » signifie. Nous n’avons pas seulement besoin d’un outil qui génère du texte. Nous avons besoin d’un outil qui nous aide à rester orientés pour transformer des résultats en contributions claires, publiables, enseignables et utiles. Prism pourrait soutenir ce type de travail, en particulier pour les chercheurs qui publient, enseignent, encadrent des doctorants ou collaborent entre institutions et qui ont besoin d’un processus d’écriture moins chaotique. S’il réduit réellement la friction, il pourrait aider davantage d’entre nous à terminer ce que nous commençons, non pas parce que l’outil a de meilleures idées que nous, mais parce qu’il aide à protéger la continuité de notre pensée. En même temps, il faut dire tout haut ce que l’on pense tout bas. Un flux d’écriture plus fluide ne signifie pas automatiquement une meilleure science. L’IA peut nous aider à paraître cohérents et académiques et cela peut être utile, mais c’est aussi là que réside le risque, car une prose soignée peut dissimuler un raisonnement faible. Donc, si nous utilisons Prism, traitons‑le comme un assistant très rapide. Il peut réduire la friction et nous aider à exprimer ce que nous voulons dire, mais il n’est pas la source de vérité. Nous restons responsables du raisonnement, des affirmations, des références et de l’intégrité du travail. Et, bien sûr, Prism n’est pas le seul outil disponible. La plupart d’entre nous ont déjà utilisé d’autres outils d’IA, ainsi que des logiciels spécialisés de rédaction et de gestion bibliographique qui font avancer notre flux de travail. Ce qui donne à Prism une allure différente, du moins telle qu’il est décrit, c’est la promesse d’un espace de travail intégré et le fait qu’il soit gratuit. S’il tient ne serait‑ce que la moitié de cette promesse, nous avons sincèrement hâte d’en explorer davantage. Notre conclusion est simple. Prism paraît prometteur parce qu’il vise les véritables points douloureux de l’écriture scientifique : le passage incessant d’un contexte à l’autre, la corvée de mise en forme, les frictions de la collaboration et la charge cognitive nécessaire pour maintenir la cohérence d’un document complexe dans le temps. Pas de magie. Pas de remplacement de l’expertise. Mais peut‑être le type d’outil de productivité le plus adapté aux chercheurs, celui qui nous aide à garder le fil.

Français, Non classé

Téléthérapie en 2026 : notre point de vue clinique sur ce que l'IA change vraiment

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

Français, Non classé

Clore 2025: Une année d'IA en thérapie : ce que nous avons appris et ce que nous avons prévu

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

Français

PLONGÉE EN PROFONDEUR : le projet Iceberg du MIT et ce que les experts anticipent pour l'IA et l'emploi

Pendant longtemps, on s’est rassuré en pensant que l’IA toucherait surtout les métiers de la tech. Développeurs, data scientists, peut‑être quelques analystes, pour le reste, sentiment de relative sécurité. Ce récit se fissure, et le projet Iceberg du MIT le montre très clairement. Ce que nous regardions jusqu’ici n’était pas l’ensemble, juste la partie émergée. Le MIT, en collaboration avec le Oak Ridge National Laboratory, a mené une simulation d’ampleur, suivant 151 millions de travailleurs américains à travers plus de 32 000 compétences et 923 professions. L’objectif n’était pas de prédire 2035 ou 2040, mais de poser une question bien plus inconfortable : qu’est‑ce que l’IA pourrait automatiser dès maintenant, avec les technologies déjà disponibles ? La réponse est saisissante. D’après Project Iceberg, l’IA peut techniquement remplacer environ 11,7 % de la main‑d’œuvre actuelle aux États‑Unis. Cela représente à peu près 1,2 trillion de dollars de salaires. Il ne s’agit ni d’un risque théorique ni d’un horizon lointain. D’un point de vue strictement technique, la capacité existe déjà. Ce qui rend le tableau encore plus intéressant, c’est l’écart entre ce que l’IA peut faire et ce qu’elle fait effectivement. En observant seulement les déploiements reels, là où l’IA est utilisée au quotidien le MIT estime qu’environ 2,2 % des emplois semblent touchés. Ils appellent cela le “Surface Index”. En surface, la situation paraît gérable. En dessous, s’étend une vaste couche de travail cognitif potentiellement automatisable et encore peu exploitée. Cette couche cachée englobe des rôles que beaucoup considèrent encore “à l’abri” : finance, administration de santé, opérations, coordination, services professionnels. Ces métiers reposent fortement sur l’analyse, la documentation, la planification et la prise de décision structure, exactement le type de tâches que les systèmes d’IA modernes commencent à bien maîtriser. Alors, qu’est‑ce qui a changé ? En un mot : l’accès. Jusqu’à récemment, les assistants IA restaient en dehors de nos environnements de travail réels. Ils savaient discuter, résumer, générer du texte, mais n’avaient pas accès à votre agenda, vos outils de projet, vos bases de données internes ou vos workflows. Cette barrière a commencé à tomber fin 2024 avec l’introduction du Model Context Protocol, ou MCP. MCP permet aux modèles d’IA de se connecter directement aux outils et aux sources de données via des interfaces standardisées. Ce simple basculement a tout débloqué : des agents IA qui non seulement conseillent, mais agissent. En mars 2025, on dénombrait plus de 7 900 serveurs MCP en production. L’IA peut désormais consulter des agendas, réserver des salles, envoyer des invitations, mettre à jour des plans de projet, rapprocher des données et générer des rapports de façon autonome. Project Iceberg suit tout cela en temps réel, en mettant ces capacités en correspondance directe avec les compétences du marché du travail. Et c’est là que les données prennent un tournant inattendu. La plus grande vulnérabilité ne se concentre pas dans la Silicon Valley. Elle apparaît nettement dans des États du “Rust Belt” comme l’Ohio, le Michigan et le Tennessee. Non pas parce que les usines regorgent de robots, mais parce que les fonctions de support cognitif autour de l’industrie (analyse financière, coordination administrative, conformité, planification) sont hautement automatisables. Des emplois qui semblent stables en surface, mais qui se trouvent en plein sous‑marin de l’iceberg. Les experts ne balaye nt pas ces résultats d’un revers de main en les qualifiant d’alarmistes. Une autre étude, portant sur 339 “superforecasters” et spécialistes de l’IA, estime qu’à l’horizon 2030, environ 18 % des heures de travail seront assistées par l’IA. Un chiffre étonnamment cohérent avec l’exposition technique actuelle de 11,7 % mise en avant par le MIT, ce qui confère au projet Iceberg une crédibilité directionnelle plutôt qu’un caractère spéculatif. Ce qui frappe surtout, c’est l’usage qui est fait de ces informations. Project Iceberg n’est pas qu’un rapport de recherche, c’est un système d’alerte précoce. Des États s’en servent déjà pour repérer les compétences à risque et investir dans la reconversion avant que les déplacements d’emplois ne se produisent. Le focus se déplace des intitulés de poste vers des grappes de compétences : quelles parties d’un rôle sont automatisables, et lesquelles nécessitent encore jugement humain, créativité, empathie ou travail relationnel. La grande question, désormais, n’est plus de savoir si l’IA va transformer le travail. Ce point est acquis. La vraie question est de savoir si les systèmes, les institutions et les pouvoirs publics bâtissent assez vite l’infrastructure pour accompagner quelque 21 millions de travailleurs potentiellement déplacés. L’iceberg est déjà là. Ce qui compte, c’est de savoir si nous manœuvrons ou si nous attendons l’impact.

Français

Mistral 3 : pourquoi ce modèle d'IA répond vraiment notre attention

À chaque sortie d’un nouveau modèle d’IA, le vacarme est garanti : grandes promesses, comparaisons tapageuses, slogans du type “celui-ci va tout changer”. La plupart du temps, on observe, on parcourt rapidement, puis on passe à autre chose. Mais parfois, une annonce nous arrête net et nous fait réfléchir à l’impact concret sur le terrain. C’est exactement l’effet qu’a eu Mistral 3. Ce qui nous intéresse ici, ce n’est pas seulement la performance ou la taille, mais l’état d’esprit. Mistral 3 n’est pas un énorme modèle unique réservé aux géants de la tech. C’est une famille de modèles, allant de systèmes puissants à des versions bien plus légères et sobres, capables de tourner en local. D’emblée, cela change la donne : flexibilité, accessibilité, liberté de choix. Pour les cliniciens, les enseignants et les thérapeutes, ces qualités comptent bien plus que des chiffres records. L’un des points les plus marquants de Mistral 3 est sa solidité en multilingue. En thérapie comme en éducation, l’accès linguistique n’est pas un “plus”, c’est essentiel. Beaucoup de familles ne se sentent pas le plus à l’aise en anglais ; or, une barrière de langue peut vite devenir une barrière thérapeutique. Un modèle qui gère naturellement plusieurs langues ouvre la voie à des échanges plus clairs avec les parents, à des ressources plus inclusives et à des supports qui sonnent humains plutôt que “traduits à la machine”. Autre raison de notre intérêt : l’existence de modèles plus petits. Techniquement, cela peut sembler anecdotique ; philosophiquement, c’est majeur. Des modèles légers rendent possibles les usages en local, réduisent la dépendance au cloud et offrent davantage de contrôle sur les données sensibles. Quand on accompagne des enfants, des personnes neurodivergentes ou des patients vivant des enjeux de santé mentale, la confidentialité et la responsabilité éthique ne se négocient pas. Les outils qui protègent ces principes méritent qu’on s’y attarde. Sur le plan pratique, Mistral 3 montre aussi de meilleures capacités de raisonnement et de suivi des instructions que bien des modèles très “fluides” mais peu profonds. Or cela compte lorsque l’IA sert à soutenir la réflexion, pas seulement à générer du texte. Qu’il s’agisse d’esquisser des comptes rendus de séance, de structurer des plans thérapeutiques ou de résumer des publications, la valeur vient de la cohérence et de la logique, pas uniquement d’une prose soignée. Pour autant, il faut rappeler clairement les limites. Aucun modèle d’IA ne “comprend” la sécurité émotionnelle, la régulation, le trauma, ni l’alliance thérapeutique. Ce sont des processus profondément humains, au cœur de la thérapie efficace. Tout outil d’IA, Mistral 3 compris, doit rester un appui au clinician, jamais un substitut au jugement clinique, à l’empathie, ni au lien humain. Là où nous voyons une vraie plus-value, c’est dans la réduction de la charge cognitive. Rédiger, organiser, adapter, résumer, autant de tâches où l’IA peut faire gagner du temps et de l’énergie mentale, pour permettre aux thérapeutes et aux enseignants de se concentrer davantage sur le travail humain, ici et maintenant. Utilisés avec intention et éthique, des outils comme Mistral 3 peuvent soutenir discrètement de meilleures pratiques, plutôt que de les bousculer. En somme, Mistral 3 incarne une trajectoire qui nous encourage : ouverte, flexible, et ancrée dans l’usage concret plutôt que dans le battage. Il ne s’agit pas de courir après la nouveauté, mais de choisir des outils alignés avec le soin éthique, l’inclusivité et une pratique réfléchie. Nous continuerons à suivre ce champ de près, à tester avec rigueur et à partager ce qui apporte réellement de la Valeur, car dans les métiers du cerveau, de meilleurs outils comptent, mais la sagesse avec laquelle on les utilise compte encore davantage.

Français

Suivez des données en thérapie assisté par l'IA : comment les outils Google peu améliorer le monitoring des progrès

Si vous êtes comme nous, vous savez à quel point le suivi des progrès est important en thérapie. Mais soyons honnêtes, c’est aussi l’une des tâches les plus chronophages du métier. Nous avons tous passé plus d’heures à documenter qu’à réellement nous connecter avec les clients, et ce n’est tout simplement pas tenable. C’est pourquoi nous avons décidé d’essayer les outils d’IA de Google, et voici ce que nous avons découvert. Nous avons commencé à utiliser Google Sheets avec ses nouvelles fonctionnalités d’IA pour rationaliser notre suivi des données. Au lieu de saisir manuellement des formules ou de calculer les taux de précision, nous avons simplement demandé à Sheets de « résumer la tendance des réponses correctes sur les 8 dernières séances » ou de « mettre en évidence les séances où la précision a chuté de plus de 10 % ». C’est étonnamment intuitif, même si vous n’êtes pas expert en tableurs. Le meilleur dans tout ça ? Cela libère énormément de temps, du temps que nous pouvons consacrer à interpréter les données, pas seulement à les traiter. Par exemple, nous passions auparavant 15 à 20 minutes par séance client rien que pour organiser les données ; nous sommes désormais à 5 à 7 minutes, ce qui, sur une semaine chargée, fait une vraie différence. L’automatisation des calculs répétitifs, comme le pourcentage de précision, les décomptes de fréquence et les profils d’erreurs, nous sauve la mise, surtout quand on jongle avec plusieurs clients ou qu’on gère un grand nombre de dossiers. Nous adorons aussi la facilité avec laquelle on peut générer des graphiques. Par exemple, nous pouvons demander un graphique en courbe montrant l’évolution d’un objectif précis, et Sheets crée un visuel clair et partageable. Les familles et les équipes pluridisciplinaires trouvent ces graphiques vraiment utiles, et c’est une excellente façon de montrer aux clients leurs progrès de manière concrète. Un parent nous a dit : « Voir le graphique a rendu les progrès de mon enfant plus faciles à comprendre, et ça nous a redonné de l’espoir quand les choses semblaient ralentir. » Autre point fort : l’IA de Google peut transformer nos notes de séance brutes, simples puces ou mots‑clés, en synthèses claires et objectives. Ce n’est pas parfait, mais c’est un énorme gain de temps, surtout après des séances enchaînées. En plus, l’IA peut analyser plusieurs séances pour repérer des schémas qui pourraient nous échapper, comme des erreurs récurrentes ou des déclencheurs de certains comportements. Même si nous restons ceux qui interprètent la signification de ces schémas, l’IA accélère le processus et nous aide à capter des détails que nous aurions sinon manqués. Par exemple, nous avons remarqué que les progrès langagiers d’un enfant étaient plus marqués les jours où la routine était plus structurée, ce qui nous a conduit à ajuster notre plan d’intervention. Il y a tout de même quelques accrocs. L’IA ne saisit pas toujours toutes les nuances, donc nous devons encore relire et ajuster les synthèses et les graphiques. Il y a aussi une courbe d’apprentissage certains thérapeutes peuvent se sentir dépassés au début, surtout s’ils ne sont pas à l’aise avec la technologie. Et bien sûr, la confidentialité est une préoccupation majeure. Nous vérifions toujours que nos données sont stockées de manière sécurisée et que nous respectons toutes les directives nécessaires, en particulier lorsqu’il s’agit de mineurs. Nous utilisons les contrôles de confidentialité intégrés à Google et nous veillons à ce que les informations de nos clients ne soient jamais partagées sans consentement. Mais c’est là que les choses se compliquent : comment les données de vos patients sont‑elles stockées ? Où sont‑elles stockées ? Sont‑elles utilisées pour entraîner des modèles ou à des fins internes ? Que pouvez‑vous réellement faire, en tant que thérapeute, pour protéger la confidentialité des clients ? Où ces fichiers sont‑ils conservés, et quels contrôles avez‑vous sur l’accès et le partage ? Ce sont autant de questions cruciales que nous explorons encore, et il est important de rester informé des politiques de confidentialité et de sécurité de Google. Si vous voulez en savoir plus, rejoignez nos prochaines sessions de formation ou contactez‑nous il y a beaucoup à démêler, et nous sommes là pour vous aider à y voir clair. Dans l’ensemble, les outils d’IA de Google ont rendu notre suivi des données plus intelligent et plus efficace. Ils ne remplacent pas la dimension humaine le jugement clinique, l’empathie et le contexte restent irremplaçables, mais ils nous aident à nous concentrer sur l’essentiel : créer du lien avec les clients, entraîner des compétences et répondre à leurs besoins spécifiques. Si vous souhaitez passer moins de temps sur l’administratif et plus de temps sur la thérapie, cela vaut vraiment la peine d’essayer ces outils. L’IA n’est pas là pour nous remplacer ; elle est là pour nous aider à mieux faire notre travail. Utilisés avec discernement, ces outils peuvent amplifier notre capacité à suivre les progrès avec précision et à soutenir les familles avec les éclairages qu’elles méritent. Alors allez‑y tentez le suivi des données assisté par l’IA. Vous pourriez le trouver aussi utile que nous.

Panier