French

French

Deux approaches d’usage de l’IA en thérapie : procédure vs collaboration (et comment en tirer un vrai bénéfice)

Nous le remarquons sans cesse : quand les cliniciens parlent d’« utiliser l’IA », ils décrivent en réalité deux approches très différentes, même quand ils emploient le même outil. Et la confusion se cristallise souvent autour d’un mot : automatisation. Beaucoup entendent « automatisation » et imaginent un remplacement froid de la thérapie, ou bien pensent que c’est grosso modo la même chose que la collaboration. En pratique, l’automatisation en clinique est plus simple et plus concrète que cela. Ce n’est pas « l’IA qui fait la thérapie ». C’est le clinicien qui délègue des étapes répétables du flux de travail, puis qui supervise la production comme il le ferait avec un·e assistant·e ou un·e stagiaire. En mode procédural, l’IA devient un substitut d’exécution. On demande, elle répond ; on colle, on envoie. Le résultat sert l’efficacité : textes plus rapides, formulations plus rapides, structures plus rapides. Cela peut réellement alléger la charge, surtout les jours où l’on porte plusieurs cas tout en essayant de documenter, planifier et communiquer clairement. Mais le mode procédural comporte un risque intégré : il peut court-circuiter l’étape où l’on se demande « Quelle affirmation vient d’être faite, et ai‑je réellement les données cliniques pour la soutenir ? » En thérapie, où le travail est à forts enjeux et dépend fortement du contexte, sauter cette étape n’est jamais anodin. Le mode collaboratif est différent. Ici, l’IA est traitée comme un partenaire de réflexion qui nous aide à affiner ce que nous savons déjà. Nous fournissons le contexte, les contraintes et les objectifs, et nous évaluons activement puis révisons ce qui revient. Le bénéfice n’est pas seulement la Vitesse, c’est la qualité. À mesure que les objectifs deviennent plus complexes, le travail ne disparaît pas ; il se déplace vers la formulation, la supervision et le jugement. Ce déplacement est essentiel, car il reflète ce qu’est déjà une bonne thérapie. La valeur centrale n’est pas de « faire des tâches ». La valeur centrale, c’est de choisir ce qui compte, de rester fidèle à la formulation, et de vérifier si ce que nous faisons aide réellement ce client, ici et maintenant. Avec cette clarté, la question « où l’automatisation a‑t‑elle sa place ? » devient plus simple : l’automatisation a sa place autour de la séance, pas au cœur de la relation thérapeutique. Elle soutient le travail répétitif qui épuise silencieusement les cliniciens, pour que vous arriviez avec davantage de focus et de présence. Concrètement, cela commence souvent par la gestion des courriels : proposer des brouillons pour la prise de rendez‑vous, les messages de cadrage et de limites, les premiers contacts, les suivis, ou la coordination avec les parents ou les écoles. L’IA peut vous fournir un brouillon propre très vite, mais le clinicien protège toujours le ton, la confidentialité et le cadre thérapeutique avant tout envoi. L’automatisation peut aussi soutenir les parcours d’évaluation, surtout dans leurs volets mécaniques comme la cotation et l’organisation du rapport. Elle peut aider à mettre en forme des tableaux, à structurer les sections de manière cohérente, et à rédiger des descriptions neutres un gain de temps sans prétendre « interpréter ». De même, elle peut vous aider à préparer des questions : générer des questions d’anamnèse, des invites de check‑in, ou des questions de réflexion entre les séances, adaptées à votre modèle et aux objectifs du client. Cela ne remplace pas le jugement clinique ; cela vous offre simplement un échafaudage plus clair pour recueillir l’information et suivre le changement. Autre levier à fort impact : la préparation de séance. Si vous fournissez un bref résumé non identifiant de la séance précédente, l’IA peut aider à élaborer un plan focalisé : thèmes à revisiter, hypothèses à tester, rappels de ce qui a été convenu, et pistes de questions ou d’interventions alignées sur votre orientation. L’objectif n’est pas de « scénariser la thérapie », mais de réduire la charge mentale liée au fait de reconstruire le fil pour démarrer la séance ancré. Plus sensible, mais parfois très utile, est l’usage de l’automatisation autour de l’enregistrement et de la documentation des séances (uniquement avec consentement explicite et au sein d’un système respectueux de la confidentialité). L’IA peut aider à produire des transcriptions, relever des thèmes, et proposer une trame de note ou un résumé. Cela doit toutefois rester supervisé : l’IA peut manquer une nuance, mal interpréter un sens, ou formuler trop fortement. En documentation clinique, l’exactitude et la responsabilité priment sur la vitesse ; le clinicien vérifie donc toujours ce qui est écrit, en particulier concernant le risque, les plans de sécurité, et toute affirmation diagnostique ou médicale. Enfin, l’automatisation peut soutenir ce que beaucoup de cliniciens souhaitent faire mais peinent à maintenir régulièrement : comparer les progrès dans le temps. Qu’il s’agisse de mesures d’issue, d’évaluations de séance, d’objectifs, de suivi des tâches entre les séances, ou de repères narratifs, l’IA peut aider à résumer les évolutions depuis la ligne de base, repérer des motifs au fil des séances, et proposer un court bilan « ce qui s’améliore / ce qui coince / ce qu’on ajuste ensuite ». L’outil organise et met en évidence les tendances ; vous décidez de ce qu’elles signifient et de la prochaine étape clinique. Tout cela ne fonctionne que si nous restons vigilants sur les données et la confidentialité. Nous évitons d’entrer des informations identifiantes, sauf dans un système approuvé et conforme à la protection de la vie privée. Nous ne traitons pas la sortie de l’IA comme une verité, en particulier pour le diagnostic, l’évaluation du risque, les sujets liés à la médication, ou toute assertion médicale. Et nous gardons le rôle du clinicien explicite : l’IA peut générer du langage, des options et de la structure, mais nous apportons le jugement, l’éthique et la responsabilité. C’est aussi pourquoi de nombreux cliniciens sont attirés par l’idée de faire tourner un modèle génératif privé en local sur leur ordinateur, hors ligne, afin que les données ne quittent pas l’appareil. Même dans ce cas,

French

Prism : l’espace d’écriture dont les chercheurs auraient rêvé au moment de publier

Si nous avons déjà essayé de rédiger un véritable manuscrit après une journée entière de travail de recherche, nous savons que le problème n’est généralement pas l’absence d’idées. Nous en avons. Le problème, c’est que l’écriture académique exige une forme spécifique de stabilité mentale. Nous devons tenir le fil, garder la structure en tête, suivre les définitions avec précision et construire un argument cohérent alors que notre esprit est déjà saturé de réunions, de supervision, d’échéances de financement, de nettoyage de données, de commentaires de relecteurs et de la série ininterrompue de micro‑décisions qui accompagnent la conduite des études. C’est pourquoi l’annonce de Prism par OpenAI a retenu notre attention pour une raison étonnamment pragmatique. L’outil semble conçu pour réduire la surcharge dans le processus d’écriture, non pas en rédigeant l’article à notre place, mais en rendant l’environnement moins fragmenté et plus propice à une attention soutenue. OpenAI présente Prism comme un espace de travail gratuit, dans le cloud, natif LaTeX, dédié à la rédaction scientifique et à la collaboration, avec un assistant IA intégré au flux de travail du document. Et cette expression, intégré au flux de travail, compte. Beaucoup d’entre nous écrivent encore dans une configuration en patchwork. Le brouillon vit à un endroit, les références ailleurs, les PDF dans des dossiers que nous jurons être organisés, les tableaux dans des feuilles de calcul, les figures dans des outils séparés, et des règles de mise en forme qui semblent mouvantes. Si nous utilisons l’IA, elle se trouve souvent sur le côté, dans une fenêtre distincte, sans réelle conscience de ce que contient le document. Prism propose autre chose. Un espace unique où la rédaction, la révision, la compilation et la collaboration cohabitent, pour éviter de changer constamment de contexte et perdre notre élan. Cela ressemble moins à de l’automatisation qu’à une véritable infrastructure pour la recherche. Quelque chose qui nous aide à préserver l’intégrité de l’argumentation tandis que nous consacrons notre énergie limitée à ce qui compte vraiment : les méthodes, la logique, l’interprétation et la discipline qui consiste à ne pas surestimer nos résultats. Nous apprécions aussi que Prism semble viser les problèmes pratiques, certes peu glamour, qui minent silencieusement la productivité. La collaboration, les commentaires, l’aide à la relecture, l’assistance aux citations et les fonctions liées au flux de travail documentaire ne sont pas tape‑à‑l’œil, mais ce sont précisément ces frictions qui nous font fermer l’ordinateur en nous disant qu’on s’y remettra demain, parce que l’inertie administrative dévore ce qu’il reste de notre attention. Et si nous avons déjà co‑signé un article, nous savons combien de temps se perd en contrôle de versions, en fusion d’annotations et en vérification de ce qu’est « la version actuelle ». Un espace de travail partagé dans le cloud peut réduire cette surcharge en réunissant écriture et collaboration au même endroit. C’est ici que l’angle « chercheur » intervient. Les chercheurs sont formés à suivre la nuance, l’incertitude et les limites de ce que les données peuvent réellement étayer. Beaucoup d’entre nous écrivent bien lorsque nous avons l’espace pour réfléchir. Mais la recherche accorde rarement à l’écriture la priorité absolue. Elle se fait dans des heures volées, entre analyses, enseignement, gestion de projet et demandes de financement. Cela change ce que « technologie utile » signifie. Nous n’avons pas seulement besoin d’un outil qui génère du texte. Nous avons besoin d’un outil qui nous aide à rester orientés pour transformer des résultats en contributions claires, publiables, enseignables et utiles. Prism pourrait soutenir ce type de travail, en particulier pour les chercheurs qui publient, enseignent, encadrent des doctorants ou collaborent entre institutions et qui ont besoin d’un processus d’écriture moins chaotique. S’il réduit réellement la friction, il pourrait aider davantage d’entre nous à terminer ce que nous commençons, non pas parce que l’outil a de meilleures idées que nous, mais parce qu’il aide à protéger la continuité de notre pensée. En même temps, il faut dire tout haut ce que l’on pense tout bas. Un flux d’écriture plus fluide ne signifie pas automatiquement une meilleure science. L’IA peut nous aider à paraître cohérents et académiques et cela peut être utile, mais c’est aussi là que réside le risque, car une prose soignée peut dissimuler un raisonnement faible. Donc, si nous utilisons Prism, traitons‑le comme un assistant très rapide. Il peut réduire la friction et nous aider à exprimer ce que nous voulons dire, mais il n’est pas la source de vérité. Nous restons responsables du raisonnement, des affirmations, des références et de l’intégrité du travail. Et, bien sûr, Prism n’est pas le seul outil disponible. La plupart d’entre nous ont déjà utilisé d’autres outils d’IA, ainsi que des logiciels spécialisés de rédaction et de gestion bibliographique qui font avancer notre flux de travail. Ce qui donne à Prism une allure différente, du moins telle qu’il est décrit, c’est la promesse d’un espace de travail intégré et le fait qu’il soit gratuit. S’il tient ne serait‑ce que la moitié de cette promesse, nous avons sincèrement hâte d’en explorer davantage. Notre conclusion est simple. Prism paraît prometteur parce qu’il vise les véritables points douloureux de l’écriture scientifique : le passage incessant d’un contexte à l’autre, la corvée de mise en forme, les frictions de la collaboration et la charge cognitive nécessaire pour maintenir la cohérence d’un document complexe dans le temps. Pas de magie. Pas de remplacement de l’expertise. Mais peut‑être le type d’outil de productivité le plus adapté aux chercheurs, celui qui nous aide à garder le fil.

French, Uncategorized

Téléthérapie en 2026 : notre point de vue clinique sur ce que l’IA change réellement

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

French, Uncategorized

Clore 2025: Une année d’IA en thérapie : ce que nous avons appris et ce que nous anticipons

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

French

PLONGÉE EN PROFONDEUR : le projet Iceberg du MIT et ce que les experts anticipent pour l’IA et l’emploi

Pendant longtemps, on s’est rassuré en pensant que l’IA toucherait surtout les métiers de la tech. Développeurs, data scientists, peut‑être quelques analystes, pour le reste, sentiment de relative sécurité. Ce récit se fissure, et le projet Iceberg du MIT le montre très clairement. Ce que nous regardions jusqu’ici n’était pas l’ensemble, juste la partie émergée. Le MIT, en collaboration avec le Oak Ridge National Laboratory, a mené une simulation d’ampleur, suivant 151 millions de travailleurs américains à travers plus de 32 000 compétences et 923 professions. L’objectif n’était pas de prédire 2035 ou 2040, mais de poser une question bien plus inconfortable : qu’est‑ce que l’IA pourrait automatiser dès maintenant, avec les technologies déjà disponibles ? La réponse est saisissante. D’après Project Iceberg, l’IA peut techniquement remplacer environ 11,7 % de la main‑d’œuvre actuelle aux États‑Unis. Cela représente à peu près 1,2 trillion de dollars de salaires. Il ne s’agit ni d’un risque théorique ni d’un horizon lointain. D’un point de vue strictement technique, la capacité existe déjà. Ce qui rend le tableau encore plus intéressant, c’est l’écart entre ce que l’IA peut faire et ce qu’elle fait effectivement. En observant seulement les déploiements reels, là où l’IA est utilisée au quotidien le MIT estime qu’environ 2,2 % des emplois semblent touchés. Ils appellent cela le “Surface Index”. En surface, la situation paraît gérable. En dessous, s’étend une vaste couche de travail cognitif potentiellement automatisable et encore peu exploitée. Cette couche cachée englobe des rôles que beaucoup considèrent encore “à l’abri” : finance, administration de santé, opérations, coordination, services professionnels. Ces métiers reposent fortement sur l’analyse, la documentation, la planification et la prise de décision structure, exactement le type de tâches que les systèmes d’IA modernes commencent à bien maîtriser. Alors, qu’est‑ce qui a changé ? En un mot : l’accès. Jusqu’à récemment, les assistants IA restaient en dehors de nos environnements de travail réels. Ils savaient discuter, résumer, générer du texte, mais n’avaient pas accès à votre agenda, vos outils de projet, vos bases de données internes ou vos workflows. Cette barrière a commencé à tomber fin 2024 avec l’introduction du Model Context Protocol, ou MCP. MCP permet aux modèles d’IA de se connecter directement aux outils et aux sources de données via des interfaces standardisées. Ce simple basculement a tout débloqué : des agents IA qui non seulement conseillent, mais agissent. En mars 2025, on dénombrait plus de 7 900 serveurs MCP en production. L’IA peut désormais consulter des agendas, réserver des salles, envoyer des invitations, mettre à jour des plans de projet, rapprocher des données et générer des rapports de façon autonome. Project Iceberg suit tout cela en temps réel, en mettant ces capacités en correspondance directe avec les compétences du marché du travail. Et c’est là que les données prennent un tournant inattendu. La plus grande vulnérabilité ne se concentre pas dans la Silicon Valley. Elle apparaît nettement dans des États du “Rust Belt” comme l’Ohio, le Michigan et le Tennessee. Non pas parce que les usines regorgent de robots, mais parce que les fonctions de support cognitif autour de l’industrie  (analyse financière, coordination administrative, conformité, planification) sont hautement automatisables. Des emplois qui semblent stables en surface, mais qui se trouvent en plein sous‑marin de l’iceberg. Les experts ne balaye nt pas ces résultats d’un revers de main en les qualifiant d’alarmistes. Une autre étude, portant sur 339 “superforecasters” et spécialistes de l’IA, estime qu’à l’horizon 2030, environ 18 % des heures de travail seront assistées par l’IA. Un chiffre étonnamment cohérent avec l’exposition technique actuelle de 11,7 % mise en avant par le MIT, ce qui confère au projet Iceberg une crédibilité directionnelle plutôt qu’un caractère spéculatif. Ce qui frappe surtout, c’est l’usage qui est fait de ces informations. Project Iceberg n’est pas qu’un rapport de recherche, c’est un système d’alerte précoce. Des États s’en servent déjà pour repérer les compétences à risque et investir dans la reconversion avant que les déplacements d’emplois ne se produisent. Le focus se déplace des intitulés de poste vers des grappes de compétences : quelles parties d’un rôle sont automatisables, et lesquelles nécessitent encore jugement humain, créativité, empathie ou travail relationnel. La grande question, désormais, n’est plus de savoir si l’IA va transformer le travail. Ce point est acquis. La vraie question est de savoir si les systèmes, les institutions et les pouvoirs publics bâtissent assez vite l’infrastructure pour accompagner quelque 21 millions de travailleurs potentiellement déplacés. L’iceberg est déjà là. Ce qui compte, c’est de savoir si nous manœuvrons ou si nous attendons l’impact.

French

Mistral 3 : pourquoi ce modèle d’IA retient vraiment notre attention

À chaque sortie d’un nouveau modèle d’IA, le vacarme est garanti : grandes promesses, comparaisons tapageuses, slogans du type “celui-ci va tout changer”. La plupart du temps, on observe, on parcourt rapidement, puis on passe à autre chose. Mais parfois, une annonce nous arrête net et nous fait réfléchir à l’impact concret sur le terrain. C’est exactement l’effet qu’a eu Mistral 3. Ce qui nous intéresse ici, ce n’est pas seulement la performance ou la taille, mais l’état d’esprit. Mistral 3 n’est pas un énorme modèle unique réservé aux géants de la tech. C’est une famille de modèles, allant de systèmes puissants à des versions bien plus légères et sobres, capables de tourner en local. D’emblée, cela change la donne : flexibilité, accessibilité, liberté de choix. Pour les cliniciens, les enseignants et les thérapeutes, ces qualités comptent bien plus que des chiffres records. L’un des points les plus marquants de Mistral 3 est sa solidité en multilingue. En thérapie comme en éducation, l’accès linguistique n’est pas un “plus”, c’est essentiel. Beaucoup de familles ne se sentent pas le plus à l’aise en anglais ; or, une barrière de langue peut vite devenir une barrière thérapeutique. Un modèle qui gère naturellement plusieurs langues ouvre la voie à des échanges plus clairs avec les parents, à des ressources plus inclusives et à des supports qui sonnent humains plutôt que “traduits à la machine”. Autre raison de notre intérêt : l’existence de modèles plus petits. Techniquement, cela peut sembler anecdotique ; philosophiquement, c’est majeur. Des modèles légers rendent possibles les usages en local, réduisent la dépendance au cloud et offrent davantage de contrôle sur les données sensibles. Quand on accompagne des enfants, des personnes neurodivergentes ou des patients vivant des enjeux de santé mentale, la confidentialité et la responsabilité éthique ne se négocient pas. Les outils qui protègent ces principes méritent qu’on s’y attarde. Sur le plan pratique, Mistral 3 montre aussi de meilleures capacités de raisonnement et de suivi des instructions que bien des modèles très “fluides” mais peu profonds. Or cela compte lorsque l’IA sert à soutenir la réflexion, pas seulement à générer du texte. Qu’il s’agisse d’esquisser des comptes rendus de séance, de structurer des plans thérapeutiques ou de résumer des publications, la valeur vient de la cohérence et de la logique, pas uniquement d’une prose soignée. Pour autant, il faut rappeler clairement les limites. Aucun modèle d’IA ne “comprend” la sécurité émotionnelle, la régulation, le trauma, ni l’alliance thérapeutique. Ce sont des processus profondément humains, au cœur de la thérapie efficace. Tout outil d’IA, Mistral 3 compris, doit rester un appui au clinician, jamais un substitut au jugement clinique, à l’empathie, ni au lien humain. Là où nous voyons une vraie plus-value, c’est dans la réduction de la charge cognitive. Rédiger, organiser, adapter, résumer,  autant de tâches où l’IA peut faire gagner du temps et de l’énergie mentale, pour permettre aux thérapeutes et aux enseignants de se concentrer davantage sur le travail humain, ici et maintenant. Utilisés avec intention et éthique, des outils comme Mistral 3 peuvent soutenir discrètement de meilleures pratiques, plutôt que de les bousculer. En somme, Mistral 3 incarne une trajectoire qui nous encourage : ouverte, flexible, et ancrée dans l’usage concret plutôt que dans le battage. Il ne s’agit pas de courir après la nouveauté, mais de choisir des outils alignés avec le soin éthique, l’inclusivité et une pratique réfléchie. Nous continuerons à suivre ce champ de près, à tester avec rigueur et à partager ce qui apporte réellement de la Valeur, car dans les métiers du cerveau, de meilleurs outils comptent, mais la sagesse avec laquelle on les utilise compte encore davantage.

French

Suivi des données en thérapie assisté par l’IA : comment les outils Google peuvent améliorer le monitoring des progrès

Si vous êtes comme nous, vous savez à quel point le suivi des progrès est important en thérapie. Mais soyons honnêtes, c’est aussi l’une des tâches les plus chronophages du métier. Nous avons tous passé plus d’heures à documenter qu’à réellement nous connecter avec les clients, et ce n’est tout simplement pas tenable. C’est pourquoi nous avons décidé d’essayer les outils d’IA de Google, et voici ce que nous avons découvert. Nous avons commencé à utiliser Google Sheets avec ses nouvelles fonctionnalités d’IA pour rationaliser notre suivi des données. Au lieu de saisir manuellement des formules ou de calculer les taux de précision, nous avons simplement demandé à Sheets de « résumer la tendance des réponses correctes sur les 8 dernières séances » ou de « mettre en évidence les séances où la précision a chuté de plus de 10 % ». C’est étonnamment intuitif, même si vous n’êtes pas expert en tableurs. Le meilleur dans tout ça ? Cela libère énormément de temps, du temps que nous pouvons consacrer à interpréter les données, pas seulement à les traiter. Par exemple, nous passions auparavant 15 à 20 minutes par séance client rien que pour organiser les données ; nous sommes désormais à 5 à 7 minutes, ce qui, sur une semaine chargée, fait une vraie différence. L’automatisation des calculs répétitifs, comme le pourcentage de précision, les décomptes de fréquence et les profils d’erreurs, nous sauve la mise, surtout quand on jongle avec plusieurs clients ou qu’on gère un grand nombre de dossiers. Nous adorons aussi la facilité avec laquelle on peut générer des graphiques. Par exemple, nous pouvons demander un graphique en courbe montrant l’évolution d’un objectif précis, et Sheets crée un visuel clair et partageable. Les familles et les équipes pluridisciplinaires trouvent ces graphiques vraiment utiles, et c’est une excellente façon de montrer aux clients leurs progrès de manière concrète. Un parent nous a dit : « Voir le graphique a rendu les progrès de mon enfant plus faciles à comprendre, et ça nous a redonné de l’espoir quand les choses semblaient ralentir. » Autre point fort : l’IA de Google peut transformer nos notes de séance brutes, simples puces ou mots‑clés, en synthèses claires et objectives. Ce n’est pas parfait, mais c’est un énorme gain de temps, surtout après des séances enchaînées. En plus, l’IA peut analyser plusieurs séances pour repérer des schémas qui pourraient nous échapper, comme des erreurs récurrentes ou des déclencheurs de certains comportements. Même si nous restons ceux qui interprètent la signification de ces schémas, l’IA accélère le processus et nous aide à capter des détails que nous aurions sinon manqués. Par exemple, nous avons remarqué que les progrès langagiers d’un enfant étaient plus marqués les jours où la routine était plus structurée, ce qui nous a conduit à ajuster notre plan d’intervention. Il y a tout de même quelques accrocs. L’IA ne saisit pas toujours toutes les nuances, donc nous devons encore relire et ajuster les synthèses et les graphiques. Il y a aussi une courbe d’apprentissage certains thérapeutes peuvent se sentir dépassés au début, surtout s’ils ne sont pas à l’aise avec la technologie. Et bien sûr, la confidentialité est une préoccupation majeure. Nous vérifions toujours que nos données sont stockées de manière sécurisée et que nous respectons toutes les directives nécessaires, en particulier lorsqu’il s’agit de mineurs. Nous utilisons les contrôles de confidentialité intégrés à Google et nous veillons à ce que les informations de nos clients ne soient jamais partagées sans consentement. Mais c’est là que les choses se compliquent : comment les données de vos patients sont‑elles stockées ? Où sont‑elles stockées ? Sont‑elles utilisées pour entraîner des modèles ou à des fins internes ? Que pouvez‑vous réellement faire, en tant que thérapeute, pour protéger la confidentialité des clients ? Où ces fichiers sont‑ils conservés, et quels contrôles avez‑vous sur l’accès et le partage ? Ce sont autant de questions cruciales que nous explorons encore, et il est important de rester informé des politiques de confidentialité et de sécurité de Google. Si vous voulez en savoir plus, rejoignez nos prochaines sessions de formation ou contactez‑nous il y a beaucoup à démêler, et nous sommes là pour vous aider à y voir clair. Dans l’ensemble, les outils d’IA de Google ont rendu notre suivi des données plus intelligent et plus efficace. Ils ne remplacent pas la dimension humaine le jugement clinique, l’empathie et le contexte restent irremplaçables, mais ils nous aident à nous concentrer sur l’essentiel : créer du lien avec les clients, entraîner des compétences et répondre à leurs besoins spécifiques. Si vous souhaitez passer moins de temps sur l’administratif et plus de temps sur la thérapie, cela vaut vraiment la peine d’essayer ces outils. L’IA n’est pas là pour nous remplacer ; elle est là pour nous aider à mieux faire notre travail. Utilisés avec discernement, ces outils peuvent amplifier notre capacité à suivre les progrès avec précision et à soutenir les familles avec les éclairages qu’elles méritent. Alors allez‑y tentez le suivi des données assisté par l’IA. Vous pourriez le trouver aussi utile que nous.

French

Au cœur de l’écosystème IA de Google : comment Gemini, AI Studio et les agents transforment discrètement la thérapie et l’éducation

Au cours de l’année écoulée, nous avons exploré en profondeur l’écosystème d’IA de Google et, honnêtement, cela a changé notre manière de travailler en thérapie et en éducation. Il ne s’agit plus seulement de Gemini, c’est la façon dont l’ensemble des outils, d’AI Studio aux agents, en passant par Notebook LM et toute une gamme d’applications, s’articulent pour créer un flux de travail réellement pensé pour des cliniciens et des enseignants très sollicités. Nous avons commencé avec Gemini, l’IA multimodale de Google, et nous avons très vite mesuré son utilité pour générer des contenus structurés et cliniquement pertinents. Qu’il s’agisse de créer une histoire sociale adaptée au profil sensoriel d’un enfant ou de simplifier un concept linguistique pour un parent, la force de Gemini réside dans sa capacité à comprendre des consignes détaillées et à fournir des brouillons utiles. Ce que nous avons le plus apprécié, c’est qu’avec un contexte clair, Gemini peut produire des supports qui semblent personnalisés et pertinents, nous faisant gagner des heures de préparation. Mais nous en avons aussi vu les limites, ce n’est pas un substitut à l’expertise clinique, et il faut parfois beaucoup d’ajustements pour en affiner les nuances. Nous avons ensuite exploré Google AI Studio, qui permet de construire des outils sur mesure reflétant votre style ou les besoins de votre file active. Nous avons créé un “générateur d’histoires sociales au langage sensoriellement adapté” et un “outil d’entraînement aux questions QU pour les premiers apprentissages langagiers”. Le meilleur dans tout ça ? Nul besoin d’être développeur concevoir quelque chose d’utile est étonnamment abordable. Quand vous automatisez une tâche répétitive, comme générer des résumés de séance ou des emails d’accompagnement aux parents, l’effet se cumule avec le temps. Nous économisons des heures chaque mois simplement grâce à ces outils prêts à l’emploi. Au niveau supérieur, la technologie d’agents de Google commence à prendre en charge des enchaînements plus complexes, en plusieurs étapes. Les agents peuvent lire vos objectifs hebdomadaires, les classer par enfant, rédiger des plans de séance, mettre à jour les documents de suivi des progrès et même préparer les emails aux parents. Au début, l’idée de workflows entièrement automatisés nous semblait un peu intimidante, mais nous avons constaté que même une automatisation partielle, comme l’auto‑génération de rapports hebdomadaires ou le tri des données clients, réduit la fatigue cognitive et libère de l’espace mental pour le cœur humain de notre métier. L’essentiel est de garder la main : les agents sont des assistants, pas des remplaçants. Nous avons aussi testé Google Notebook LM, qui vous permet de téléverser vos propres documents et de demander à l’IA de résumer, d’analyser ou même de rédiger des réponses à partir de vos notes. Pour la planification thérapeutique et la veille, c’est un moyen précieux d’organiser et d’extraire des insights de nos propres fichiers. Et avec les fonctionnalités dopées à l’IA dans Sheets et Docs, automatiser les calculs et générer des graphiques est devenu fluide. D’autres applications, comme les Chromebooks motorisés par l’IA de Google avec des fonctions avancées de synthèse vocale et de dictée, ont également fait la différence, notamment pour les apprenants ayant besoin d’outils d’accessibilité. La transcription et la traduction en temps réel dans Google Meet ont changé la donne pour les séances avec des locuteurs non natifs ou quand nous devons partager des synthèses claires avec les parents. Google Forms, avec ses enquêtes intelligentes assistées par l’IA, facilite encore la collecte de retours et le suivi des progrès, et Google Slides, avec ses suggestions de design pilotées par l’IA, nous aide à créer des présentations visuellement engageantes pour des formations ou des ateliers parents. Mais ce qui nous enthousiasme le plus vient de nos expérimentations avec Nano Banana et Nano Banana Pro. Nano Banana est un générateur de contenu IA rapide qui facilite la création, sur le vif, de visuels pédagogiques attrayants, de supports de cours et de matériaux didactiques. Il est particulièrement utile pour rendre des notions complexes accessibles et mémorables. Nano Banana Pro va plus loin, avec une génération d’images et de vidéos de haute qualité, expressives sur le plan émotionnel. C’est un changement de cap pour des vidéos d’intervention personnalisées, des histoires sociales et des démonstrations pas à pas, rendant plus simple que jamais la modélisation de compétences, de routines ou de scénarios émotionnels pour nos clients et nos élèves. Veo, l’outil de génération vidéo de Google, est un autre point fort. Il nous permet de créer en quelques minutes des vidéos sur mesure pour des explications thérapeutiques, des leçons ou des supports visuels. Qu’il s’agisse d’une courte vidéo pour démontrer une compétence, expliquer un concept ou capter l’attention d’un élève, Veo simplifie la production et nous fait gagner un temps précieux. N’oublions pas la recherche propulsée par l’IA de Google, qui met désormais en avant des études et des ressources adaptées à nos besoins spécifiques, ainsi que Google Keep avec ses rappels intelligents et son organisation des notes assistée par l’IA, qui maintient nos listes de tâches et nos notes de séance en ordre. Et pour celles et ceux qui aiment expérimenter, les nouvelles fonctions “Studio” alimentées par l’IA dans Docs et Slides permettent de générer des images, des graphiques et même des diaporamas complets en quelques clics. Ce que nous apprécions par‑dessus tout, c’est la manière dont tous ces outils sont conçus pour fonctionner ensemble. Vous pouvez démarrer par une invite dans Gemini, construire un outil personnalisé dans AI Studio, utiliser des agents pour automatiser le workflow, analyser vos résultats dans Notebook LM, puis partager vos livrables via Meet, Slides ou Keep, le tout au sein de l’écosystème Google. L’intégration est fluide, et l’on sent que ces outils sont réellement pensés pour soutenir notre pratique, sans ajouter une couche de complexité. Bien sûr, tout n’est pas parfait. La confidentialité reste une préoccupation constante, et nous veillons à ne jamais téléverser d’informations identifiantes sur les clients. Et même si ces outils sont puissants, ils nécessitent une supervision humaine, aucune IA ne remplace le jugement clinique ni la relation

French

Nano Banana 3 devient illimité : pourquoi la sortie surprise de Higgsfield compte pour les thérapeutes, les enseignants et les pratiques enrichies par l’IA

De temps en temps, le monde de l’IA réserve une surprise qui capte l’attention de tous. Cette semaine, elle vient de Higgsfield, l’entreprise derrière les modèles de génération vidéo Nano Banana réputés pour produire certaines des vidéos IA les plus nettes et les plus réalistes du marché, en débloquant des capacités jusqu’ici réservées à des offres entreprise coûteuses. Pour la plupart, la nouvelle est enthousiasmante. Pour les thérapeutes, les enseignants, les chercheurs et les créateurs travaillant dans le développement humain et la réadaptation, elle est transformatrice. Nano Banana 3 et Nano Banana Pro font partie des modèles vidéo de nouvelle génération de Higgsfield. Conçus à l’origine pour les créateurs et les studios, leur qualité, leur vitesse et leur réalisme ont attiré l’attention de professionnels de la santé, de l’éducation et, plus largement, du champ neurodéveloppemental. Ces modèles ne sont pas de simples générateurs d’avatars parlants. Ils produisent des scènes vidéo dynamiques et contextuelles, des animations humaines expressives et des clips éducatifs réalisés en un temps record le tout à partir de simples invites textuelles. Ainsi, lorsque Higgsfield a temporairement levé les restrictions, ce n’était pas uniquement destiné aux créateurs vidéo, c’était une invitation à explorer ce que pourrait être, en pratique thérapeutique et éducative, une génération vidéo de haute qualité. Qu’est-ce que Nano Banana 3, exactement ? Nano Banana 3 est le modèle vidéo léger, rapide et étonnamment réaliste de Higgsfield. Il génère de courtes vidéos fluides et expressives avec une meilleure stabilité du mouvement et moins de distorsion que les versions précédentes de Nano Banana. Nano Banana Pro, auquel l’accès est temporairement gratuity, ajoute encore davantage : Pour les thérapeutes, les enseignants et les cliniciens, cela signifie la possibilité de créer instantanément des vidéos d’intervention, des modèles de jeu de rôle, des supports visuels, des clips de psychoéducation et des scènes de démonstration qui prendraient normalement des heures à filmer. Pourquoi cette sortie est importante pour la pratique Je serai honnête : quand les modèles de génération vidéo sont apparus, je ne les voyais pas comme des outils thérapeutiques. Mais les modèles Nano Banana m’ont fait changer d’avis. Leur réalisme et leur flexibilité correspondent directement à plusieurs besoins que nous rencontrons chaque jour : modéliser la communication, décomposer des routines, illustrer des attentes sociales ou, tout simplement, rendre le contenu suffisamment engageant pour des apprenants qui ont besoin de nouveauté visuelle ou de répétition. Cette mise à disposition sans restriction supprime la barrière à l’expérimentation. Pendant trois jours, n’importe quel thérapeute ou enseignant peut tester Nano Banana Pro et constater concrètement comment la vidéo générée par IA peut soutenir ses flux de travail sans engagement financier ni friction technique. Par exemple : Ce qui rend Nano Banana particulièrement intéressant, c’est le réalisme émotionnel. Les personnages se déplacent avec un rythme naturel, un regard et une affectivité cohérents — des caractéristiques extrêmement précieuses pour les interventions en communication sociale. Mon point de vue : pourquoi vous devriez l’essayer Lorsque des outils comme celui-ci deviennent illimités, même brièvement, nous avons une occasion rare d’explorer à quoi pourrait ressembler l’avenir de l’intervention. Pas en théorie, ni en concept mais dans une expérimentation concrète et pratique. Je vois un fort potentiel pour : Un tel outil ne remplace pas la thérapie, il l’étend. Il comble l’intervalle entre les séances, aide à personnaliser l’intervention et fournit aux familles des ressources pertinentes, engageantes, culturellement adaptables et accessibles. Quelques précautions Bien sûr, la génération vidéo n’est pas exempte d’enjeux. Nous devons garder des limites claires concernant : Mais, utilisée à bon escient, Nano Banana peut aider à mettre l’échelle, enrichir les apprentissages et soutenir des environnements où le modelage visuel est une méthode d’instruction centrale. Une occasion d’explorer, pas pour se précipiter Le choix de Higgsfield d’ouvrir Nano Banana Pro au public est audacieux. C’est aussi un aperçu de l’accessibilité future de la création IA haut de gamme. Pour de nombreux professionnels, ces trois jours sont l’occasion de tester des flux de travail qui pourraient devenir la norme de la création de supports thérapeutiques personnalisés à la construction de stimuli de recherche ou de modules éducatifs. Que vous utilisiez les trois jours au complet ou seulement quelques minutes, cela vaut la peine d’essayer. Pas parce que l’IA va remplacer la présence pédagogique ou thérapeutique mais parce qu’elle peut l’étendre de manière puissante, flexible et créative.

French

Gemini 3 : le modèle le plus performant de Google et ce que cela signifie pour la thérapie, l’éducation et les approches fondées sur les neurosciences

Chaque année, l’IA avance un peu plus sur des terrains que l’on pensait réservés à la cognition humaine : nuance, empathie, raisonnement, adaptabilité. Mais avec la sortie de Gemini 3 par Google, quelque chose paraît différent. Cette nouvelle génération n’est pas qu’une mise à jour de plus c’est un basculement vers une IA qui raisonne de manière plus cohérente, communique plus naturellement et s’intègre aux écosystèmes clinique, éducatif et de recherche avec une aisance inédite. Pour beaucoup d’entre nous dans le monde thérapeutique, Gemini 3 arrive à un moment où nous jonglons avec des charges de cas croissantes, des pressions administratives et le besoin d’outils plus adaptatifs qui soutiennent, sans remplacer, notre expertise. Et, de manière surprenante ce modèle apporte une réponse adaptée à cette réalité . Ce que Gemini 3 est réellement au‑delà du marketing Google présente Gemini 3 comme son modèle multimodal le plus avancé : texte, audio, images, vidéo, graphiques, code et interactions en temps réel convergent dans un même système. Mais ce qui ressort, c’est la une plus grande stabilité dans son raisonnement. Les modèles précédents, y compris Gemini 1.5 et 2.0, étaient en tête des classements de performance mais peinaient parfois dans des tâches longues et structurées ou dans une communication de type thérapeutique. Gemini 3 montre un affinage notable. Il gère des consignes complexes et imbriquées avec moins d’erreurs. Il soutient des conversations longues sans perdre le contexte. Et peut‑être plus pertinent pour nous, il est plus sensible au ton et à l’intention. Lorsque vous demandez une explication accessible aux parents sur le trouble du traitement auditif, une stratégie de classe sensible au traumatisme, ou un résumé neutre de recherches récentes, ses réponses paraissent moins standardisées et mieux alignées avec les standards de communication clinique. Google a également renforcé les performances en multilingue, un point crucial pour nos contextes thérapeutiques et scolaires plurilingues. Gemini 3 traite l’arabe, le français et plusieurs langues d’Asie du Sud avec une stabilité bien supérieure aux itérations antérieures. Pour les familles et les éducateurs œuvrant dans des communautés linguistiquement diverses, cela compte. Comment il peut soutenir la pratique de notre point de vue Je serai franc : quand les entreprises d’IA annoncent de nouveaux modèles, ma première réaction est une curiosité prudente. « Montrez‑moi en quoi cela aide dans une vraie salle de thérapie. » Avec Gemini 3, je commence à voir des voies pratiques. Dans nos contextes thérapeutiques et éducatifs, les améliorations du modèle pourraient renforcer la pratique de plusieurs façons : Mais la vraie question est la suivante : faut‑il s’enthousiasmer ou rester prudent ? En tant que thérapeutes, nous gardons toujours un pied dans l’innovation et l’autre solidement ancré dans la sécurité. Avec Gemini 3, cette posture reste essentielle. L’enthousiasme vient de sa capacité à améliorer l’accès, réduire la surcharge et soutenir des familles qui ont besoin de plus qu’une séance hebdomadaire. Mais la prudence est nécessaire, car plus le modèle paraît « humain », plus il est facile de sur‑faire confiance à son autorité. Gemini 3 peut sembler empathique mais il ne « comprend » pas les émotions. Il peut synthétiser la recherche mais il ne remplace pas le jugement clinique. La voie à suivre, selon moi, est une intégration intentionnelle. Nous utilisons Gemini 3 pour renforcer, non eclipser, notre expertise. Nous lui confions les volets les plus lourds en charge de travail, tout en veillant à ce que l’interprétation et la décision demeurent pleinement humaines. Et nous maintenons la transparence avec nos clients, élèves et familles quant à la place de l’IA dans notre travail. Pourquoi Gemini 3 compte maintenant Nous entrons dans une période où les outils d’IA ne sont plus optionnels ils deviennent partie intégrante du paysage professionnel. Ce qui distingue Gemini 3, ce n’est pas la nouveauté, mais la maturité. Il offre suffisamment de stabilité, de profondeur et de flexibilité pour soutenir réellement la pratique, sans l’imprévisibilité erratique qui caractérisait les générations précédentes. Pour les thérapeutes, les enseignants spécialisés et les chercheurs, Gemini 3 représente une opportunité de reprendre du temps, d’affiner la personnalisation et d’accroître notre capacité à délivrer des soins. Mais il nous invite aussi à réfléchir avec lucidité à notre rôle dans cet écosystème en mutation : mener la conversation sur l’intégration éthique, former la prochaine génération à la littératie en IA et veiller à ce que la technologie demeure un outil d’autonomisation plutôt qu’un substitut. L’avenir de la thérapie reste centré sur l’humain. Gemini 3 nous donne simplement plus d’espace pour que cela le reste.

Shopping Cart