French

French

PLONGÉE EN PROFONDEUR : le projet Iceberg du MIT et ce que les experts anticipent pour l’IA et l’emploi

Pendant longtemps, on s’est rassuré en pensant que l’IA toucherait surtout les métiers de la tech. Développeurs, data scientists, peut‑être quelques analystes, pour le reste, sentiment de relative sécurité. Ce récit se fissure, et le projet Iceberg du MIT le montre très clairement. Ce que nous regardions jusqu’ici n’était pas l’ensemble, juste la partie émergée. Le MIT, en collaboration avec le Oak Ridge National Laboratory, a mené une simulation d’ampleur, suivant 151 millions de travailleurs américains à travers plus de 32 000 compétences et 923 professions. L’objectif n’était pas de prédire 2035 ou 2040, mais de poser une question bien plus inconfortable : qu’est‑ce que l’IA pourrait automatiser dès maintenant, avec les technologies déjà disponibles ? La réponse est saisissante. D’après Project Iceberg, l’IA peut techniquement remplacer environ 11,7 % de la main‑d’œuvre actuelle aux États‑Unis. Cela représente à peu près 1,2 trillion de dollars de salaires. Il ne s’agit ni d’un risque théorique ni d’un horizon lointain. D’un point de vue strictement technique, la capacité existe déjà. Ce qui rend le tableau encore plus intéressant, c’est l’écart entre ce que l’IA peut faire et ce qu’elle fait effectivement. En observant seulement les déploiements reels, là où l’IA est utilisée au quotidien le MIT estime qu’environ 2,2 % des emplois semblent touchés. Ils appellent cela le “Surface Index”. En surface, la situation paraît gérable. En dessous, s’étend une vaste couche de travail cognitif potentiellement automatisable et encore peu exploitée. Cette couche cachée englobe des rôles que beaucoup considèrent encore “à l’abri” : finance, administration de santé, opérations, coordination, services professionnels. Ces métiers reposent fortement sur l’analyse, la documentation, la planification et la prise de décision structure, exactement le type de tâches que les systèmes d’IA modernes commencent à bien maîtriser. Alors, qu’est‑ce qui a changé ? En un mot : l’accès. Jusqu’à récemment, les assistants IA restaient en dehors de nos environnements de travail réels. Ils savaient discuter, résumer, générer du texte, mais n’avaient pas accès à votre agenda, vos outils de projet, vos bases de données internes ou vos workflows. Cette barrière a commencé à tomber fin 2024 avec l’introduction du Model Context Protocol, ou MCP. MCP permet aux modèles d’IA de se connecter directement aux outils et aux sources de données via des interfaces standardisées. Ce simple basculement a tout débloqué : des agents IA qui non seulement conseillent, mais agissent. En mars 2025, on dénombrait plus de 7 900 serveurs MCP en production. L’IA peut désormais consulter des agendas, réserver des salles, envoyer des invitations, mettre à jour des plans de projet, rapprocher des données et générer des rapports de façon autonome. Project Iceberg suit tout cela en temps réel, en mettant ces capacités en correspondance directe avec les compétences du marché du travail. Et c’est là que les données prennent un tournant inattendu. La plus grande vulnérabilité ne se concentre pas dans la Silicon Valley. Elle apparaît nettement dans des États du “Rust Belt” comme l’Ohio, le Michigan et le Tennessee. Non pas parce que les usines regorgent de robots, mais parce que les fonctions de support cognitif autour de l’industrie  (analyse financière, coordination administrative, conformité, planification) sont hautement automatisables. Des emplois qui semblent stables en surface, mais qui se trouvent en plein sous‑marin de l’iceberg. Les experts ne balaye nt pas ces résultats d’un revers de main en les qualifiant d’alarmistes. Une autre étude, portant sur 339 “superforecasters” et spécialistes de l’IA, estime qu’à l’horizon 2030, environ 18 % des heures de travail seront assistées par l’IA. Un chiffre étonnamment cohérent avec l’exposition technique actuelle de 11,7 % mise en avant par le MIT, ce qui confère au projet Iceberg une crédibilité directionnelle plutôt qu’un caractère spéculatif. Ce qui frappe surtout, c’est l’usage qui est fait de ces informations. Project Iceberg n’est pas qu’un rapport de recherche, c’est un système d’alerte précoce. Des États s’en servent déjà pour repérer les compétences à risque et investir dans la reconversion avant que les déplacements d’emplois ne se produisent. Le focus se déplace des intitulés de poste vers des grappes de compétences : quelles parties d’un rôle sont automatisables, et lesquelles nécessitent encore jugement humain, créativité, empathie ou travail relationnel. La grande question, désormais, n’est plus de savoir si l’IA va transformer le travail. Ce point est acquis. La vraie question est de savoir si les systèmes, les institutions et les pouvoirs publics bâtissent assez vite l’infrastructure pour accompagner quelque 21 millions de travailleurs potentiellement déplacés. L’iceberg est déjà là. Ce qui compte, c’est de savoir si nous manœuvrons ou si nous attendons l’impact.

French

Mistral 3 : pourquoi ce modèle d’IA retient vraiment notre attention

À chaque sortie d’un nouveau modèle d’IA, le vacarme est garanti : grandes promesses, comparaisons tapageuses, slogans du type “celui-ci va tout changer”. La plupart du temps, on observe, on parcourt rapidement, puis on passe à autre chose. Mais parfois, une annonce nous arrête net et nous fait réfléchir à l’impact concret sur le terrain. C’est exactement l’effet qu’a eu Mistral 3. Ce qui nous intéresse ici, ce n’est pas seulement la performance ou la taille, mais l’état d’esprit. Mistral 3 n’est pas un énorme modèle unique réservé aux géants de la tech. C’est une famille de modèles, allant de systèmes puissants à des versions bien plus légères et sobres, capables de tourner en local. D’emblée, cela change la donne : flexibilité, accessibilité, liberté de choix. Pour les cliniciens, les enseignants et les thérapeutes, ces qualités comptent bien plus que des chiffres records. L’un des points les plus marquants de Mistral 3 est sa solidité en multilingue. En thérapie comme en éducation, l’accès linguistique n’est pas un “plus”, c’est essentiel. Beaucoup de familles ne se sentent pas le plus à l’aise en anglais ; or, une barrière de langue peut vite devenir une barrière thérapeutique. Un modèle qui gère naturellement plusieurs langues ouvre la voie à des échanges plus clairs avec les parents, à des ressources plus inclusives et à des supports qui sonnent humains plutôt que “traduits à la machine”. Autre raison de notre intérêt : l’existence de modèles plus petits. Techniquement, cela peut sembler anecdotique ; philosophiquement, c’est majeur. Des modèles légers rendent possibles les usages en local, réduisent la dépendance au cloud et offrent davantage de contrôle sur les données sensibles. Quand on accompagne des enfants, des personnes neurodivergentes ou des patients vivant des enjeux de santé mentale, la confidentialité et la responsabilité éthique ne se négocient pas. Les outils qui protègent ces principes méritent qu’on s’y attarde. Sur le plan pratique, Mistral 3 montre aussi de meilleures capacités de raisonnement et de suivi des instructions que bien des modèles très “fluides” mais peu profonds. Or cela compte lorsque l’IA sert à soutenir la réflexion, pas seulement à générer du texte. Qu’il s’agisse d’esquisser des comptes rendus de séance, de structurer des plans thérapeutiques ou de résumer des publications, la valeur vient de la cohérence et de la logique, pas uniquement d’une prose soignée. Pour autant, il faut rappeler clairement les limites. Aucun modèle d’IA ne “comprend” la sécurité émotionnelle, la régulation, le trauma, ni l’alliance thérapeutique. Ce sont des processus profondément humains, au cœur de la thérapie efficace. Tout outil d’IA, Mistral 3 compris, doit rester un appui au clinician, jamais un substitut au jugement clinique, à l’empathie, ni au lien humain. Là où nous voyons une vraie plus-value, c’est dans la réduction de la charge cognitive. Rédiger, organiser, adapter, résumer,  autant de tâches où l’IA peut faire gagner du temps et de l’énergie mentale, pour permettre aux thérapeutes et aux enseignants de se concentrer davantage sur le travail humain, ici et maintenant. Utilisés avec intention et éthique, des outils comme Mistral 3 peuvent soutenir discrètement de meilleures pratiques, plutôt que de les bousculer. En somme, Mistral 3 incarne une trajectoire qui nous encourage : ouverte, flexible, et ancrée dans l’usage concret plutôt que dans le battage. Il ne s’agit pas de courir après la nouveauté, mais de choisir des outils alignés avec le soin éthique, l’inclusivité et une pratique réfléchie. Nous continuerons à suivre ce champ de près, à tester avec rigueur et à partager ce qui apporte réellement de la Valeur, car dans les métiers du cerveau, de meilleurs outils comptent, mais la sagesse avec laquelle on les utilise compte encore davantage.

French

Suivi des données en thérapie assisté par l’IA : comment les outils Google peuvent améliorer le monitoring des progrès

Si vous êtes comme nous, vous savez à quel point le suivi des progrès est important en thérapie. Mais soyons honnêtes, c’est aussi l’une des tâches les plus chronophages du métier. Nous avons tous passé plus d’heures à documenter qu’à réellement nous connecter avec les clients, et ce n’est tout simplement pas tenable. C’est pourquoi nous avons décidé d’essayer les outils d’IA de Google, et voici ce que nous avons découvert. Nous avons commencé à utiliser Google Sheets avec ses nouvelles fonctionnalités d’IA pour rationaliser notre suivi des données. Au lieu de saisir manuellement des formules ou de calculer les taux de précision, nous avons simplement demandé à Sheets de « résumer la tendance des réponses correctes sur les 8 dernières séances » ou de « mettre en évidence les séances où la précision a chuté de plus de 10 % ». C’est étonnamment intuitif, même si vous n’êtes pas expert en tableurs. Le meilleur dans tout ça ? Cela libère énormément de temps, du temps que nous pouvons consacrer à interpréter les données, pas seulement à les traiter. Par exemple, nous passions auparavant 15 à 20 minutes par séance client rien que pour organiser les données ; nous sommes désormais à 5 à 7 minutes, ce qui, sur une semaine chargée, fait une vraie différence. L’automatisation des calculs répétitifs, comme le pourcentage de précision, les décomptes de fréquence et les profils d’erreurs, nous sauve la mise, surtout quand on jongle avec plusieurs clients ou qu’on gère un grand nombre de dossiers. Nous adorons aussi la facilité avec laquelle on peut générer des graphiques. Par exemple, nous pouvons demander un graphique en courbe montrant l’évolution d’un objectif précis, et Sheets crée un visuel clair et partageable. Les familles et les équipes pluridisciplinaires trouvent ces graphiques vraiment utiles, et c’est une excellente façon de montrer aux clients leurs progrès de manière concrète. Un parent nous a dit : « Voir le graphique a rendu les progrès de mon enfant plus faciles à comprendre, et ça nous a redonné de l’espoir quand les choses semblaient ralentir. » Autre point fort : l’IA de Google peut transformer nos notes de séance brutes, simples puces ou mots‑clés, en synthèses claires et objectives. Ce n’est pas parfait, mais c’est un énorme gain de temps, surtout après des séances enchaînées. En plus, l’IA peut analyser plusieurs séances pour repérer des schémas qui pourraient nous échapper, comme des erreurs récurrentes ou des déclencheurs de certains comportements. Même si nous restons ceux qui interprètent la signification de ces schémas, l’IA accélère le processus et nous aide à capter des détails que nous aurions sinon manqués. Par exemple, nous avons remarqué que les progrès langagiers d’un enfant étaient plus marqués les jours où la routine était plus structurée, ce qui nous a conduit à ajuster notre plan d’intervention. Il y a tout de même quelques accrocs. L’IA ne saisit pas toujours toutes les nuances, donc nous devons encore relire et ajuster les synthèses et les graphiques. Il y a aussi une courbe d’apprentissage certains thérapeutes peuvent se sentir dépassés au début, surtout s’ils ne sont pas à l’aise avec la technologie. Et bien sûr, la confidentialité est une préoccupation majeure. Nous vérifions toujours que nos données sont stockées de manière sécurisée et que nous respectons toutes les directives nécessaires, en particulier lorsqu’il s’agit de mineurs. Nous utilisons les contrôles de confidentialité intégrés à Google et nous veillons à ce que les informations de nos clients ne soient jamais partagées sans consentement. Mais c’est là que les choses se compliquent : comment les données de vos patients sont‑elles stockées ? Où sont‑elles stockées ? Sont‑elles utilisées pour entraîner des modèles ou à des fins internes ? Que pouvez‑vous réellement faire, en tant que thérapeute, pour protéger la confidentialité des clients ? Où ces fichiers sont‑ils conservés, et quels contrôles avez‑vous sur l’accès et le partage ? Ce sont autant de questions cruciales que nous explorons encore, et il est important de rester informé des politiques de confidentialité et de sécurité de Google. Si vous voulez en savoir plus, rejoignez nos prochaines sessions de formation ou contactez‑nous il y a beaucoup à démêler, et nous sommes là pour vous aider à y voir clair. Dans l’ensemble, les outils d’IA de Google ont rendu notre suivi des données plus intelligent et plus efficace. Ils ne remplacent pas la dimension humaine le jugement clinique, l’empathie et le contexte restent irremplaçables, mais ils nous aident à nous concentrer sur l’essentiel : créer du lien avec les clients, entraîner des compétences et répondre à leurs besoins spécifiques. Si vous souhaitez passer moins de temps sur l’administratif et plus de temps sur la thérapie, cela vaut vraiment la peine d’essayer ces outils. L’IA n’est pas là pour nous remplacer ; elle est là pour nous aider à mieux faire notre travail. Utilisés avec discernement, ces outils peuvent amplifier notre capacité à suivre les progrès avec précision et à soutenir les familles avec les éclairages qu’elles méritent. Alors allez‑y tentez le suivi des données assisté par l’IA. Vous pourriez le trouver aussi utile que nous.

French

Au cœur de l’écosystème IA de Google : comment Gemini, AI Studio et les agents transforment discrètement la thérapie et l’éducation

Au cours de l’année écoulée, nous avons exploré en profondeur l’écosystème d’IA de Google et, honnêtement, cela a changé notre manière de travailler en thérapie et en éducation. Il ne s’agit plus seulement de Gemini, c’est la façon dont l’ensemble des outils, d’AI Studio aux agents, en passant par Notebook LM et toute une gamme d’applications, s’articulent pour créer un flux de travail réellement pensé pour des cliniciens et des enseignants très sollicités. Nous avons commencé avec Gemini, l’IA multimodale de Google, et nous avons très vite mesuré son utilité pour générer des contenus structurés et cliniquement pertinents. Qu’il s’agisse de créer une histoire sociale adaptée au profil sensoriel d’un enfant ou de simplifier un concept linguistique pour un parent, la force de Gemini réside dans sa capacité à comprendre des consignes détaillées et à fournir des brouillons utiles. Ce que nous avons le plus apprécié, c’est qu’avec un contexte clair, Gemini peut produire des supports qui semblent personnalisés et pertinents, nous faisant gagner des heures de préparation. Mais nous en avons aussi vu les limites, ce n’est pas un substitut à l’expertise clinique, et il faut parfois beaucoup d’ajustements pour en affiner les nuances. Nous avons ensuite exploré Google AI Studio, qui permet de construire des outils sur mesure reflétant votre style ou les besoins de votre file active. Nous avons créé un “générateur d’histoires sociales au langage sensoriellement adapté” et un “outil d’entraînement aux questions QU pour les premiers apprentissages langagiers”. Le meilleur dans tout ça ? Nul besoin d’être développeur concevoir quelque chose d’utile est étonnamment abordable. Quand vous automatisez une tâche répétitive, comme générer des résumés de séance ou des emails d’accompagnement aux parents, l’effet se cumule avec le temps. Nous économisons des heures chaque mois simplement grâce à ces outils prêts à l’emploi. Au niveau supérieur, la technologie d’agents de Google commence à prendre en charge des enchaînements plus complexes, en plusieurs étapes. Les agents peuvent lire vos objectifs hebdomadaires, les classer par enfant, rédiger des plans de séance, mettre à jour les documents de suivi des progrès et même préparer les emails aux parents. Au début, l’idée de workflows entièrement automatisés nous semblait un peu intimidante, mais nous avons constaté que même une automatisation partielle, comme l’auto‑génération de rapports hebdomadaires ou le tri des données clients, réduit la fatigue cognitive et libère de l’espace mental pour le cœur humain de notre métier. L’essentiel est de garder la main : les agents sont des assistants, pas des remplaçants. Nous avons aussi testé Google Notebook LM, qui vous permet de téléverser vos propres documents et de demander à l’IA de résumer, d’analyser ou même de rédiger des réponses à partir de vos notes. Pour la planification thérapeutique et la veille, c’est un moyen précieux d’organiser et d’extraire des insights de nos propres fichiers. Et avec les fonctionnalités dopées à l’IA dans Sheets et Docs, automatiser les calculs et générer des graphiques est devenu fluide. D’autres applications, comme les Chromebooks motorisés par l’IA de Google avec des fonctions avancées de synthèse vocale et de dictée, ont également fait la différence, notamment pour les apprenants ayant besoin d’outils d’accessibilité. La transcription et la traduction en temps réel dans Google Meet ont changé la donne pour les séances avec des locuteurs non natifs ou quand nous devons partager des synthèses claires avec les parents. Google Forms, avec ses enquêtes intelligentes assistées par l’IA, facilite encore la collecte de retours et le suivi des progrès, et Google Slides, avec ses suggestions de design pilotées par l’IA, nous aide à créer des présentations visuellement engageantes pour des formations ou des ateliers parents. Mais ce qui nous enthousiasme le plus vient de nos expérimentations avec Nano Banana et Nano Banana Pro. Nano Banana est un générateur de contenu IA rapide qui facilite la création, sur le vif, de visuels pédagogiques attrayants, de supports de cours et de matériaux didactiques. Il est particulièrement utile pour rendre des notions complexes accessibles et mémorables. Nano Banana Pro va plus loin, avec une génération d’images et de vidéos de haute qualité, expressives sur le plan émotionnel. C’est un changement de cap pour des vidéos d’intervention personnalisées, des histoires sociales et des démonstrations pas à pas, rendant plus simple que jamais la modélisation de compétences, de routines ou de scénarios émotionnels pour nos clients et nos élèves. Veo, l’outil de génération vidéo de Google, est un autre point fort. Il nous permet de créer en quelques minutes des vidéos sur mesure pour des explications thérapeutiques, des leçons ou des supports visuels. Qu’il s’agisse d’une courte vidéo pour démontrer une compétence, expliquer un concept ou capter l’attention d’un élève, Veo simplifie la production et nous fait gagner un temps précieux. N’oublions pas la recherche propulsée par l’IA de Google, qui met désormais en avant des études et des ressources adaptées à nos besoins spécifiques, ainsi que Google Keep avec ses rappels intelligents et son organisation des notes assistée par l’IA, qui maintient nos listes de tâches et nos notes de séance en ordre. Et pour celles et ceux qui aiment expérimenter, les nouvelles fonctions “Studio” alimentées par l’IA dans Docs et Slides permettent de générer des images, des graphiques et même des diaporamas complets en quelques clics. Ce que nous apprécions par‑dessus tout, c’est la manière dont tous ces outils sont conçus pour fonctionner ensemble. Vous pouvez démarrer par une invite dans Gemini, construire un outil personnalisé dans AI Studio, utiliser des agents pour automatiser le workflow, analyser vos résultats dans Notebook LM, puis partager vos livrables via Meet, Slides ou Keep, le tout au sein de l’écosystème Google. L’intégration est fluide, et l’on sent que ces outils sont réellement pensés pour soutenir notre pratique, sans ajouter une couche de complexité. Bien sûr, tout n’est pas parfait. La confidentialité reste une préoccupation constante, et nous veillons à ne jamais téléverser d’informations identifiantes sur les clients. Et même si ces outils sont puissants, ils nécessitent une supervision humaine, aucune IA ne remplace le jugement clinique ni la relation

French

Nano Banana 3 devient illimité : pourquoi la sortie surprise de Higgsfield compte pour les thérapeutes, les enseignants et les pratiques enrichies par l’IA

De temps en temps, le monde de l’IA réserve une surprise qui capte l’attention de tous. Cette semaine, elle vient de Higgsfield, l’entreprise derrière les modèles de génération vidéo Nano Banana réputés pour produire certaines des vidéos IA les plus nettes et les plus réalistes du marché, en débloquant des capacités jusqu’ici réservées à des offres entreprise coûteuses. Pour la plupart, la nouvelle est enthousiasmante. Pour les thérapeutes, les enseignants, les chercheurs et les créateurs travaillant dans le développement humain et la réadaptation, elle est transformatrice. Nano Banana 3 et Nano Banana Pro font partie des modèles vidéo de nouvelle génération de Higgsfield. Conçus à l’origine pour les créateurs et les studios, leur qualité, leur vitesse et leur réalisme ont attiré l’attention de professionnels de la santé, de l’éducation et, plus largement, du champ neurodéveloppemental. Ces modèles ne sont pas de simples générateurs d’avatars parlants. Ils produisent des scènes vidéo dynamiques et contextuelles, des animations humaines expressives et des clips éducatifs réalisés en un temps record le tout à partir de simples invites textuelles. Ainsi, lorsque Higgsfield a temporairement levé les restrictions, ce n’était pas uniquement destiné aux créateurs vidéo, c’était une invitation à explorer ce que pourrait être, en pratique thérapeutique et éducative, une génération vidéo de haute qualité. Qu’est-ce que Nano Banana 3, exactement ? Nano Banana 3 est le modèle vidéo léger, rapide et étonnamment réaliste de Higgsfield. Il génère de courtes vidéos fluides et expressives avec une meilleure stabilité du mouvement et moins de distorsion que les versions précédentes de Nano Banana. Nano Banana Pro, auquel l’accès est temporairement gratuity, ajoute encore davantage : Pour les thérapeutes, les enseignants et les cliniciens, cela signifie la possibilité de créer instantanément des vidéos d’intervention, des modèles de jeu de rôle, des supports visuels, des clips de psychoéducation et des scènes de démonstration qui prendraient normalement des heures à filmer. Pourquoi cette sortie est importante pour la pratique Je serai honnête : quand les modèles de génération vidéo sont apparus, je ne les voyais pas comme des outils thérapeutiques. Mais les modèles Nano Banana m’ont fait changer d’avis. Leur réalisme et leur flexibilité correspondent directement à plusieurs besoins que nous rencontrons chaque jour : modéliser la communication, décomposer des routines, illustrer des attentes sociales ou, tout simplement, rendre le contenu suffisamment engageant pour des apprenants qui ont besoin de nouveauté visuelle ou de répétition. Cette mise à disposition sans restriction supprime la barrière à l’expérimentation. Pendant trois jours, n’importe quel thérapeute ou enseignant peut tester Nano Banana Pro et constater concrètement comment la vidéo générée par IA peut soutenir ses flux de travail sans engagement financier ni friction technique. Par exemple : Ce qui rend Nano Banana particulièrement intéressant, c’est le réalisme émotionnel. Les personnages se déplacent avec un rythme naturel, un regard et une affectivité cohérents — des caractéristiques extrêmement précieuses pour les interventions en communication sociale. Mon point de vue : pourquoi vous devriez l’essayer Lorsque des outils comme celui-ci deviennent illimités, même brièvement, nous avons une occasion rare d’explorer à quoi pourrait ressembler l’avenir de l’intervention. Pas en théorie, ni en concept mais dans une expérimentation concrète et pratique. Je vois un fort potentiel pour : Un tel outil ne remplace pas la thérapie, il l’étend. Il comble l’intervalle entre les séances, aide à personnaliser l’intervention et fournit aux familles des ressources pertinentes, engageantes, culturellement adaptables et accessibles. Quelques précautions Bien sûr, la génération vidéo n’est pas exempte d’enjeux. Nous devons garder des limites claires concernant : Mais, utilisée à bon escient, Nano Banana peut aider à mettre l’échelle, enrichir les apprentissages et soutenir des environnements où le modelage visuel est une méthode d’instruction centrale. Une occasion d’explorer, pas pour se précipiter Le choix de Higgsfield d’ouvrir Nano Banana Pro au public est audacieux. C’est aussi un aperçu de l’accessibilité future de la création IA haut de gamme. Pour de nombreux professionnels, ces trois jours sont l’occasion de tester des flux de travail qui pourraient devenir la norme de la création de supports thérapeutiques personnalisés à la construction de stimuli de recherche ou de modules éducatifs. Que vous utilisiez les trois jours au complet ou seulement quelques minutes, cela vaut la peine d’essayer. Pas parce que l’IA va remplacer la présence pédagogique ou thérapeutique mais parce qu’elle peut l’étendre de manière puissante, flexible et créative.

French

Gemini 3 : le modèle le plus performant de Google et ce que cela signifie pour la thérapie, l’éducation et les approches fondées sur les neurosciences

Chaque année, l’IA avance un peu plus sur des terrains que l’on pensait réservés à la cognition humaine : nuance, empathie, raisonnement, adaptabilité. Mais avec la sortie de Gemini 3 par Google, quelque chose paraît différent. Cette nouvelle génération n’est pas qu’une mise à jour de plus c’est un basculement vers une IA qui raisonne de manière plus cohérente, communique plus naturellement et s’intègre aux écosystèmes clinique, éducatif et de recherche avec une aisance inédite. Pour beaucoup d’entre nous dans le monde thérapeutique, Gemini 3 arrive à un moment où nous jonglons avec des charges de cas croissantes, des pressions administratives et le besoin d’outils plus adaptatifs qui soutiennent, sans remplacer, notre expertise. Et, de manière surprenante ce modèle apporte une réponse adaptée à cette réalité . Ce que Gemini 3 est réellement au‑delà du marketing Google présente Gemini 3 comme son modèle multimodal le plus avancé : texte, audio, images, vidéo, graphiques, code et interactions en temps réel convergent dans un même système. Mais ce qui ressort, c’est la une plus grande stabilité dans son raisonnement. Les modèles précédents, y compris Gemini 1.5 et 2.0, étaient en tête des classements de performance mais peinaient parfois dans des tâches longues et structurées ou dans une communication de type thérapeutique. Gemini 3 montre un affinage notable. Il gère des consignes complexes et imbriquées avec moins d’erreurs. Il soutient des conversations longues sans perdre le contexte. Et peut‑être plus pertinent pour nous, il est plus sensible au ton et à l’intention. Lorsque vous demandez une explication accessible aux parents sur le trouble du traitement auditif, une stratégie de classe sensible au traumatisme, ou un résumé neutre de recherches récentes, ses réponses paraissent moins standardisées et mieux alignées avec les standards de communication clinique. Google a également renforcé les performances en multilingue, un point crucial pour nos contextes thérapeutiques et scolaires plurilingues. Gemini 3 traite l’arabe, le français et plusieurs langues d’Asie du Sud avec une stabilité bien supérieure aux itérations antérieures. Pour les familles et les éducateurs œuvrant dans des communautés linguistiquement diverses, cela compte. Comment il peut soutenir la pratique de notre point de vue Je serai franc : quand les entreprises d’IA annoncent de nouveaux modèles, ma première réaction est une curiosité prudente. « Montrez‑moi en quoi cela aide dans une vraie salle de thérapie. » Avec Gemini 3, je commence à voir des voies pratiques. Dans nos contextes thérapeutiques et éducatifs, les améliorations du modèle pourraient renforcer la pratique de plusieurs façons : Mais la vraie question est la suivante : faut‑il s’enthousiasmer ou rester prudent ? En tant que thérapeutes, nous gardons toujours un pied dans l’innovation et l’autre solidement ancré dans la sécurité. Avec Gemini 3, cette posture reste essentielle. L’enthousiasme vient de sa capacité à améliorer l’accès, réduire la surcharge et soutenir des familles qui ont besoin de plus qu’une séance hebdomadaire. Mais la prudence est nécessaire, car plus le modèle paraît « humain », plus il est facile de sur‑faire confiance à son autorité. Gemini 3 peut sembler empathique mais il ne « comprend » pas les émotions. Il peut synthétiser la recherche mais il ne remplace pas le jugement clinique. La voie à suivre, selon moi, est une intégration intentionnelle. Nous utilisons Gemini 3 pour renforcer, non eclipser, notre expertise. Nous lui confions les volets les plus lourds en charge de travail, tout en veillant à ce que l’interprétation et la décision demeurent pleinement humaines. Et nous maintenons la transparence avec nos clients, élèves et familles quant à la place de l’IA dans notre travail. Pourquoi Gemini 3 compte maintenant Nous entrons dans une période où les outils d’IA ne sont plus optionnels ils deviennent partie intégrante du paysage professionnel. Ce qui distingue Gemini 3, ce n’est pas la nouveauté, mais la maturité. Il offre suffisamment de stabilité, de profondeur et de flexibilité pour soutenir réellement la pratique, sans l’imprévisibilité erratique qui caractérisait les générations précédentes. Pour les thérapeutes, les enseignants spécialisés et les chercheurs, Gemini 3 représente une opportunité de reprendre du temps, d’affiner la personnalisation et d’accroître notre capacité à délivrer des soins. Mais il nous invite aussi à réfléchir avec lucidité à notre rôle dans cet écosystème en mutation : mener la conversation sur l’intégration éthique, former la prochaine génération à la littératie en IA et veiller à ce que la technologie demeure un outil d’autonomisation plutôt qu’un substitut. L’avenir de la thérapie reste centré sur l’humain. Gemini 3 nous donne simplement plus d’espace pour que cela le reste.

French

Tavus.io : le développement de la vidéo “AI Human” et ses implications pour la thérapie, l’éducation et l’interaction des patients

La vidéo générée par IA a évolué rapidement, mais Tavus.io représente l’un des bonds les plus significatifs non seulement pour le marketing ou la création de contenu, mais aussi pour les pratiques centrées sur l’humain. Tavus combine vidéo générative et IA conversationnelle, permettant de créer des « AI Humans » hyperréalistes qui ressemblent à une vraie personne, parlent et répondent en temps réel. Pour celles et ceux qui travaillent en thérapie, en rééducation, en éducation spécialisée ou en recherche en santé, cette technologie ouvre des perspectives fascinantes en matière de lien, de continuité et de soutien. Tavus permet à quiconque de créer une version numérique de soi à partir d’un court enregistrement vidéo. Grâce à une synthèse vidéo avancée, à la réplication de la voix et à un moteur conversationnel en temps réel, l’AI Human peut ensuite délivrer des informations personnalisées, répondre aux questions et maintenir un dialogue naturel en aller‑retour. Ce qui distingue Tavus, c’est le caractère convaincant de ces interactions le mouvement des lèvres, le timbre, les micro‑expressions, les pauses et même la chaleur relationnelle sont remarquablement bien reproduits. Ce n’est pas un avatar scripté lisant un texte : c’est un système dynamique et adaptatif capable de soutenir une conversation. L’un des aspects les plus convaincants de Tavus est sa présence émotionnelle. De nombreux outils d’IA peuvent générer du texte ou de la voix, mais Tavus ajoute la couche visuelle et relationnelle sur laquelle s’appuient souvent les thérapeutes et les enseignants. Pour un enfant ayant des difficultés d’attention, par exemple, voir un visage familier expliquer une tâche peut être plus interactif que de simples consignes audio. Pour des familles qui ont besoin d’une psychoéducation cohérente, l’AI Human d’un thérapeute peut les accompagner pas à pas entre les séances routines, exercices à domicile, stratégies comportementales. La technologie ne remplace pas l’interaction thérapeutique réelle mais elle peut en étendre le sentiment de continuité et personnaliser le soutien au‑delà de l’heure programmée. La plateforme se situe aussi à l’intersection de l’accessibilité et de la mise à l’échelle. Beaucoup de cliniciens peinent à produire des ressources individualisées, à enregistrer des vidéos pédagogiques ou à maintenir un suivi régulier. Avec Tavus, une réplique numérique peut générer des rappels ciblés, expliquer les étapes d’un protocole thérapeutique ou proposer des modèles d’apprentissage sans exiger de nouvelles prises à chaque fois. Pour les enseignants en éducation spécialisée, cela peut signifier des consignes visuelles personnalisées pour des élèves qui ont besoin de répétition et de prévisibilité. Pour les chercheurs, Tavus ouvre la voie à des passations vidéo standardisées mais naturalistes dans des études cognitives ou comportementales, améliorant la cohérence entre participants. Ces nouvelles capacités exigent néanmoins une réflexion attentive. Cloner le visage et la voix d’un clinicien soulève des questions éthiques de consentement, d’identité et de frontières professionnelles. Les chercheurs et cliniciens doivent être transparents quant à l’usage de leur AI Human, aux publics qui interagiront avec lui et aux données collectées. Des enjeux relationnels se posent aussi : si un patient s’attache à l’avatar d’un thérapeute, quel impact sur l’alliance thérapeutique ? Comment prévenir toute confusion entre un clinicien humain et sa représentation numérique ? Le réalisme émotionnel qui fait la force de Tavus est aussi celui qui impose des garde‑fous réfléchis. Sur le plan de la recherche, l’API conversationnelle en temps réel de Tavus est particulièrement remarquable. Les développeurs peuvent entraîner l’AI Human sur des corpus spécifiques principes thérapeutiques, contenus éducatifs, référentiels institutionnels et l’intégrer à des applications ou plateformes web. Cela pourrait déboucher sur de nouvelles modalités d’interventions auto‑guidées, d’identification précoce des besoins ou de pratique conversationnelle structurée pour des personnes présentant des difficultés de communication sociale. La capacité à diffuser un accompagnement vidéo personnalisé à grande echelle, auprès de milliers d’apprenants ou de patients, est sans précédent. Le potentiel de Tavus ne se limite toutefois pas à la transmission d’informations : il réside aussi dans le renforcement de la présence humaine derrière le message. Le système capture la familiarité du visage, de la voix et du style relationnel d’un clinician, chose que les IA textuelles ne peuvent pas offrir. Utilisé de manière responsable, cela peut renforcer l’interaction, améliorer l’adhésion aux programmes de soins et soutenir les personnes qui bénéficient de sollicitations visuelles fréquentes ou de signaux de réassurance. Tavus n’est pas un substitut à la thérapie. C’est une nouvelle modalité de communication qui associe présence humaine et scalabilité de l’IA. Pour de nombreux cliniciens et éducateurs, la question n’est plus « Est‑ce que cela arrive ? » mais « Comment bien l’utiliser ? » À mesure que la vidéo IA évolue, Tavus offre un aperçu d’un futur où les outils numériques paraissent moins mécaniques et plus relationnels, donnant aux professionnels de nouvelles façons d’étendre le soin, de renforcer les apprentissages et de combler les écarts en dehors de la salle de consultation. Lectures recommandées

French

ChatGPT 5.1 : l’IA la plus « humaine » à ce jour et ce que cela implique pour notre travail en thérapie, éducation et recherche

Si vous utilisez ChatGPT depuis un moment, vous avez peut‑être remarqué quelque chose ce mois‑ci : il semble soudain différent. Plus chaleureux. Plus précis. Un peu plus… humain. Ce n’est pas un hasard. Le 12 novembre 2025, OpenAI a officiellement déployé ChatGPT 5.1, et cette mise à jour marque discrètement l’un des plus grands tournants dans notre manière de travailler avec l’IA en contextes clinique, éducatif et de recherche. J’ai passé la semaine dernière à l’expérimenter pour la planification de thérapie, l’analyse académique et la conception de contenus. Ce qui m’a frappé n’est pas seulement l’amélioration de la precision, c’est la façon dont l’IA « tient » désormais la conversation. On a moins l’impression d’interroger une machine que de collaborer avec un collègue compétent, qui ajuste son ton et sa profondeur selon le besoin. Ce n’est pas du battage, c’est de l’architecture. Et cela vaut la peine de comprendre ce qui a changé, car ces changements comptent réellement pour la pratique. Une nouvelle forme d’IA : adaptative, expressive et étonnamment humaine La mise à jour GPT‑5.1 introduit deux comportements de modèle qui changent concrètement son utilité : Contrôle du ton : la fonctionnalité qui change tout GPT‑5.1 introduit huit présélections de « personnalité » (Professionnel, Amical, Franc, Décalé, Geek, Cynique, Efficace et Par défaut), ainsi que des curseurs expérimentaux pour régler : Pour les cliniciens et les chercheurs, cela permet d’adapter la sortie de l’IA à l’objectif :un script de psychoéducation pour une réunion avec des parents n’exige pas la même « voix » qu’une synthèse de recherche ou qu’un compte rendu thérapeutique.Ce niveau de contrôle est peut‑être l’un des pas les plus importants vers une IA réellement utilisable dans des domaines sensibles et centrés sur l’humain. Où GPT‑5.1 change concrètement la pratique Après l’avoir testé dans plusieurs contextes, trois évolutions se dégagent : Rien n’est parfait et c’est essentiel de le dire. Avec un langage plus expressif, ChatGPT 5.1 a parfois tendance à la sur‑explicitation. Les réponses peuvent être trop soignées ou trop longues. Cela peut paraître anodin, mais en contexte thérapeutique ou médical, l’excès de verbosité peut diluer la précision. Il y a aussi une réalité éthique plus vaste :plus ces modèles paraissent humains, plus il est facile d’oublier qu’ils ne le sont pas.GPT‑5.1 peut paraître empathique, mais il n’éprouve pas d’empathie.Il peut sembler réfléchi, mais il ne comprend pas véritablement.Il peut très bien rédiger des notes cliniques, mais il ne remplace pas le jugement.En d’autres termes : GPT‑5.1 est un partenaire puissant, tant que l’humain reste aux commandes. Et maintenant ? Ce que je trouve le plus encourageant, c’est que GPT‑5.1 donne l’impression d’un modèle pensé pour les professionnels. Il respecte le ton. Il respecte la nuance. Il comprend que toutes les tâches ne se valent pas, certaines exigent de la vitesse, d’autres de la profondeur. Pour celles et ceux qui travaillent en thérapie, éducation, psychologie, neurosciences et recherche, cette mise à jour apporte quelque chose dont nous avions besoin depuis longtemps :un outil capable de nous rejoindre là où nous en sommes, de s’adapter à ce dont nous avons besoin, et d’amplifier, sans remplacer, notre expertise.ChatGPT 5.1 ne rend pas seulement l’IA plus puissante.Il la rend plus utilisable.Et c’est un tournant. Sources

French

L’IA lit-elle nos pensées ? Les interfaces cerveau-ordinateur qui bouleversent la thérapie

Et si l’intelligence artificielle pouvait « lire » vos pensées, non pour vous espionner, mais pour soigner votre cerveau ? Cela ressemble à de la science‑fiction, pourtant la recherche émergente sur les interfaces cerveau–ordinateur (ICO) dopées à l’IA redéfinit rapidement les possibles pour les personnes vivant avec une paralysie, une perte de la parole ou un traumatisme sévère. Pour les professionnels de la thérapie, de l’éducation spécialisée et des neurosciences, ce n’est pas une simple curiosité technologique, c’est un basculement majeur dans notre façon d’aborder l’intervention, l’autonomie et la récupération. Décoder le cerveau : comment fonctionnent les ICO et l’IA Au cœur du dispositif, les ICO traduisent l’activité neuronale en commandes numériques. Historiquement, ces systèmes captaient des signaux (via EEG, électrodes implantées ou capteurs mini‑invasifs) correspondant à l’intention de l’utilisateur, déplacer un curseur, sélectionner une lettre. Le saut qualitatif vient aujourd’hui de l’IA. Des modèles avancés d’apprentissage automatique et de réseaux de neurones profonds savent décoder des motifs cérébraux subtils, s’ajuster en temps réel et même prédire des états comme des variations d’humeur ou des épisodes épileptiques. Par exemple, un homme atteint de paralysie partielle a utilisé un système hybride ICO ‑IA non invasif pour contrôler un bras robotisé et accomplir des tâches sur écran quatre fois plus efficacement qu’avec l’appareil seul. Ce n’est pas de l’automatisation, c’est une collaboration. L’IA décode le signal, mais l’intention reste humaine. Pour le praticien, il s’agit de penser la ICO non comme un « dispositif livré au patient », mais comme une extension de l’interface thérapeutique, entrée neuronale, sortie porteuse de sens, et une boucle de rétroaction qui relie cerveau à dispositif, dispositif à action, et action à signification. Percées 2024–2025 : de la paralysie à la restauration Des récits récents illustrent l’accélération. Un article de 2025 a rapporté le cas d’un homme paralysé contrôlant un bras robotisé par la pensée grâce à une ICO renforcée par l’IA. Autre jalon majeur : le système BrainSense de stimulation cérébrale profonde adaptative de Medtronic (une thérapie « en boucle fermée » guidée par ICO pour la maladie de Parkinson) a été classé parmi les « meilleures inventions de 2025 » par TIME après plus de 1 000 patients traités. Ces exemples ne parlent pas seulement de technologie ; ils parlent de thérapie délivrée au niveau du cerveau. Les neuro rehabilateurs impliqués dans la récupération motrice pourraient bientôt accompagner des clients dont le parcours de soins inclut des éléments d’interface neurale : des dispositifs qui décodent l’intention, guident le mouvement ou traduisent la pensée en parole. Pour beaucoup, la promesse d’une autonomie retrouvée, saisir des messages, piloter des aides techniques, voire marcher, devient tangible. Enjeux éthiques et pratiques pour la clinique Malgré l’enthousiasme, le passage de la nouveauté au courant dominant s’accompagne d’une grande responsabilité. Les données issues des interfaces neurales sont d’une intimité extrême : penser, intentionner, peut‑être même ressentir. Le décodage de la parole intérieure soulève des questions de confidentialité. Une étude récente avec implant a pu interpréter le « monologue intérieur » d’un utilisateur avec une précision allant jusqu’à 74 %. En tant que cliniciens ou éducateurs, demandons‑nous : comment préserver dignité, autonomie et consentement lorsque le canal même de la pensée entre dans la thérapie ? L’accessibilité pose également question. Ces technologies sont hautement spécialisées, parfois invasives et coûteuses. Mal intégrées, elles peuvent créer un système à deux vitesses où seuls certains bénéficient. Des commentaires de recherche en 2025 rappellent que, malgré les progrès spectaculaires, nombre de dispositifs exigent encore des recalibrations fréquentes et restent confinés aux laboratoires. Sur le plan pratique, nous entrons dans l’ère de la thérapie hybride, où dispositifs neuraux, analyses par IA et expertise relationnelle humaine convergent. Notre rôle s’élargit : interprètes des données neuronales, garants éthiques de l’usage des dispositifs, et guides de clients dont l’expérience thérapeutique est médiée par la machine. L’alliance thérapeutique ne disparaît pas, elle se renforce. Trois évolutions clés pour les thérapeutes, les enseignants spécialisés et les chercheurs En somme, l’avenir de la réadaptation et de l’intervention combinera pensée, dispositif et context, avec l’humain au centre, et l’IA/les ICO comme alliés puissants. Bien que la neurotechnologie grand public ne soit peut‑être qu’à quelques années, la trajectoire est claire. Bientôt, nous pourrions concevoir des plans de thérapie intégrant la mesure de l’intention neurale, des dispositifs adaptatifs sensibles aux états cérébraux, et des systèmes d’accompagnement à domicile. D’ici là, rester informé, curieux et fermement ancré dans l’éthique est essentiel. Lorsque le canal du changement est le cerveau lui‑même, notre pratique doit gagner en profondeur à la même mesure. Lectures suggérées

French

Éthique de l’IA en santé construire la confiance à l’ère de la thérapie intelligente

L’intelligence artificielle s’est désormais tissée au cœur du système de santé moderne. De l’imagerie diagnostique à l’orthophonie, l’IA touche aujourd’hui presque chaque facette de la pratique. Mais plus la technologie gagne en puissance, plus le besoin de repères éthiques clairs s’impose. Des rapports internationaux et des déclarations de consensus récents laissent penser que 2025 pourrait rester comme l’année où le monde s’est enfin accordé sur ce que doit être une « IA éthique en santé ». Dans tous les pays et disciplines, régulateurs et chercheurs convergent vers des principes similaires: transparence, responsabilité, équité et, surtout, supervision humaine. Le Conseil Indien de la Recherche Médicale (ICMR) a publié récemment ses Lignes directrices éthiques pour l’application de l’intelligence artificielle en recherche biomédicale et en santé, un document de référence qui précise les responsabilités des professionnels utilisant l’IA en contexte de santé. Ces directives exigent des procédures de consentement explicites, une communication claire sur l’usage de l’IA, et une gouvernance solide de la protection des données. Parallèlement, l’Association Médicale Mondiale (AMM/WMA) a diffusé un document de synthèse sur les aspects éthiques, juridiques et réglementaires de l’IA en santé une feuille de route qui appelle les professionnels du soin et de la rééducation à protéger l’autonomie et à garantir le caractère non négociable du « human-in-the-loop », la présence humaine dans la boucle décisionnelle. Ce positionnement fait écho au cadre FUTURE-AI, publié dans The BMJ (British Medical Journal), qui identifie sept piliers d’une IA digne de confiance: équité, transparence, centrage humain, robustesse, explicabilité, responsabilité et durabilité. Pour les thérapeutes, les éducateurs et les chercheurs cliniques, ces cadres ne sont pas de simples politiques abstraites ce sont des garde-fous opérationnels. À mesure que l’IA s’intègre aux systèmes cliniques, les thérapeutes peuvent s’appuyer sur des recommandations algorithmiques pour orienter les interventions, anticiper les résultats ou adapter les supports. Pourtant, une IA éthique exige que les professionnels demeurent des penseurs critiques, non des utilisateurs passifs. Un modèle de langage peut proposer une stratégie thérapeutique ou générer une note d’évolution, mais il ne saisit pas les subtilités émotionnelles, les dilemmes éthiques ni les nuances contextuelles qui fondent la relation de soin. Les implications pour la pratique sont majeures. Lorsqu’ils intègrent des outils d’IA, qu’il s’agisse d’une application d’analyse du langage, d’un système d’apprentissage adaptatif ou d’un agent conversationnel en santé mentale, les professionnels doivent examiner la gestion des données par ces outils, les hypothèses qui orientent leurs algorithmes, et vérifier que les clients comprennent pleinement le rôle de l’IA dans leur prise en charge. Le consentement éclairé devient alors un processus continu, pas une case à cocher une fois pour toutes. Une IA éthique suppose aussi une vigilance constante face aux biais. De nombreux jeux de données qui entraînent les systèmes d’IA sous‑représentent les personnes neurodivergentes, les locuteurs de langues minoritaires ou les populations à faibles ressources. Lorsque le biais est dans les données, il se retrouve dans les résultats avec le risque d’amplifier les inégalités au lieu de les réduire. Les lignes directrices internationales actuelles invitent les praticiens à défendre l’inclusivité dès la conception des IA, en favorisant la collaboration entre cliniciens, technologues et communautés de patients. Au fond, la question n’est pas de savoir si l’IA doit faire partie du système de santé, elle en fait déjà partie, mais comment s’assurer qu’elle serve l’humain sans le desservir. L’avenir de la thérapie et de la réadaptation sera probablement hybride: un jugement clinique éclairé, amplifié par l’intelligence machine. Mais la boussole éthique doit toujours pointer vers l’empathie, le consentement et l’équité. Les professionnels qui s’approprient tôt ces cadres éthiques se positionnent comme des acteurs de référence de l’innovation responsable. Les lire et les mettre en perspective n’est pas qu’une question de conformité réglementaire, c’est l’éthique professionnelle en action. Pour aller plus loin

Shopping Cart