Nom de l'auteur : Rania Kassir

Français, Non classé

Téléthérapie en 2026 : notre point de vue clinique sur ce que l'IA change vraiment

En tant que thérapeutes travaillant au quotidien en téléthérapie, nous avons tous perçu le virage. L’IA n’est plus un phénomène lointain réservé aux gros titres de la tech : elle s’insère discrètement dans nos plateformes, nos flux de travail et nos espaces d’aide à la décision clinique. Pour nous, la question n’a jamais été de savoir si l’IA serait utilisée en thérapie, mais comment l’utiliser sans compromettre l’éthique, le jugement clinique ni la relation thérapeutique. Au cours de l’année écoulée, nous avons exploré, testé et évalué de manière critique plusieurs outils pilotés par l’IA en contexte de téléthérapie. Ce qui ressort le plus est ceci : les outils d’IA les plus utiles ne sont pas forcément les plus bruyants. Ce sont ceux qui réduisent la friction, la charge cognitive et l’épuisement professionnel, tout en préservant notre rôle d’autorité clinique. Étendre l’accès sans diluer la qualité des soins L’un des progrès les plus significatifs récents est l’usage de l’IA pour élargir l’accès à la thérapie plutôt que pour la remplacer. Des plateformes comme Constant Therapy ont étendu leurs programmes d’orthophonie et de remédiation cognitive assistés par IA à d’autres langues, notamment l’espagnol et l’anglais indien. L’impact clinique est réel : nous pouvons prescrire des exercices à domicile culturellement et linguistiquement pertinents, alignés sur nos objectifs de séance, plutôt que de nous contenter de supports génériques ou inadaptés. D’après notre expérience, ce type de pratique soutenue par l’IA augmente le transfert des acquis sans accroître le temps de préparation, un besoin crucial pour les cliniciens en téléthérapie. Une IA conversationnelle au service de la continuité, pas de la dépendance Des plateformes de santé mentale comme Wysa, en particulier avec l’arrivée de Wysa Copilot, illustrent l’évolution vers des modèles hybrides où l’IA soutient le travail du thérapeute au lieu de chercher à le remplacer. Ces systèmes structurent le soutien entre les séances, guident des exercices réflexifs et favorisent la réalisation des devoirs thérapeutiques, tout en maintenant le clinicien dans la boucle. Lors de nos essais d’outils conversationnels similaires, ce que nous avons le plus apprécié n’était pas le chatbot en soi, mais la continuité. Les patients arrivaient en séance plus régulés, plus réfléchis et plus prêts à s’engager, car le fil thérapeutique ne s’était pas entièrement interrompu entre les rendez-vous. IA pour la parole et le langage : de la pratique, pas du diagnostic Les progrès de la reconnaissance automatique de la parole ont nettement amélioré la qualité des outils de pratique assistés par IA. En articulation et en fluence, nous avons utilisé des plateformes de pratique soutenues par l’IA pour augmenter la répétition, la constance et la qualité du retroaction lors des devoirs de téléthérapie. Sur le plan clinique, nous considérons ces outils comme des partenaires de pratique structurée — pas comme des évaluateurs et certainement pas comme des diagnosticiens. Ils nous aident à recueillir des données plus propres et à observer des patterns, mais l’interprétation demeure pleinement de notre ressort. Utilisée ainsi, l’IA devient un levier d’efficacité, et non un raccourci clinique. Biomarqueurs vocaux : des signaux cliniques, pas des étiquettes Autre domaine émergent : l’usage de biomarqueurs vocaux des outils qui analysent des caractéristiques de la voix pour repérer de possibles marqueurs de risque émotionnel ou de santé mentale. Des solutions comme Kintsugi et Ellipsis Health sont de plus en plus discutées dans les cercles de l’IA clinique. Dans nos explorations, nous les avons trouvées utiles comme déclencheurs de conversation, pas comme conclusions. En téléthérapie, où certains indices non verbaux sont plus difficiles à capter, disposer d’un signal supplémentaire peut nous aider à poser plus tôt de meilleures questions. Nous restons toutefois très clairs : ces outils nourrissent la curiosité clinique ; ils ne remplacent pas le jugement clinique. Éthique, régulation et notre responsabilité Toute adoption de l’IA n’a pas été fluide et c’est heureux. En 2025, plusieurs régions ont introduit des restrictions sur l’usage de l’IA dans la prise de décision psychothérapeutique. À nos yeux, ce n’est pas un recul. C’est une pause nécessaire pour protéger les patients, clarifier le consentement et renforcer les frontières professionnelles. En tant que thérapeutes, nous sommes responsables non seulement des résultats, mais aussi du processus. Tout outil d’IA que nous utilisons doit être transparent, intégré de manière éthique et clairement secondaire par rapport au raisonnement clinique humain. Ce que nous emportons dans notre pratique à distance À partir de nos tests et observations, voici les principes qui guident notre usage de l’IA en téléthérapie : Ce qui change en 2026 dans la téléthérapie, ce n’est pas la présence de l’IA, mais la maturité avec laquelle nous l’abordons. Lorsque l’IA est positionnée comme un soutien d’arrière-plan plutôt qu’une autorité clinique, elle nous permet d’être plus présents, plus régulés et plus attentifs à nos patients. La téléthérapie n’a pas besoin de moins d’humanité. Elle a besoin qu’on la protège. Utilisée de manière responsable, l’IA nous aide précisément à le faire.

Français, Non classé

Clore 2025: Une année d'IA en thérapie : ce que nous avons appris et ce que nous avons prévu

À l’approche de la fin d’année, beaucoup d’entre nous ne réfléchissent pas seulement à leur file active ou à leurs résultats, mais à l’ampleur des changements dans la pratique quotidienne. 2025 n’a pas été l’année où l’IA a “pris le contrôle” de la thérapie. C’est plutôt l’année où elle s’est discrètement ancrée dans nos flux de travail, nous poussant, en tant que cliniciens, à protéger plus intentionnellement le jugement clinique tout en accueillant l’innovation utile. De l’orthophonie à la santé mentale en passant par les plateformes de téléthérapie, l’IA est passée de l’expérimental à l’opérationnel. Ce qui compte désormais, c’est la manière dont nous, thérapeutes, choisissons de l’utiliser. L’IA cette année du battage médiatique à l’usage clinique réel L’un des changements les plus visibles en 2025 est la conception d’outils d’IA pensés autour des cliniciens plutôt qu’à leur place. Des plateformes comme Wysa, notamment via des fonctionnalités encadrées par des cliniciens telles que Wysa Copilot, illustrent ce tournant. Ces systèmes ne sont plus de simples chatbots : ils agissent comme des soutiens structurés qui maintiennent la continuité thérapeutique entre les séances tout en laissant le contrôle aux cliniciens. D’après nos tests et usages, la valeur ne réside pas dans le fait que l’IA “parle” aux patients, mais dans le soutien apporté à la réflexion, au suivi des devoirs thérapeutiques et à la régulation émotionnelle entre les séances. Les patients arrivent plus préparés, et les séances ressemblent moins à un redémarrage qu’à une continuité. Pratique en orthophonie là où l’IA apporte un vrai plus En orthophonie, l’impact le plus net cette année s’est joué sur l’intensité et la constance de la pratique. Les outils d’articulation et de travail vocal assistés par IA offrent désormais un retroaction plus précis et une répétition structurée, difficiles à obtenir avec constance entre deux séances de téléthérapie. Nous utilisons ces outils comme partenaires de pratique, pas comme évaluateurs. Ils nous aident à collecter des données plus propres et à observer les évolutions dans le temps, tandis que l’interprétation reste humaine. Leur force est de libérer de l’espace cognitif pour que nous puissions planifier, adapter et répondre finement pendant les séances. Accessibilité et portée une avancée silencieuse Autre évolution importante cette année : l’extension des plateformes de thérapie propulsées par l’IA à davantage de langues et de régions. Le déploiement d’outils comme Constant Therapy dans plusieurs langues envoie un signal fort : l’IA peut réduire les barrières d’accès sans abaisser les standards cliniques. En téléthérapie, cela se traduit par un meilleur transfert des acquis, des supports de pratique plus pertinents sur le plan culturel et une plus grande implication en dehors des séances en direct. IA vocale et signaux émotionnels à manier avec prudence 2025 a également mis en lumière les outils d’IA basés sur la voix qui analysent la parole à la recherche d’indices émotionnels ou de santé mentale. Kintsugi et Ellipsis Health sont souvent cités à ce sujet. D’après notre expérience, ces outils fonctionnent mieux comme signaux que comme réponses. En téléthérapie, où certains indices subtils sont plus difficiles à capter, ils peuvent orienter un questionnement clinique plus approfondi. Ils ne posent pas de diagnostic et ne doivent jamais se substituer à l’observation, à l’entretien clinique ou au jugement professionnel. Éthique et régulation au premier plan Cette année nous a rappelé qu’une innovation sans garde‑fous reste risquée. Le renforcement de la régulation autour de l’usage de l’IA en thérapie, notamment concernant la détection des situations de crise, le consentement et la transparence, a constitué une étape nécessaire. Pour nous cliniciens, cela est cohérent avec nos pratiques. Le travail thérapeutique exige redevabilité, clarté et responsabilité humaine. L’IA doit rester secondaire par rapport à la relation thérapeutique. Notre usage de l’IA pour la suite En cette fin d’année, ces principes guident notre utilisation clinique de l’IA : Utilisée de cette manière, l’IA devient un allié, pas une distraction. Et après ? Si 2025 a été l’année des tests et des apprentissages, l’année qui vient sera probablement celle de l’affinage. Nous anticipons des standards plus clairs, des conceptions davantage informées par les cliniciens et des échanges plus profonds autour de l’éthique, de l’inclusion et de la durabilité. Surtout, nous nous attendons à ce que le projecteur revienne sans cesse à l’essentiel : la connexion humaine, le raisonnement clinique et le soin éthique. L’IA continuera d’évoluer. Notre rôle de thérapeutes, lui, demeure. Nous interprétons. Nous adaptons. Nous créons du lien.

Non classé

Zoom L'IA et l'humanité Dernier examen : pourquoi cela compte pour les thérapeutes

Récemment, Zoom a annoncé que son système d'IA a marqué 48,1 % sur un point de repère appelé Humanity, ou HLE. Au début, ce nombre pourrait ne pas sembler impressionnant. Sur un test typique, ce serait une note défaillante. Mais ce qui rend cette étape intéressante est ce que l'examen mesure en fait et comment Zoom est l'IA atteint. HLE a été conçu pour tester le raisonnement plutôt que la mémorisation. La plupart des repères d'IA mesurent la reconnaissance des modèles. Si un modèle a vu assez d'exemples, il peut souvent produire une réponse correcte sans vraiment comprendre. HLE enlève ce filet de sécurité. Ses questions couvrent un large éventail d'universitaires, de la médecine et du droit à la littérature et à la philosophie. Ils ne sont pas familiers sur le but, exigeant un raisonnement en plusieurs étapes, la résolution de problèmes et la justification. Un modèle doit interpréter un scénario, peser des explications possibles et défendre une conclusion finale. Il ne suffit pas de rappeler des informations. L'examen récompense la pensée logique. Ce que nous avons trouvé particulièrement intéressant est comment Zoom a abordé le problème. Au lieu de compter sur une IA massive, ils ont utilisé plusieurs modèles plus petits travaillant ensemble. Chaque modèle explore le problème dans sa propre perspective, vérifie le raisonnement et contribue à une réponse finale. Zoom appelle cette approche Explorer, vérifier, Federate. Il reflète la façon dont nous travaillons souvent en milieu clinique. Lorsque des décisions complexes surgissent, nous collaborons avec d'autres spécialistes, nous évaluons les preuves et nous intégrons les idées pour en arriver à la meilleure conclusion. Les modèles plus petits qui se concentrent sur ce qu'ils font le mieux peuvent produire un raisonnement plus fort qu'un seul système surdimensionné. Alors pourquoi les thérapeutes devraient s'intéresser à la

Non classé

Groupe AI Chats: Une nouvelle dimension de la collaboration clinique

AI is evolving at a pace that is beginning to reshape how therapists plan, create, and communicate. The newest feature to emerge from OpenAI—group chats within ChatGPT—opens a door to something far broader than individual support. It invites us into a shared thinking space, where professionals can co-create, exchange knowledge, and build clinical ideas together in real time. The concept is simple: instead of interacting with ChatGPT alone, up to twenty people can now join a single conversation. Each participant can add content, ask questions, bring examples from their field, or collaborate on documents while the AI remains available as a full conversation member. This creates a shared cognitive environment where ideas can move faster and develop in richer directions. From a therapy and rehabilitation perspective, this feels significant. Many of us work inside multidisciplinary teams. We collaborate with occupational therapists, psychologists, physical therapists, special educators, literacy specialists, and colleagues across languages and disciplines. Much of that collaboration happens through email threads, delayed messages, and informal discussions squeezed between appointments. The new group environment allows that entire process to become more fluid and immediate. When tested in clinical, content-building, and planning scenarios, it revealed an interesting strength. The AI is not simply answering questions. It behaves like a supportive peer who can step back, observe, and intervene only when needed. In interdisciplinary content creation, this becomes particularly powerful. Imagine a group of professionals drafting therapy materials together. Speech therapists contribute language goals, OTs focus on sensory integration or motor sequencing, psychologists add emotional framing, and educators ensure academic alignment. Instead of sending documents back and forth, you can see the draft evolve live, with the AI suggesting formulations, rephrasing language to be child-friendly, comparing two versions of an activity, or helping structure visual supports. In planning interdisciplinary sessions, the group chat can support goal alignment. You can outline each objective, ask the AI to check overlap or redundancy, and generate a structured session design in minutes. For therapists who constantly balance workload with documentation demands, this creates a major time advantage. Creative brainstorming also becomes more dynamic. When producing visuals, prompts, narrative story frames, or creative play ideas, the presence of several minds and a responsive AI provides diversity of thought that is difficult to replicate alone. All that said, the technology brings more than excitement. It brings responsibility.The strongest benefit appears when clinicians enter the space with intentionality. AI should not guide clinical decisions; it should support infrastructure, wording, creativity, and clarity. It cannot replace judgment, assessment skill, or reasoning. What it can do is amplify them. Privacy naturally remains a key focus. OpenAI’s structure places group decision-making and consent at the front of the design. Group chats are optional and separate from personal chats. Memory from private conversations does not carry into the shared environment, and the AI does not merge histories between users. However, that does not replace our ethical obligations. Patient-identifiable information should never be included. Notes, reports, names, or confidential data must remain protected within secure clinical systems. What emerges is a model of collaboration we have not experienced before. Instead of isolated conversations with the AI, we now have a genuine shared panel where professionals can think together. The result blends human insight with technical support in a way that potentially transforms workflow. Some early applications in therapy and rehabilitation may include: • Interdisciplinary brainstorming sessions for complex cases using de-identified clinical themes.• Co-writing therapy manuals, parent handouts, home programs, and lesson plans.• Developing school-based or clinic-based intervention frameworks that integrate multiple viewpoints.• Group training sessions for students or interns learning clinical reasoning. The value does not lie in AI producing answers for us. It lies in the structure it offers. Consistency, clarity, and streamlined collaboration are not small achievements in a field where time and cognitive load are serious challenges. For therapists working in modern healthcare environments, this may signal a shift. We are moving from individual AI interaction toward collective AI-supported teamwork. And that change appears to be arriving faster than expected. AI will not decide how you treat a patient. It will not evaluate speech samples for you or diagnose a disorder. But it can help you outline a treatment pathway, compare therapy approaches, or turn fragmented ideas into polished, shareable documents. Used wisely, group chats become a thinking enhancer rather than a thinking replacement. This development is not a promise of what might happen in five years. It is available now, and early users are already exploring its potential. As therapists, we can decide how deeply we want to engage, how responsibly we want to shape this tool, and how creatively we want to use the new collaborative space it provides.

Non classé

Conversations de groupe avec l'intelligence artificielle : une nouvelle dimension de la collaboration Clinique

L’intelligence artificielle évolue rapidement et transforme déjà la manière dont les thérapeutes planifient, créent et communiquent. Une nouvelle fonctionnalité de discussions de groupe au sein d’une grande plateforme conversationnelle ouvre un espace allant bien au-delà de l’appui individuel : un espace de réflexion partagé, dans lequel les professionnels peuvent co-créer, confronter leurs points de vue et élaborer ensemble des contenus et des stratégies cliniques en temps réel. Le principe est simple : au lieu d’interagir seul avec l’outil, jusqu’à vingt personnes peuvent désormais participer à une même conversation. Chacun peut ajouter du contenu, poser des questions, apporter des exemples issus de sa discipline ou collaborer sur des documents, tandis que l’assistant reste disponible comme un participant à part entière de l’échange. On obtient ainsi un cadre de travail commun où les idées circulent plus rapidement et s’enrichissent mutuellement. Du point de vue de la thérapie et de la rééducation, l’enjeu est important. Nombre de praticiens travaillent au sein d’équipes pluridisciplinaires, en lien avec des orthophonistes, des ergothérapeutes, des psychologues, des kinésithérapeutes, des enseignants spécialisés ou d’autres professionnels. Or ces échanges se font souvent par courriels, messages différés ou discussions informelles. L’espace de groupe rend ces collaborations plus fluides et plus immédiates. À l’usage, dans des situations de création de contenus et de planification, l’outil montre une force notable : il ne se limite pas à fournir des réponses, mais peut aider à structurer une réflexion, clarifier des objectifs, comparer des options et reformuler des propositions. Dans la co-création interdisciplinaire, cela constitue un véritable appui. Imaginez un groupe de professionnels concevant ensemble des supports thérapeutiques. Les orthophonistes définissent les cibles langagières, les ergothérapeutes travaillent la planification motrice ou l’intégration sensorielle, les psychologues apportent le cadrage émotionnel, et les enseignants veillent à l’alignement avec les exigences scolaires. Plutôt que de faire circuler des documents successifs, chacun voit le contenu évoluer en direct, tandis que l’assistant peut proposer des formulations, adapter le niveau de langage, comparer différentes versions d’une activité ou aider à structurer un support visuel. Pour la planification de séances interdisciplinaires, la discussion de groupe facilite l’alignement des objectifs. Il devient possible de repérer rapidement les recouvrements, d’éviter les redondances et de générer un déroulé cohérent en un temps réduit. Pour des professionnels soumis à une forte charge de travail, le gain de temps peut être significatif. Cette dynamique suppose toutefois une utilisation rigoureuse. L’assistant ne doit pas se substituer au raisonnement clinique. Il ne pose pas de diagnostic, n’évalue pas et ne décide pas du traitement. Son rôle est de soutenir la structure, la formulation et la clarté des échanges, tout en laissant la décision finale aux professionnels. La protection des données reste centrale. Les espaces de groupe sont distincts des échanges privés et ne doivent pas être utilisés comme des dossiers cliniques. Aucune information identifiante ne doit y être introduite, et les obligations de confidentialité et de conformité réglementaire, notamment au regard du RGPD, doivent être strictement respectées. Ce qui émerge est une forme de collaboration nouvelle : un tableau de travail partagé où le discernement humain et l’appui technique se complètent. Cette possibilité existe déjà. À nous, thérapeutes, de décider comment l’intégrer à nos pratiques, avec intention, rigueur et sens critique. Applications précoces possibles en thérapie et en rééducation : La valeur ne réside pas dans des réponses « toutes faites », mais dans la structure fournie : cohérence, clarté et collaboration allégée des avancées décisives dans un domaine où le temps et la charge mentale pèsent lourd. Pour les praticiens exerçant dans des environnements de santé contemporains, cela peut marquer un tournant. Nous passons d’une interaction individuelle avec l’assistant à un travail d’équipe soutenu par l’assistant collectif. Et ce changement arrive plus vite que prévu. L’assistant ne décidera pas du traitement à la place du thérapeute. Il n’évaluera pas les échantillons de parole et ne posera pas de diagnostic. En revanche, il peut aider à tracer un parcours de soin, comparer des approches, ou transformer des idées éparses en documents aboutis et partageables. Bien utilisé, l’échange de groupe devient un amplificateur de pensée, non un substitut. Il ne s’agit pas d’une promesse lointaine : cette possibilité existe déjà, et des utilisateurs en explorent dès à présent le potentiel. À nous, thérapeutes, de choisir jusqu’où nous voulons nous engager, avec quelle rigueur nous souhaitons façonner l’outil, et avec quelle créativité nous ferons vivre ce nouvel espace collaboratif.

Non classé

Zoom IA et l'Évaluation Avancée du Raisonnement (EAR) : pourquoi est important pour les thérapeutes

Récemment, la plateforme de visioconférence Zoom a annoncé que son système d’intelligence artificielle a obtenu 48,1 % à l’Évaluation avancée du raisonnement (EAR). À première vue, ce score peut sembler peu élevé. Dans un contexte scolaire ou académique classique, il serait considéré comme insuffisant. Pourtant, l’intérêt de cette étape tient à ce que l’évaluation mesure réellement, et à la manière dont l’IA de Zoom y est parvenue. L’EAR a été conçue pour évaluer le raisonnement plutôt que la mémorisation. De nombreuses évaluations d’IA mesurent avant tout la capacité à exploiter des régularités statistiques : lorsqu’un modèle a été exposé à un grand nombre d’exemples, il peut parfois produire une réponse correcte sans compréhension réelle. L’EAR retire ce filet de sécurité. Ses questions sont volontairement inédites et exigent un raisonnement en plusieurs étapes, de la résolution de problèmes et une justification argumentée. Le modèle doit interpréter un scénario, examiner différentes hypothèses explicatives et défendre une conclusion cohérente. Rappeler des informations ne suffit pas : c’est la structuration du raisonnement qui est évaluée. Un autre point particulièrement intéressant réside dans l’approche technique adoptée par Zoom. Plutôt que de s’appuyer sur un modèle unique et massif, l’entreprise a fait collaborer plusieurs modèles plus compacts. Chacun explore le problème selon ses points forts, vérifie le raisonnement et contribue à la réponse finale. Zoom résume cette démarche ainsi : « Explorer, vérifier, fédérer ». Cette logique est proche de la pratique clinique : face à une situation complexe, nous échangeons avec d’autres professionnels, confrontons les indices, discutons des hypothèses, puis intégrons ces éclairages pour parvenir à une décision plus solide. Dans certains contextes, un ensemble de modules spécialisés peut produire un raisonnement plus robuste qu’un système unique surdimensionné. Pourquoi les thérapeutes devraient-ils s’y intéresser ? Même si l’IA est encore loin d’un raisonnement comparable à celui d’un humain, cette étape laisse entrevoir des outils capables de soutenir le travail clinique de manière concrète. On peut imaginer une IA capable d’aider à analyser des notes de suivi et à repérer des évolutions dans le temps, de suggérer des idées d’activités thérapeutiques, de générer des supports visuels ou interactifs personnalisés, ou encore de produire des synthèses structurées utilisables en séance, y compris à distance. De tels systèmes pourraient réduire certaines tâches répétitives et permettre aux thérapeutes de consacrer davantage d’énergie à la relation thérapeutique, véritable moteur des progrès. L’approche dite « fédérée » suggère également des solutions potentiellement plus efficaces et plus lisibles. Plutôt que des modèles gigantesques et opaques, on pourrait voir émerger des assemblages de modules capables d’expliquer plus clairement la manière dont une conclusion est construite. Pour les cliniciens, cela peut renforcer la confiance dans les propositions de l’outil et faciliter son intégration au sein d’équipes pluridisciplinaires. L’EAR ne signifie pas que l’IA puisse remplacer les thérapeutes. Il s’agit d’un pas vers des systèmes centrés sur le raisonnement, conçus pour soutenir la pratique clinique. En mettant l’IA à l’épreuve dans des scénarios exigeants et inédits, cette évaluation montre que la technologie peut commencer à structurer un raisonnement, et pas seulement produire un texte fluide. Pour les thérapeutes, notamment en télésoin, cela ouvre la voie à des outils d’appui plus pertinents, à un engagement des patients plus personnalisé, et à des dispositifs qui aident à planifier, suivre et ajuster les interventions de façon plus efficiente. Nous n’en sommes qu’au début, mais des jalons comme l’examen final de l’humanité nous donnent un aperçu d’un futur où l’IA peut véritablement renforcer notre pratique clinique. Elle ne remplacera pas notre jugement, mais peut devenir un partenaire puissant pour offrir une thérapie réfléchie, fondée sur les données et réellement engageante.

Non classé

Les tout derniers outils d'IA pour la recherche scientifique à surveiller de près

Chaque année, une nouvelle vague d’outils d’IA arrive dans le paysage de la recherche, tous prétendant « transformer la science ». La plupart parviennent à accélérer les workflows. Bien moins nombreux sont ceux qui améliorent réellement la qualité du raisonnement scientifique. Ce qui distingue la génération actuelle d’outils d’IA dédiés à la recherche, ce n’est pas seulement la vitesse, mais l’endroit où ils interviennent dans le processus scientifique. De plus en plus, ces systèmes influencent la manière de formuler les questions, d’évaluer les preuves et de synthétiser les idées. De notre point de vue, cela représente un changement substantiel dans la façon même de mener l’enquête scientifique. L’un des développements les plus marquants est l’essor de l’« intelligence documentaire » pilotée par l’IA (des systèmes qui lisent, relient et comparent de grands volumes d’articles scientifiques pour identifier les motifs, les convergences et les contradictions). Des outils comme Elicit, Consensus, Scite, ainsi que les fonctionnalités enrichies par l’IA de Semantic Scholar, vont au‑delà de la recherche par mots‑clés en s’appuyant sur des « embeddings » sémantiques (des représentations mathématiques du sens plutôt que de la simple forme des mots). Cela permet de regrouper les études par proximité conceptuelle plutôt que par terminologie partagée. Pour les chercheurs évoluant dans des domaines denses et en rapide mutation (comme les neurosciences, la psychologie et les sciences de la santé) cela reconfigure la revue de littérature en un processus de synthèse active, aidant à clarifier où les preuves convergent, où elles divergent et où subsistent des lacunes. Étroitement lié à cela, on observe l’émergence de la génération d’hypothèses assistée par l’IA (exploration et affinement des questions de recherche à partir de la littérature existante et des jeux de données). Des plateformes comme BenchSci, ainsi que des copilotes de recherche intégrés aux environnements statistiques et de code, aident les chercheurs à repérer, dès la phase de conception, les variables pertinentes, les contrôles manquants et les facteurs de confusion potentiels. Beaucoup de ces systèmes s’appuient sur l’apprentissage par renforcement (une approche d’entraînement où l’IA s’améliore par retours itératifs et ajustements), de sorte que les suggestions évoluent vers un raisonnement plus clair et de meilleurs résultats méthodologiques. Bien utilisés, ces outils ne remplacent pas le jugement scientifique ; ils favorisent une réflexion plus précoce et un design d’étude plus délibéré. Un autre domaine en plein essor est l’IA multimodale (des modèles capables d’intégrer textes, images, tableaux, graphiques et données numériques au sein d’un même cadre de raisonnement). Des outils comme DeepLabCut pour l’analyse du mouvement et Cellpose pour la segmentation d’images biomédicales illustrent comment l’IA peut unifier des flux de données comportementales, visuelles et quantitatives traditionnellement analysés séparément. En recherche sur le cerveau et le comportement, cette intégration est particulièrement précieuse. Relier comportements observés, résultats d’imagerie et notes cliniques écrites favorise une interprétation plus cohérente et réduit la fragmentation qui freine souvent la recherche interdisciplinaire. Nous constatons également des progrès notables en analyse de données et en découverte de motifs pilotées par l’IA (des systèmes qui aident à identifier des tendances et relations significatives au sein de jeux de données complexes). Les plateformes d’AutoML et les outils statistiques augmentés par l’IA abaissent les barrières techniques, permettant aux chercheurs d’explorer plus efficacement plusieurs approches analytiques. Si les bases de la statistique restent non négociables, ces outils peuvent faire émerger plus tôt des pistes prometteuses, guidant des hypothèses et des analyses plus ciblées plutôt qu’encourageant une automatisation indiscriminée. Tout aussi important, l’accent grandissant mis sur la transparence et la reproductibilité (la capacité à retracer les sources, les étapes analytiques et les trajectoires de raisonnement). Des outils comme Scite indiquent explicitement si un article a été étayé ou contredit par des travaux ultérieurs, tandis que de nouvelles plateformes de recherche propulsées par l’IA documentent de plus en plus comment les conclusions sont produites. À l’heure où les inquiétudes envers la « boîte noire » scientifique s’intensifient, cette philosophie de conception compte. Une IA qui renforce la rigueur tout en rendant le raisonnement visible est bien plus alignée avec les valeurs fondamentales de la démarche scientifique que des systèmes qui se limitent à générer des résultats soignés. De notre point de vue, chez Happy Brain Training, la pertinence de ces outils dépasse largement le milieu académique. La pratique fondée sur les preuves exige une recherche non seulement de haute qualité, mais aussi interprétable et applicable. Lorsque l’IA soutient une synthèse plus claire, un design d’étude plus robuste et une interprétation des données plus intégrée, les bénéfices se répercutent jusqu’aux cliniciens, aux enseignants, aux thérapeutes et, in fine, aux personnes qu’ils accompagnent. Le fossé entre la recherche et la pratique se resserre lorsque le savoir devient plus cohérent pas seulement plus rapide à produire. Limites et questions d’accès Malgré leur potentiel, ces outils comportent des limites importantes qui appellent à la vigilance. Beaucoup de plateformes d’IA dédiées à la recherche fonctionnent désormais sur abonnement, avec des niveaux d’accès très variables selon le tarif. La profondeur de la couverture bibliographique, le nombre de requêtes, les fonctionnalités d’analyse avancées et les options d’export évoluent souvent à la hausse avec les formules plus onéreuses. Résultat : l’accès aux capacités les plus puissantes peut être conditionné par le financement institutionnel ou la capacité de chacun à payer. Par ailleurs, la disponibilité des fonctionnalités et les performances des modèles peuvent évoluer au fil des mises à jour. C’est pourquoi les chercheurs devraient vérifier les niveaux d’accès, les sources de données et les limitations auprès de la documentation officielle des plateformes ou des ressources de leur institution avant d’intégrer ces outils à des workflows critiques. Les résumés et recommandations générés par l’IA doivent toujours être recoupés avec les sources originales, en particulier dans les contextes clinique, éducatif ou liés aux politiques publiques. Dans le même temps, la prudence reste de mise. Ces systèmes sont puissants, mais pas neutres. Ils reflètent les données sur lesquelles ils ont été entraînés, les incitations qui orientent leur conception et les hypothèses incorporées dans leurs modèles. L’avenir de la recherche scientifique n’est pas

Non classé

Tout ce qu'il faut savoir sur DeepSeek V3.2: notre point de vue

De temps en temps, une sortie d’IA ne se contente pas d’ajouter une fonction ou d’améliorer légèrement des scores de benchmark : elle redéfinit silencieusement ce qui paraît possible. DeepSeek V3.2 fait partie de celles‑là. Si le nom « DeepSeek » fait autant de bruit dans les cercles tech américains en ce moment, c’est parce qu’il l’a mérité non pas en jouant la carte du spectacle, mais en bousculant, de manière systématique, les idées reçues sur les coûts, l’échelle et qui est réellement en mesure de faire avancer l’innovation. Avec V3.2 et sa déclinaison plus avancée, V3.2‑Speciale, DeepSeek force à nouveau l’industrie à repenser la façon dont le raisonnement à long contexte doit fonctionner. Au cœur de cette version, on trouve un concept en apparence simple : l’attention éparse (sparse attention). La plupart des grands modèles de langage tentent aujourd’hui de « prêter attention » à tout, en même temps, dans une conversation ou un document. À mesure que le contexte s’allonge, le coût de calcul explose. Concrètement, cela signifie que les longs rapports, les historiques de cas étendus ou les raisonnements multi‑étapes complexes deviennent rapidement coûteux et lents. L’approche de DeepSeek est différente : l’attention clairsemée permet au modèle de se concentrer uniquement sur les parties de l’entrée qui comptent vraiment pour la tâche en cours, plutôt que de tout relire à chaque fois. Conceptuellement, on se rapproche davantage de notre façon humaine de faire : survoler, prioriser, puis zoomer là où la pertinence est maximale. L’impact de ce choix d’architecture est considérable. Avec des mécanismes d’attention classiques, traiter un document dix fois plus long coûte à peu près dix fois plus cher parfois pire. Avec l’attention clairsemée de DeepSeek, cette hausse est fortement contenue, plus proche d’une croissance linéaire que d’une explosion exponentielle. En pratique, cela rend enfin l’IA à long context, que beaucoup d’entre nous souhaitent, mais utilisent peu en profondeur, nettement plus accessible. Pour tous ceux qui manipulent des documents volumineux, des échanges prolongés ou des données cumulatives dans le temps, ce changement pèse plus lourd que bien des « features » mises en avant dans les annonces. Vient ensuite V3.2‑Speciale, qui fait passer DeepSeek du statut « intéressant » à « impossible à ignorer ». Ce modèle a atteint un niveau « médaille d’or » sur certains des benchmarks de raisonnement les plus exigeants au monde, notamment l’Olympiade internationale de mathématiques et d’autres compétitions d’élite utilisées pour éprouver les systèmes de raisonnement avancés. Sur des benchmarks de référence comme AIME (un concours de mathématiques américain de niveau avancé) et HMMT (un tournoi de mathématiques très compétitif organisé par des étudiants de Harvard et du MIT), Speciale égale ou dépasse des modèles issus de laboratoires bien plus dotés et plus connus. Ce qui frappe, au‑delà des performances brutes, c’est le timing : DeepSeek a livré ce niveau de raisonnement avant plusieurs laboratoires occidentaux dont beaucoup pensaient qu’ils arriveraient les premiers. Il existe, bien sûr, un compromis. Speciale génère davantage de tokens par problème complexe, il « pense à voix haute » plus que certains modèles concurrents. Normalement, cela se traduirait par des coûts plus élevés. Pourtant, DeepSeek casse tellement les prix que, même avec une consommation de tokens accrue, le coût total reste nettement inférieur. Si l’on prend du recul et qu’on fait le calcul, les utilisateurs réalisent malgré tout des économies substantielles pour les tâches de raisonnement avancé. À lui seul, ce positionnement tarifaire rebat les cartes : il élargit réellement le cercle de celles et ceux qui peuvent expérimenter avec des modèles de raisonnement profond et réduit le risque d’exclusion. Tout aussi important : la manière dont DeepSeek a conçu et partagé ce travail. L’équipe s’est fortement appuyée sur l’apprentissage par renforcement à grande échelle, en entraînant le modèle sur des milliers d’itérations et d’environnements simulés couvrant le code, les mathématiques, le raisonnement sur bases de données et des tâches à forte composante logique. Elle a également introduit un entraînement en deux étapes : d’abord apprendre à un système plus petit à identifier ce qui compte dans une interaction, puis utiliser cette « connaissance d’orientation » pour guider l’attention clairsemée du modèle complet. Ce qui distingue DeepSeek, c’est la transparence : l’article technique ne se contente pas de célébrer les réussites, il documente les méthodes, les choix de conception et même les cas d’échec. Dans un secteur où le secret reste souvent la norme, cette ouverture accélère les progrès bien au‑delà d’un seul laboratoire. De notre point de vue, à Happy Brain Training, l’enjeu majeur de DeepSeek V3.2 n’est pas de dépasser tel ou tel modèle au classement. Il s’agit d’accès. Quand le raisonnement à long contexte devient dix fois moins cher, il cesse d’être une option de luxe et devient un outil pratique. Les implications sont fortes pour l’éducation, la santé, la recherche et la pratique clinique, où le contexte est rarement court et où la nuance compte. La capacité à exploiter des historiques étendus, des informations superposées et des trajectoires narratives évolutives correspond exactement à la direction que doit prendre l’IA pour être réellement utile. Pour la suite, on imagine mal les laboratoires occidentaux ne pas réagir. L’attention clairsemée et l’apprentissage par renforcement à grande échelle sont trop efficaces pour être ignorés, et des approches similaires devraient apparaître dans les six à douze prochains mois. DeepSeek a, en quelque sorte, accéléré le calendrier. Pour l’heure, V3.2 est disponible via API, et Speciale est accessible via un point d’accès temporaire pendant la phase de collecte de retours. Nous suivrons cela de près, non pas seulement en observateurs des avancées de l’IA, mais en praticiens soucieux d’intégrer ces outils de manière responsable, réfléchie, et au service du travail humain, sans le submerger.

Français

PLONGÉE EN PROFONDEUR : le projet Iceberg du MIT et ce que les experts anticipent pour l'IA et l'emploi

Pendant longtemps, on s’est rassuré en pensant que l’IA toucherait surtout les métiers de la tech. Développeurs, data scientists, peut‑être quelques analystes, pour le reste, sentiment de relative sécurité. Ce récit se fissure, et le projet Iceberg du MIT le montre très clairement. Ce que nous regardions jusqu’ici n’était pas l’ensemble, juste la partie émergée. Le MIT, en collaboration avec le Oak Ridge National Laboratory, a mené une simulation d’ampleur, suivant 151 millions de travailleurs américains à travers plus de 32 000 compétences et 923 professions. L’objectif n’était pas de prédire 2035 ou 2040, mais de poser une question bien plus inconfortable : qu’est‑ce que l’IA pourrait automatiser dès maintenant, avec les technologies déjà disponibles ? La réponse est saisissante. D’après Project Iceberg, l’IA peut techniquement remplacer environ 11,7 % de la main‑d’œuvre actuelle aux États‑Unis. Cela représente à peu près 1,2 trillion de dollars de salaires. Il ne s’agit ni d’un risque théorique ni d’un horizon lointain. D’un point de vue strictement technique, la capacité existe déjà. Ce qui rend le tableau encore plus intéressant, c’est l’écart entre ce que l’IA peut faire et ce qu’elle fait effectivement. En observant seulement les déploiements reels, là où l’IA est utilisée au quotidien le MIT estime qu’environ 2,2 % des emplois semblent touchés. Ils appellent cela le “Surface Index”. En surface, la situation paraît gérable. En dessous, s’étend une vaste couche de travail cognitif potentiellement automatisable et encore peu exploitée. Cette couche cachée englobe des rôles que beaucoup considèrent encore “à l’abri” : finance, administration de santé, opérations, coordination, services professionnels. Ces métiers reposent fortement sur l’analyse, la documentation, la planification et la prise de décision structure, exactement le type de tâches que les systèmes d’IA modernes commencent à bien maîtriser. Alors, qu’est‑ce qui a changé ? En un mot : l’accès. Jusqu’à récemment, les assistants IA restaient en dehors de nos environnements de travail réels. Ils savaient discuter, résumer, générer du texte, mais n’avaient pas accès à votre agenda, vos outils de projet, vos bases de données internes ou vos workflows. Cette barrière a commencé à tomber fin 2024 avec l’introduction du Model Context Protocol, ou MCP. MCP permet aux modèles d’IA de se connecter directement aux outils et aux sources de données via des interfaces standardisées. Ce simple basculement a tout débloqué : des agents IA qui non seulement conseillent, mais agissent. En mars 2025, on dénombrait plus de 7 900 serveurs MCP en production. L’IA peut désormais consulter des agendas, réserver des salles, envoyer des invitations, mettre à jour des plans de projet, rapprocher des données et générer des rapports de façon autonome. Project Iceberg suit tout cela en temps réel, en mettant ces capacités en correspondance directe avec les compétences du marché du travail. Et c’est là que les données prennent un tournant inattendu. La plus grande vulnérabilité ne se concentre pas dans la Silicon Valley. Elle apparaît nettement dans des États du “Rust Belt” comme l’Ohio, le Michigan et le Tennessee. Non pas parce que les usines regorgent de robots, mais parce que les fonctions de support cognitif autour de l’industrie (analyse financière, coordination administrative, conformité, planification) sont hautement automatisables. Des emplois qui semblent stables en surface, mais qui se trouvent en plein sous‑marin de l’iceberg. Les experts ne balaye nt pas ces résultats d’un revers de main en les qualifiant d’alarmistes. Une autre étude, portant sur 339 “superforecasters” et spécialistes de l’IA, estime qu’à l’horizon 2030, environ 18 % des heures de travail seront assistées par l’IA. Un chiffre étonnamment cohérent avec l’exposition technique actuelle de 11,7 % mise en avant par le MIT, ce qui confère au projet Iceberg une crédibilité directionnelle plutôt qu’un caractère spéculatif. Ce qui frappe surtout, c’est l’usage qui est fait de ces informations. Project Iceberg n’est pas qu’un rapport de recherche, c’est un système d’alerte précoce. Des États s’en servent déjà pour repérer les compétences à risque et investir dans la reconversion avant que les déplacements d’emplois ne se produisent. Le focus se déplace des intitulés de poste vers des grappes de compétences : quelles parties d’un rôle sont automatisables, et lesquelles nécessitent encore jugement humain, créativité, empathie ou travail relationnel. La grande question, désormais, n’est plus de savoir si l’IA va transformer le travail. Ce point est acquis. La vraie question est de savoir si les systèmes, les institutions et les pouvoirs publics bâtissent assez vite l’infrastructure pour accompagner quelque 21 millions de travailleurs potentiellement déplacés. L’iceberg est déjà là. Ce qui compte, c’est de savoir si nous manœuvrons ou si nous attendons l’impact.

Français

Mistral 3 : pourquoi ce modèle d'IA répond vraiment notre attention

À chaque sortie d’un nouveau modèle d’IA, le vacarme est garanti : grandes promesses, comparaisons tapageuses, slogans du type “celui-ci va tout changer”. La plupart du temps, on observe, on parcourt rapidement, puis on passe à autre chose. Mais parfois, une annonce nous arrête net et nous fait réfléchir à l’impact concret sur le terrain. C’est exactement l’effet qu’a eu Mistral 3. Ce qui nous intéresse ici, ce n’est pas seulement la performance ou la taille, mais l’état d’esprit. Mistral 3 n’est pas un énorme modèle unique réservé aux géants de la tech. C’est une famille de modèles, allant de systèmes puissants à des versions bien plus légères et sobres, capables de tourner en local. D’emblée, cela change la donne : flexibilité, accessibilité, liberté de choix. Pour les cliniciens, les enseignants et les thérapeutes, ces qualités comptent bien plus que des chiffres records. L’un des points les plus marquants de Mistral 3 est sa solidité en multilingue. En thérapie comme en éducation, l’accès linguistique n’est pas un “plus”, c’est essentiel. Beaucoup de familles ne se sentent pas le plus à l’aise en anglais ; or, une barrière de langue peut vite devenir une barrière thérapeutique. Un modèle qui gère naturellement plusieurs langues ouvre la voie à des échanges plus clairs avec les parents, à des ressources plus inclusives et à des supports qui sonnent humains plutôt que “traduits à la machine”. Autre raison de notre intérêt : l’existence de modèles plus petits. Techniquement, cela peut sembler anecdotique ; philosophiquement, c’est majeur. Des modèles légers rendent possibles les usages en local, réduisent la dépendance au cloud et offrent davantage de contrôle sur les données sensibles. Quand on accompagne des enfants, des personnes neurodivergentes ou des patients vivant des enjeux de santé mentale, la confidentialité et la responsabilité éthique ne se négocient pas. Les outils qui protègent ces principes méritent qu’on s’y attarde. Sur le plan pratique, Mistral 3 montre aussi de meilleures capacités de raisonnement et de suivi des instructions que bien des modèles très “fluides” mais peu profonds. Or cela compte lorsque l’IA sert à soutenir la réflexion, pas seulement à générer du texte. Qu’il s’agisse d’esquisser des comptes rendus de séance, de structurer des plans thérapeutiques ou de résumer des publications, la valeur vient de la cohérence et de la logique, pas uniquement d’une prose soignée. Pour autant, il faut rappeler clairement les limites. Aucun modèle d’IA ne “comprend” la sécurité émotionnelle, la régulation, le trauma, ni l’alliance thérapeutique. Ce sont des processus profondément humains, au cœur de la thérapie efficace. Tout outil d’IA, Mistral 3 compris, doit rester un appui au clinician, jamais un substitut au jugement clinique, à l’empathie, ni au lien humain. Là où nous voyons une vraie plus-value, c’est dans la réduction de la charge cognitive. Rédiger, organiser, adapter, résumer, autant de tâches où l’IA peut faire gagner du temps et de l’énergie mentale, pour permettre aux thérapeutes et aux enseignants de se concentrer davantage sur le travail humain, ici et maintenant. Utilisés avec intention et éthique, des outils comme Mistral 3 peuvent soutenir discrètement de meilleures pratiques, plutôt que de les bousculer. En somme, Mistral 3 incarne une trajectoire qui nous encourage : ouverte, flexible, et ancrée dans l’usage concret plutôt que dans le battage. Il ne s’agit pas de courir après la nouveauté, mais de choisir des outils alignés avec le soin éthique, l’inclusivité et une pratique réfléchie. Nous continuerons à suivre ce champ de près, à tester avec rigueur et à partager ce qui apporte réellement de la Valeur, car dans les métiers du cerveau, de meilleurs outils comptent, mais la sagesse avec laquelle on les utilise compte encore davantage.

Panier