Author name: Dr. Rania Kassir

Uncategorized

Conversations de groupe avec l’intelligence artificielle : une nouvelle dimension de la collaboration Clinique

L’intelligence artificielle évolue rapidement et transforme déjà la manière dont les thérapeutes planifient, créent et communiquent. Une nouvelle fonctionnalité de discussions de groupe au sein d’une grande plateforme conversationnelle ouvre un espace allant bien au-delà de l’appui individuel : un espace de réflexion partagé, dans lequel les professionnels peuvent co-créer, confronter leurs points de vue et élaborer ensemble des contenus et des stratégies cliniques en temps réel. Le principe est simple : au lieu d’interagir seul avec l’outil, jusqu’à vingt personnes peuvent désormais participer à une même conversation. Chacun peut ajouter du contenu, poser des questions, apporter des exemples issus de sa discipline ou collaborer sur des documents, tandis que l’assistant reste disponible comme un participant à part entière de l’échange. On obtient ainsi un cadre de travail commun où les idées circulent plus rapidement et s’enrichissent mutuellement. Du point de vue de la thérapie et de la rééducation, l’enjeu est important. Nombre de praticiens travaillent au sein d’équipes pluridisciplinaires, en lien avec des orthophonistes, des ergothérapeutes, des psychologues, des kinésithérapeutes, des enseignants spécialisés ou d’autres professionnels. Or ces échanges se font souvent par courriels, messages différés ou discussions informelles. L’espace de groupe rend ces collaborations plus fluides et plus immédiates. À l’usage, dans des situations de création de contenus et de planification, l’outil montre une force notable : il ne se limite pas à fournir des réponses, mais peut aider à structurer une réflexion, clarifier des objectifs, comparer des options et reformuler des propositions. Dans la co-création interdisciplinaire, cela constitue un véritable appui. Imaginez un groupe de professionnels concevant ensemble des supports thérapeutiques. Les orthophonistes définissent les cibles langagières, les ergothérapeutes travaillent la planification motrice ou l’intégration sensorielle, les psychologues apportent le cadrage émotionnel, et les enseignants veillent à l’alignement avec les exigences scolaires. Plutôt que de faire circuler des documents successifs, chacun voit le contenu évoluer en direct, tandis que l’assistant peut proposer des formulations, adapter le niveau de langage, comparer différentes versions d’une activité ou aider à structurer un support visuel. Pour la planification de séances interdisciplinaires, la discussion de groupe facilite l’alignement des objectifs. Il devient possible de repérer rapidement les recouvrements, d’éviter les redondances et de générer un déroulé cohérent en un temps réduit. Pour des professionnels soumis à une forte charge de travail, le gain de temps peut être significatif. Cette dynamique suppose toutefois une utilisation rigoureuse. L’assistant ne doit pas se substituer au raisonnement clinique. Il ne pose pas de diagnostic, n’évalue pas et ne décide pas du traitement. Son rôle est de soutenir la structure, la formulation et la clarté des échanges, tout en laissant la décision finale aux professionnels. La protection des données reste centrale. Les espaces de groupe sont distincts des échanges privés et ne doivent pas être utilisés comme des dossiers cliniques. Aucune information identifiante ne doit y être introduite, et les obligations de confidentialité et de conformité réglementaire, notamment au regard du RGPD, doivent être strictement respectées. Ce qui émerge est une forme de collaboration nouvelle : un tableau de travail partagé où le discernement humain et l’appui technique se complètent. Cette possibilité existe déjà. À nous, thérapeutes, de décider comment l’intégrer à nos pratiques, avec intention, rigueur et sens critique. Applications précoces possibles en thérapie et en rééducation : La valeur ne réside pas dans des réponses « toutes faites », mais dans la structure fournie : cohérence, clarté et collaboration allégée des avancées décisives dans un domaine où le temps et la charge mentale pèsent lourd. Pour les praticiens exerçant dans des environnements de santé contemporains, cela peut marquer un tournant. Nous passons d’une interaction individuelle avec l’assistant à un travail d’équipe soutenu par l’assistant collectif. Et ce changement arrive plus vite que prévu. L’assistant ne décidera pas du traitement à la place du thérapeute. Il n’évaluera pas les échantillons de parole et ne posera pas de diagnostic. En revanche, il peut aider à tracer un parcours de soin, comparer des approches, ou transformer des idées éparses en documents aboutis et partageables. Bien utilisé, l’échange de groupe devient un amplificateur de pensée, non un substitut. Il ne s’agit pas d’une promesse lointaine : cette possibilité existe déjà, et des utilisateurs en explorent dès à présent le potentiel. À nous, thérapeutes, de choisir jusqu’où nous voulons nous engager, avec quelle rigueur nous souhaitons façonner l’outil, et avec quelle créativité nous ferons vivre ce nouvel espace collaboratif.

Uncategorized

Zoom IA et l’Évaluation Avancée du Raisonnement (EAR) : pourquoi c’est important pour les thérapeutes

Récemment, la plateforme de visioconférence Zoom a annoncé que son système d’intelligence artificielle a obtenu 48,1 % à l’Évaluation avancée du raisonnement (EAR). À première vue, ce score peut sembler peu élevé. Dans un contexte scolaire ou académique classique, il serait considéré comme insuffisant. Pourtant, l’intérêt de cette étape tient à ce que l’évaluation mesure réellement, et à la manière dont l’IA de Zoom y est parvenue. L’EAR a été conçue pour évaluer le raisonnement plutôt que la mémorisation. De nombreuses évaluations d’IA mesurent avant tout la capacité à exploiter des régularités statistiques : lorsqu’un modèle a été exposé à un grand nombre d’exemples, il peut parfois produire une réponse correcte sans compréhension réelle. L’EAR retire ce filet de sécurité. Ses questions sont volontairement inédites et exigent un raisonnement en plusieurs étapes, de la résolution de problèmes et une justification argumentée. Le modèle doit interpréter un scénario, examiner différentes hypothèses explicatives et défendre une conclusion cohérente. Rappeler des informations ne suffit pas : c’est la structuration du raisonnement qui est évaluée. Un autre point particulièrement intéressant réside dans l’approche technique adoptée par Zoom. Plutôt que de s’appuyer sur un modèle unique et massif, l’entreprise a fait collaborer plusieurs modèles plus compacts. Chacun explore le problème selon ses points forts, vérifie le raisonnement et contribue à la réponse finale. Zoom résume cette démarche ainsi : « Explorer, vérifier, fédérer ». Cette logique est proche de la pratique clinique : face à une situation complexe, nous échangeons avec d’autres professionnels, confrontons les indices, discutons des hypothèses, puis intégrons ces éclairages pour parvenir à une décision plus solide. Dans certains contextes, un ensemble de modules spécialisés peut produire un raisonnement plus robuste qu’un système unique surdimensionné. Pourquoi les thérapeutes devraient-ils s’y intéresser ? Même si l’IA est encore loin d’un raisonnement comparable à celui d’un humain, cette étape laisse entrevoir des outils capables de soutenir le travail clinique de manière concrète. On peut imaginer une IA capable d’aider à analyser des notes de suivi et à repérer des évolutions dans le temps, de suggérer des idées d’activités thérapeutiques, de générer des supports visuels ou interactifs personnalisés, ou encore de produire des synthèses structurées utilisables en séance, y compris à distance. De tels systèmes pourraient réduire certaines tâches répétitives et permettre aux thérapeutes de consacrer davantage d’énergie à la relation thérapeutique, véritable moteur des progrès. L’approche dite « fédérée » suggère également des solutions potentiellement plus efficaces et plus lisibles. Plutôt que des modèles gigantesques et opaques, on pourrait voir émerger des assemblages de modules capables d’expliquer plus clairement la manière dont une conclusion est construite. Pour les cliniciens, cela peut renforcer la confiance dans les propositions de l’outil et faciliter son intégration au sein d’équipes pluridisciplinaires. L’EAR ne signifie pas que l’IA puisse remplacer les thérapeutes. Il s’agit d’un pas vers des systèmes centrés sur le raisonnement, conçus pour soutenir la pratique clinique. En mettant l’IA à l’épreuve dans des scénarios exigeants et inédits, cette évaluation montre que la technologie peut commencer à structurer un raisonnement, et pas seulement produire un texte fluide. Pour les thérapeutes, notamment en télésoin, cela ouvre la voie à des outils d’appui plus pertinents, à un engagement des patients plus personnalisé, et à des dispositifs qui aident à planifier, suivre et ajuster les interventions de façon plus efficiente. Nous n’en sommes qu’au début, mais des jalons comme l’examen final de l’humanité nous donnent un aperçu d’un futur où l’IA peut véritablement renforcer notre pratique clinique. Elle ne remplacera pas notre jugement, mais peut devenir un partenaire puissant pour offrir une thérapie réfléchie, fondée sur les données et réellement engageante.

Uncategorized

Les tout derniers outils d’IA pour la recherche scientifique à surveiller de près

Chaque année, une nouvelle vague d’outils d’IA arrive dans le paysage de la recherche, tous prétendant « transformer la science ». La plupart parviennent à accélérer les workflows. Bien moins nombreux sont ceux qui améliorent réellement la qualité du raisonnement scientifique. Ce qui distingue la génération actuelle d’outils d’IA dédiés à la recherche, ce n’est pas seulement la vitesse, mais l’endroit où ils interviennent dans le processus scientifique. De plus en plus, ces systèmes influencent la manière de formuler les questions, d’évaluer les preuves et de synthétiser les idées. De notre point de vue, cela représente un changement substantiel dans la façon même de mener l’enquête scientifique. L’un des développements les plus marquants est l’essor de l’« intelligence documentaire » pilotée par l’IA (des systèmes qui lisent, relient et comparent de grands volumes d’articles scientifiques pour identifier les motifs, les convergences et les contradictions). Des outils comme Elicit, Consensus, Scite, ainsi que les fonctionnalités enrichies par l’IA de Semantic Scholar, vont au‑delà de la recherche par mots‑clés en s’appuyant sur des « embeddings » sémantiques (des représentations mathématiques du sens plutôt que de la simple forme des mots). Cela permet de regrouper les études par proximité conceptuelle plutôt que par terminologie partagée. Pour les chercheurs évoluant dans des domaines denses et en rapide mutation (comme les neurosciences, la psychologie et les sciences de la santé) cela reconfigure la revue de littérature en un processus de synthèse active, aidant à clarifier où les preuves convergent, où elles divergent et où subsistent des lacunes. Étroitement lié à cela, on observe l’émergence de la génération d’hypothèses assistée par l’IA (exploration et affinement des questions de recherche à partir de la littérature existante et des jeux de données). Des plateformes comme BenchSci, ainsi que des copilotes de recherche intégrés aux environnements statistiques et de code, aident les chercheurs à repérer, dès la phase de conception, les variables pertinentes, les contrôles manquants et les facteurs de confusion potentiels. Beaucoup de ces systèmes s’appuient sur l’apprentissage par renforcement (une approche d’entraînement où l’IA s’améliore par retours itératifs et ajustements), de sorte que les suggestions évoluent vers un raisonnement plus clair et de meilleurs résultats méthodologiques. Bien utilisés, ces outils ne remplacent pas le jugement scientifique ; ils favorisent une réflexion plus précoce et un design d’étude plus délibéré. Un autre domaine en plein essor est l’IA multimodale (des modèles capables d’intégrer textes, images, tableaux, graphiques et données numériques au sein d’un même cadre de raisonnement). Des outils comme DeepLabCut pour l’analyse du mouvement et Cellpose pour la segmentation d’images biomédicales illustrent comment l’IA peut unifier des flux de données comportementales, visuelles et quantitatives traditionnellement analysés séparément. En recherche sur le cerveau et le comportement, cette intégration est particulièrement précieuse. Relier comportements observés, résultats d’imagerie et notes cliniques écrites favorise une interprétation plus cohérente et réduit la fragmentation qui freine souvent la recherche interdisciplinaire. Nous constatons également des progrès notables en analyse de données et en découverte de motifs pilotées par l’IA (des systèmes qui aident à identifier des tendances et relations significatives au sein de jeux de données complexes). Les plateformes d’AutoML et les outils statistiques augmentés par l’IA abaissent les barrières techniques, permettant aux chercheurs d’explorer plus efficacement plusieurs approches analytiques. Si les bases de la statistique restent non négociables, ces outils peuvent faire émerger plus tôt des pistes prometteuses, guidant des hypothèses et des analyses plus ciblées plutôt qu’encourageant une automatisation indiscriminée. Tout aussi important, l’accent grandissant mis sur la transparence et la reproductibilité (la capacité à retracer les sources, les étapes analytiques et les trajectoires de raisonnement). Des outils comme Scite indiquent explicitement si un article a été étayé ou contredit par des travaux ultérieurs, tandis que de nouvelles plateformes de recherche propulsées par l’IA documentent de plus en plus comment les conclusions sont produites. À l’heure où les inquiétudes envers la « boîte noire » scientifique s’intensifient, cette philosophie de conception compte. Une IA qui renforce la rigueur tout en rendant le raisonnement visible est bien plus alignée avec les valeurs fondamentales de la démarche scientifique que des systèmes qui se limitent à générer des résultats soignés. De notre point de vue, chez Happy Brain Training, la pertinence de ces outils dépasse largement le milieu académique. La pratique fondée sur les preuves exige une recherche non seulement de haute qualité, mais aussi interprétable et applicable. Lorsque l’IA soutient une synthèse plus claire, un design d’étude plus robuste et une interprétation des données plus intégrée, les bénéfices se répercutent jusqu’aux cliniciens, aux enseignants, aux thérapeutes et, in fine, aux personnes qu’ils accompagnent. Le fossé entre la recherche et la pratique se resserre lorsque le savoir devient plus cohérent pas seulement plus rapide à produire. Limites et questions d’accès Malgré leur potentiel, ces outils comportent des limites importantes qui appellent à la vigilance. Beaucoup de plateformes d’IA dédiées à la recherche fonctionnent désormais sur abonnement, avec des niveaux d’accès très variables selon le tarif. La profondeur de la couverture bibliographique, le nombre de requêtes, les fonctionnalités d’analyse avancées et les options d’export évoluent souvent à la hausse avec les formules plus onéreuses. Résultat : l’accès aux capacités les plus puissantes peut être conditionné par le financement institutionnel ou la capacité de chacun à payer. Par ailleurs, la disponibilité des fonctionnalités et les performances des modèles peuvent évoluer au fil des mises à jour. C’est pourquoi les chercheurs devraient vérifier les niveaux d’accès, les sources de données et les limitations auprès de la documentation officielle des plateformes ou des ressources de leur institution avant d’intégrer ces outils à des workflows critiques. Les résumés et recommandations générés par l’IA doivent toujours être recoupés avec les sources originales, en particulier dans les contextes clinique, éducatif ou liés aux politiques publiques. Dans le même temps, la prudence reste de mise. Ces systèmes sont puissants, mais pas neutres. Ils reflètent les données sur lesquelles ils ont été entraînés, les incitations qui orientent leur conception et les hypothèses incorporées dans leurs modèles. L’avenir de la recherche scientifique n’est pas

Uncategorized

Tout ce qu’il faut savoir sur DeepSeek V3.2: notre point de vue

De temps en temps, une sortie d’IA ne se contente pas d’ajouter une fonction ou d’améliorer légèrement des scores de benchmark : elle redéfinit silencieusement ce qui paraît possible. DeepSeek V3.2 fait partie de celles‑là. Si le nom « DeepSeek » fait autant de bruit dans les cercles tech américains en ce moment, c’est parce qu’il l’a mérité non pas en jouant la carte du spectacle, mais en bousculant, de manière systématique, les idées reçues sur les coûts, l’échelle et qui est réellement en mesure de faire avancer l’innovation. Avec V3.2 et sa déclinaison plus avancée, V3.2‑Speciale, DeepSeek force à nouveau l’industrie à repenser la façon dont le raisonnement à long contexte doit fonctionner. Au cœur de cette version, on trouve un concept en apparence simple : l’attention éparse (sparse attention). La plupart des grands modèles de langage tentent aujourd’hui de « prêter attention » à tout, en même temps, dans une conversation ou un document. À mesure que le contexte s’allonge, le coût de calcul explose. Concrètement, cela signifie que les longs rapports, les historiques de cas étendus ou les raisonnements multi‑étapes complexes deviennent rapidement coûteux et lents. L’approche de DeepSeek est différente : l’attention clairsemée permet au modèle de se concentrer uniquement sur les parties de l’entrée qui comptent vraiment pour la tâche en cours, plutôt que de tout relire à chaque fois. Conceptuellement, on se rapproche davantage de notre façon humaine de faire : survoler, prioriser, puis zoomer là où la pertinence est maximale. L’impact de ce choix d’architecture est considérable. Avec des mécanismes d’attention classiques, traiter un document dix fois plus long coûte à peu près dix fois plus cher parfois pire. Avec l’attention clairsemée de DeepSeek, cette hausse est fortement contenue, plus proche d’une croissance linéaire que d’une explosion exponentielle. En pratique, cela rend enfin l’IA à long context, que beaucoup d’entre nous souhaitent, mais utilisent peu en profondeur, nettement plus accessible. Pour tous ceux qui manipulent des documents volumineux, des échanges prolongés ou des données cumulatives dans le temps, ce changement pèse plus lourd que bien des « features » mises en avant dans les annonces. Vient ensuite V3.2‑Speciale, qui fait passer DeepSeek du statut « intéressant » à « impossible à ignorer ». Ce modèle a atteint un niveau « médaille d’or » sur certains des benchmarks de raisonnement les plus exigeants au monde, notamment l’Olympiade internationale de mathématiques et d’autres compétitions d’élite utilisées pour éprouver les systèmes de raisonnement avancés. Sur des benchmarks de référence comme AIME (un concours de mathématiques américain de niveau avancé) et HMMT (un tournoi de mathématiques très compétitif organisé par des étudiants de Harvard et du MIT), Speciale égale ou dépasse des modèles issus de laboratoires bien plus dotés et plus connus. Ce qui frappe, au‑delà des performances brutes, c’est le timing : DeepSeek a livré ce niveau de raisonnement avant plusieurs laboratoires occidentaux dont beaucoup pensaient qu’ils arriveraient les premiers. Il existe, bien sûr, un compromis. Speciale génère davantage de tokens par problème complexe, il « pense à voix haute » plus que certains modèles concurrents. Normalement, cela se traduirait par des coûts plus élevés. Pourtant, DeepSeek casse tellement les prix que, même avec une consommation de tokens accrue, le coût total reste nettement inférieur. Si l’on prend du recul et qu’on fait le calcul, les utilisateurs réalisent malgré tout des économies substantielles pour les tâches de raisonnement avancé. À lui seul, ce positionnement tarifaire rebat les cartes : il élargit réellement le cercle de celles et ceux qui peuvent expérimenter avec des modèles de raisonnement profond et réduit le risque d’exclusion. Tout aussi important : la manière dont DeepSeek a conçu et partagé ce travail. L’équipe s’est fortement appuyée sur l’apprentissage par renforcement à grande échelle, en entraînant le modèle sur des milliers d’itérations et d’environnements simulés couvrant le code, les mathématiques, le raisonnement sur bases de données et des tâches à forte composante logique. Elle a également introduit un entraînement en deux étapes : d’abord apprendre à un système plus petit à identifier ce qui compte dans une interaction, puis utiliser cette « connaissance d’orientation » pour guider l’attention clairsemée du modèle complet. Ce qui distingue DeepSeek, c’est la transparence : l’article technique ne se contente pas de célébrer les réussites, il documente les méthodes, les choix de conception et même les cas d’échec. Dans un secteur où le secret reste souvent la norme, cette ouverture accélère les progrès bien au‑delà d’un seul laboratoire. De notre point de vue, à Happy Brain Training, l’enjeu majeur de DeepSeek V3.2 n’est pas de dépasser tel ou tel modèle au classement. Il s’agit d’accès. Quand le raisonnement à long contexte devient dix fois moins cher, il cesse d’être une option de luxe et devient un outil pratique. Les implications sont fortes pour l’éducation, la santé, la recherche et la pratique clinique, où le contexte est rarement court et où la nuance compte. La capacité à exploiter des historiques étendus, des informations superposées et des trajectoires narratives évolutives correspond exactement à la direction que doit prendre l’IA pour être réellement utile. Pour la suite, on imagine mal les laboratoires occidentaux ne pas réagir. L’attention clairsemée et l’apprentissage par renforcement à grande échelle sont trop efficaces pour être ignorés, et des approches similaires devraient apparaître dans les six à douze prochains mois. DeepSeek a, en quelque sorte, accéléré le calendrier. Pour l’heure, V3.2 est disponible via API, et Speciale est accessible via un point d’accès temporaire pendant la phase de collecte de retours. Nous suivrons cela de près, non pas seulement en observateurs des avancées de l’IA, mais en praticiens soucieux d’intégrer ces outils de manière responsable, réfléchie, et au service du travail humain, sans le submerger.

French

PLONGÉE EN PROFONDEUR : le projet Iceberg du MIT et ce que les experts anticipent pour l’IA et l’emploi

Pendant longtemps, on s’est rassuré en pensant que l’IA toucherait surtout les métiers de la tech. Développeurs, data scientists, peut‑être quelques analystes, pour le reste, sentiment de relative sécurité. Ce récit se fissure, et le projet Iceberg du MIT le montre très clairement. Ce que nous regardions jusqu’ici n’était pas l’ensemble, juste la partie émergée. Le MIT, en collaboration avec le Oak Ridge National Laboratory, a mené une simulation d’ampleur, suivant 151 millions de travailleurs américains à travers plus de 32 000 compétences et 923 professions. L’objectif n’était pas de prédire 2035 ou 2040, mais de poser une question bien plus inconfortable : qu’est‑ce que l’IA pourrait automatiser dès maintenant, avec les technologies déjà disponibles ? La réponse est saisissante. D’après Project Iceberg, l’IA peut techniquement remplacer environ 11,7 % de la main‑d’œuvre actuelle aux États‑Unis. Cela représente à peu près 1,2 trillion de dollars de salaires. Il ne s’agit ni d’un risque théorique ni d’un horizon lointain. D’un point de vue strictement technique, la capacité existe déjà. Ce qui rend le tableau encore plus intéressant, c’est l’écart entre ce que l’IA peut faire et ce qu’elle fait effectivement. En observant seulement les déploiements reels, là où l’IA est utilisée au quotidien le MIT estime qu’environ 2,2 % des emplois semblent touchés. Ils appellent cela le “Surface Index”. En surface, la situation paraît gérable. En dessous, s’étend une vaste couche de travail cognitif potentiellement automatisable et encore peu exploitée. Cette couche cachée englobe des rôles que beaucoup considèrent encore “à l’abri” : finance, administration de santé, opérations, coordination, services professionnels. Ces métiers reposent fortement sur l’analyse, la documentation, la planification et la prise de décision structure, exactement le type de tâches que les systèmes d’IA modernes commencent à bien maîtriser. Alors, qu’est‑ce qui a changé ? En un mot : l’accès. Jusqu’à récemment, les assistants IA restaient en dehors de nos environnements de travail réels. Ils savaient discuter, résumer, générer du texte, mais n’avaient pas accès à votre agenda, vos outils de projet, vos bases de données internes ou vos workflows. Cette barrière a commencé à tomber fin 2024 avec l’introduction du Model Context Protocol, ou MCP. MCP permet aux modèles d’IA de se connecter directement aux outils et aux sources de données via des interfaces standardisées. Ce simple basculement a tout débloqué : des agents IA qui non seulement conseillent, mais agissent. En mars 2025, on dénombrait plus de 7 900 serveurs MCP en production. L’IA peut désormais consulter des agendas, réserver des salles, envoyer des invitations, mettre à jour des plans de projet, rapprocher des données et générer des rapports de façon autonome. Project Iceberg suit tout cela en temps réel, en mettant ces capacités en correspondance directe avec les compétences du marché du travail. Et c’est là que les données prennent un tournant inattendu. La plus grande vulnérabilité ne se concentre pas dans la Silicon Valley. Elle apparaît nettement dans des États du “Rust Belt” comme l’Ohio, le Michigan et le Tennessee. Non pas parce que les usines regorgent de robots, mais parce que les fonctions de support cognitif autour de l’industrie  (analyse financière, coordination administrative, conformité, planification) sont hautement automatisables. Des emplois qui semblent stables en surface, mais qui se trouvent en plein sous‑marin de l’iceberg. Les experts ne balaye nt pas ces résultats d’un revers de main en les qualifiant d’alarmistes. Une autre étude, portant sur 339 “superforecasters” et spécialistes de l’IA, estime qu’à l’horizon 2030, environ 18 % des heures de travail seront assistées par l’IA. Un chiffre étonnamment cohérent avec l’exposition technique actuelle de 11,7 % mise en avant par le MIT, ce qui confère au projet Iceberg une crédibilité directionnelle plutôt qu’un caractère spéculatif. Ce qui frappe surtout, c’est l’usage qui est fait de ces informations. Project Iceberg n’est pas qu’un rapport de recherche, c’est un système d’alerte précoce. Des États s’en servent déjà pour repérer les compétences à risque et investir dans la reconversion avant que les déplacements d’emplois ne se produisent. Le focus se déplace des intitulés de poste vers des grappes de compétences : quelles parties d’un rôle sont automatisables, et lesquelles nécessitent encore jugement humain, créativité, empathie ou travail relationnel. La grande question, désormais, n’est plus de savoir si l’IA va transformer le travail. Ce point est acquis. La vraie question est de savoir si les systèmes, les institutions et les pouvoirs publics bâtissent assez vite l’infrastructure pour accompagner quelque 21 millions de travailleurs potentiellement déplacés. L’iceberg est déjà là. Ce qui compte, c’est de savoir si nous manœuvrons ou si nous attendons l’impact.

French

Mistral 3 : pourquoi ce modèle d’IA retient vraiment notre attention

À chaque sortie d’un nouveau modèle d’IA, le vacarme est garanti : grandes promesses, comparaisons tapageuses, slogans du type “celui-ci va tout changer”. La plupart du temps, on observe, on parcourt rapidement, puis on passe à autre chose. Mais parfois, une annonce nous arrête net et nous fait réfléchir à l’impact concret sur le terrain. C’est exactement l’effet qu’a eu Mistral 3. Ce qui nous intéresse ici, ce n’est pas seulement la performance ou la taille, mais l’état d’esprit. Mistral 3 n’est pas un énorme modèle unique réservé aux géants de la tech. C’est une famille de modèles, allant de systèmes puissants à des versions bien plus légères et sobres, capables de tourner en local. D’emblée, cela change la donne : flexibilité, accessibilité, liberté de choix. Pour les cliniciens, les enseignants et les thérapeutes, ces qualités comptent bien plus que des chiffres records. L’un des points les plus marquants de Mistral 3 est sa solidité en multilingue. En thérapie comme en éducation, l’accès linguistique n’est pas un “plus”, c’est essentiel. Beaucoup de familles ne se sentent pas le plus à l’aise en anglais ; or, une barrière de langue peut vite devenir une barrière thérapeutique. Un modèle qui gère naturellement plusieurs langues ouvre la voie à des échanges plus clairs avec les parents, à des ressources plus inclusives et à des supports qui sonnent humains plutôt que “traduits à la machine”. Autre raison de notre intérêt : l’existence de modèles plus petits. Techniquement, cela peut sembler anecdotique ; philosophiquement, c’est majeur. Des modèles légers rendent possibles les usages en local, réduisent la dépendance au cloud et offrent davantage de contrôle sur les données sensibles. Quand on accompagne des enfants, des personnes neurodivergentes ou des patients vivant des enjeux de santé mentale, la confidentialité et la responsabilité éthique ne se négocient pas. Les outils qui protègent ces principes méritent qu’on s’y attarde. Sur le plan pratique, Mistral 3 montre aussi de meilleures capacités de raisonnement et de suivi des instructions que bien des modèles très “fluides” mais peu profonds. Or cela compte lorsque l’IA sert à soutenir la réflexion, pas seulement à générer du texte. Qu’il s’agisse d’esquisser des comptes rendus de séance, de structurer des plans thérapeutiques ou de résumer des publications, la valeur vient de la cohérence et de la logique, pas uniquement d’une prose soignée. Pour autant, il faut rappeler clairement les limites. Aucun modèle d’IA ne “comprend” la sécurité émotionnelle, la régulation, le trauma, ni l’alliance thérapeutique. Ce sont des processus profondément humains, au cœur de la thérapie efficace. Tout outil d’IA, Mistral 3 compris, doit rester un appui au clinician, jamais un substitut au jugement clinique, à l’empathie, ni au lien humain. Là où nous voyons une vraie plus-value, c’est dans la réduction de la charge cognitive. Rédiger, organiser, adapter, résumer,  autant de tâches où l’IA peut faire gagner du temps et de l’énergie mentale, pour permettre aux thérapeutes et aux enseignants de se concentrer davantage sur le travail humain, ici et maintenant. Utilisés avec intention et éthique, des outils comme Mistral 3 peuvent soutenir discrètement de meilleures pratiques, plutôt que de les bousculer. En somme, Mistral 3 incarne une trajectoire qui nous encourage : ouverte, flexible, et ancrée dans l’usage concret plutôt que dans le battage. Il ne s’agit pas de courir après la nouveauté, mais de choisir des outils alignés avec le soin éthique, l’inclusivité et une pratique réfléchie. Nous continuerons à suivre ce champ de près, à tester avec rigueur et à partager ce qui apporte réellement de la Valeur, car dans les métiers du cerveau, de meilleurs outils comptent, mais la sagesse avec laquelle on les utilise compte encore davantage.

English

AI-Assisted Data Tracking for Therapy: How Google Tools Can Improve Progress Monitoring

If you’re like us, you know how important tracking progress is in therapy. But let’s be honest—it’s also one of the most time-consuming parts of the job. We’ve all spent more hours documenting than actually connecting with clients, and that’s just not sustainable. That’s why we decided to give Google’s AI tools a try, and here’s what we discovered. We started using Google Sheets with its new AI features to streamline our data tracking. Instead of manually entering formulas or calculating accuracy rates, we just asked Sheets to “summarize the trend of correct responses for the last 8 sessions” or “highlight any sessions where accuracy dropped more than 10%.” It’s surprisingly intuitive, even if you’re not a spreadsheet expert. The best part? It frees up so much time—time we can spend interpreting the data, not just crunching it. For example, we used to spend 15–20 minutes per client session just organizing data, but now we’re down to 5–7 minutes, which adds up over a busy week. Automating repetitive calculations—like percent accuracy, frequency counts, and error patterns—is a lifesaver, especially when juggling multiple clients or managing large caseloads. We also love how easy it is to generate visual charts. For example, we can request a line chart showing progress on a specific goal, and Sheets creates a clear, shareable visual. Families and multidisciplinary teams find these charts really helpful, and it’s a great way to show clients their progress in a tangible way. One parent told us, “Seeing the chart made it easier to understand my child’s progress, and it gave us hope when things felt slow.” Another win: Google’s AI can take our raw session notes—just bullet points or keywords—and turn them into clear, objective summaries. It’s not perfect, but it’s a huge time-saver, especially after back-to-back sessions. Plus, the AI can scan multiple sessions to spot patterns we might miss, like recurring errors or triggers for certain behaviors. While we still interpret what those patterns mean, the AI speeds up the process and helps us catch details we’d otherwise overlook. For instance, we noticed that a child’s language gains were stronger on days with more structured routines, which led us to adjust our intervention plan. There are some hiccups, though. The AI doesn’t always get the nuance right, so we still need to review and tweak the summaries and charts. Also, there’s a learning curve—some therapists might feel overwhelmed at first, especially if they’re not tech-savvy. And of course, privacy is a big concern. We always double-check that our data is stored securely and that we’re following all the necessary guidelines, especially when working with minors. We use Google’s built-in privacy controls and make sure our clients’ information is never shared without consent. But here’s where it gets tricky: how is your patient data stored? Where is it stored? How is it used to train models or used internally? What can you actually do as a therapist to protect client confidentiality? Where are these files kept, and what controls do you have over access and sharing? These are all critical questions we’re still exploring, and it’s important to stay informed about Google’s privacy and security policies. If you want to know more, join our upcoming training sessions or reach out to us—there’s a lot to unpack, and we’re here to help you navigate it all. Overall, Google’s AI tools have made our data tracking smarter and more efficient. They don’t replace the human touch—clinical judgment, empathy, and context are still irreplaceable—but they do help us focus more on what matters: building connections with clients, practicing skills, and responding to their unique needs. If you’re looking to spend less time on admin and more time on therapy, it’s definitely worth giving these tools a try. AI is not here to replace us; it’s here to help us do our jobs better. When used thoughtfully, these tools can amplify our ability to track progress accurately and support families with the insights they deserve. So go ahead—give AI-assisted data tracking a shot. You might just find it as helpful as we did.

English

Inside Google’s AI Ecosystem: How Gemini, AI Studio, and Agents Are Quietly Transforming Therapy and Education

Over the past year, we’ve been diving into Google’s AI ecosystem, and honestly, it’s been a game changer for how we work in therapy and education. It’s not just about Gemini anymore—it’s about how all these tools, from AI Studio to agents, Notebook LM, and a whole range of other apps, fit together to create a workflow that feels like it’s actually built for busy clinicians and educators. We started with Gemini, Google’s multimodal AI, and quickly realized how much it could help with generating structured, clinically relevant content. Whether it was creating a social story tailored to a child’s sensory profile or simplifying a linguistic concept for a parent, Gemini’s strength is its ability to understand detailed prompts and deliver useful drafts. What we liked most was that, with clear context, Gemini could produce materials that felt personalized and relevant, saving us hours of prep time. But we also noticed its limitations—it’s not a replacement for clinical expertise, and sometimes it needed a lot of tweaking to get the nuance right. Then we explored Google AI Studio, which lets you build custom tools that reflect your own style or caseload needs. We created a simple “social story generator with sensory-friendly wording” and a “WH-question practice tool for early language learners.” The best part? You don’t need to be a coder—building something useful is surprisingly approachable. When you automate one repetitive task, like generating session summaries or parent guidance emails, it compounds over time. We’ve saved hours each month just by having these tools ready to go. At the top layer, Google’s agent technology is starting to handle more complex, multi-step workflows. Agents can read your weekly goals, categorize them by child, draft session plans, update progress-tracking documents, and even prepare parent emails. At first, the idea of fully automated workflows felt a bit intimidating, but we’ve found that even partial automation—like auto-generating weekly reports or sorting client data—can reduce cognitive fatigue and free up mental space for the human side of our work. The key is to keep control: agents are assistants, not replacements. We also tested out Google Notebook LM, which lets you upload your own documents and have the AI summarize, analyze, or even draft responses based on your notes. For therapy planning and research, it’s been a helpful way to organize and extract insights from our own files. And with Google’s AI-powered features in Sheets and Docs, automating calculations and generating visual charts has become seamless. Other apps like Google’s AI-powered Chromebooks, with their advanced text-to-speech and dictation, have also made a difference, especially for learners who need accessibility support. Google Meet’s real-time transcription and translation has been a game changer for sessions with non-native speakers or when we need to share clear summaries with parents. Google Forms with AI-powered smart surveys has made collecting feedback and tracking progress even easier, and Google Slides with AI design suggestions helps us create visually engaging presentations for training or parent workshops. But the real excitement for us has come from experimenting with Nano Banana and Nano Banana Pro. Nano Banana is a quick AI content generator that makes it easy to create engaging educational graphics, course visuals, and teaching materials on the fly. It’s especially useful for making complex concepts accessible and memorable. Nano Banana Pro takes it up a notch, offering high-quality, emotionally expressive video and image generation. It’s a game-changer for personalized intervention videos, social stories, and step-by-step demonstrations—making it easier than ever to model skills, routines, or emotional scenarios for our clients and students. Veo, Google’s video generation tool, is another standout. It lets us create custom videos for therapy explanations, lessons, or visual supports in minutes. Whether it’s a short video to demonstrate a skill, explain a concept, or engage a student, Veo streamlines production and saves valuable time. Don’t forget about Google’s AI-powered search, which now surfaces research and resources tailored to our specific needs, and Google Keep with AI-powered reminders and notes organization, which keeps our to-do lists and session notes in order. And for those who love experimenting, Google’s new AI-powered “Studio” features in Docs and Slides let you generate images, charts, and even entire slide decks with just a few clicks. What we appreciate most is how all these tools are designed to work together. You can start with a prompt in Gemini, build a custom tool in AI Studio, use agents for workflow automation, analyze your results in Notebook LM, and then share your findings with Meet, Slides, or Keep—all within Google’s ecosystem. The integration is smooth, and it feels like these tools are actually built to support the way we work, not just add another layer of complexity. Of course, there are downsides. Privacy is always a concern, and we make sure to never upload client-identifying information. And while these tools are powerful, they still need human oversight—no AI can replace clinical judgment or the therapeutic relationship. But when used thoughtfully, Google’s AI ecosystem can significantly boost efficiency, personalize materials, and reduce the administrative load that often takes up so much of our time. Look out for future editions of the Happy Brain Training newsletter for more information, tips, and updates on how these tools are evolving and how you can use them safely and effectively in your practice.

French

Suivi des données en thérapie assisté par l’IA : comment les outils Google peuvent améliorer le monitoring des progrès

Si vous êtes comme nous, vous savez à quel point le suivi des progrès est important en thérapie. Mais soyons honnêtes, c’est aussi l’une des tâches les plus chronophages du métier. Nous avons tous passé plus d’heures à documenter qu’à réellement nous connecter avec les clients, et ce n’est tout simplement pas tenable. C’est pourquoi nous avons décidé d’essayer les outils d’IA de Google, et voici ce que nous avons découvert. Nous avons commencé à utiliser Google Sheets avec ses nouvelles fonctionnalités d’IA pour rationaliser notre suivi des données. Au lieu de saisir manuellement des formules ou de calculer les taux de précision, nous avons simplement demandé à Sheets de « résumer la tendance des réponses correctes sur les 8 dernières séances » ou de « mettre en évidence les séances où la précision a chuté de plus de 10 % ». C’est étonnamment intuitif, même si vous n’êtes pas expert en tableurs. Le meilleur dans tout ça ? Cela libère énormément de temps, du temps que nous pouvons consacrer à interpréter les données, pas seulement à les traiter. Par exemple, nous passions auparavant 15 à 20 minutes par séance client rien que pour organiser les données ; nous sommes désormais à 5 à 7 minutes, ce qui, sur une semaine chargée, fait une vraie différence. L’automatisation des calculs répétitifs, comme le pourcentage de précision, les décomptes de fréquence et les profils d’erreurs, nous sauve la mise, surtout quand on jongle avec plusieurs clients ou qu’on gère un grand nombre de dossiers. Nous adorons aussi la facilité avec laquelle on peut générer des graphiques. Par exemple, nous pouvons demander un graphique en courbe montrant l’évolution d’un objectif précis, et Sheets crée un visuel clair et partageable. Les familles et les équipes pluridisciplinaires trouvent ces graphiques vraiment utiles, et c’est une excellente façon de montrer aux clients leurs progrès de manière concrète. Un parent nous a dit : « Voir le graphique a rendu les progrès de mon enfant plus faciles à comprendre, et ça nous a redonné de l’espoir quand les choses semblaient ralentir. » Autre point fort : l’IA de Google peut transformer nos notes de séance brutes, simples puces ou mots‑clés, en synthèses claires et objectives. Ce n’est pas parfait, mais c’est un énorme gain de temps, surtout après des séances enchaînées. En plus, l’IA peut analyser plusieurs séances pour repérer des schémas qui pourraient nous échapper, comme des erreurs récurrentes ou des déclencheurs de certains comportements. Même si nous restons ceux qui interprètent la signification de ces schémas, l’IA accélère le processus et nous aide à capter des détails que nous aurions sinon manqués. Par exemple, nous avons remarqué que les progrès langagiers d’un enfant étaient plus marqués les jours où la routine était plus structurée, ce qui nous a conduit à ajuster notre plan d’intervention. Il y a tout de même quelques accrocs. L’IA ne saisit pas toujours toutes les nuances, donc nous devons encore relire et ajuster les synthèses et les graphiques. Il y a aussi une courbe d’apprentissage certains thérapeutes peuvent se sentir dépassés au début, surtout s’ils ne sont pas à l’aise avec la technologie. Et bien sûr, la confidentialité est une préoccupation majeure. Nous vérifions toujours que nos données sont stockées de manière sécurisée et que nous respectons toutes les directives nécessaires, en particulier lorsqu’il s’agit de mineurs. Nous utilisons les contrôles de confidentialité intégrés à Google et nous veillons à ce que les informations de nos clients ne soient jamais partagées sans consentement. Mais c’est là que les choses se compliquent : comment les données de vos patients sont‑elles stockées ? Où sont‑elles stockées ? Sont‑elles utilisées pour entraîner des modèles ou à des fins internes ? Que pouvez‑vous réellement faire, en tant que thérapeute, pour protéger la confidentialité des clients ? Où ces fichiers sont‑ils conservés, et quels contrôles avez‑vous sur l’accès et le partage ? Ce sont autant de questions cruciales que nous explorons encore, et il est important de rester informé des politiques de confidentialité et de sécurité de Google. Si vous voulez en savoir plus, rejoignez nos prochaines sessions de formation ou contactez‑nous il y a beaucoup à démêler, et nous sommes là pour vous aider à y voir clair. Dans l’ensemble, les outils d’IA de Google ont rendu notre suivi des données plus intelligent et plus efficace. Ils ne remplacent pas la dimension humaine le jugement clinique, l’empathie et le contexte restent irremplaçables, mais ils nous aident à nous concentrer sur l’essentiel : créer du lien avec les clients, entraîner des compétences et répondre à leurs besoins spécifiques. Si vous souhaitez passer moins de temps sur l’administratif et plus de temps sur la thérapie, cela vaut vraiment la peine d’essayer ces outils. L’IA n’est pas là pour nous remplacer ; elle est là pour nous aider à mieux faire notre travail. Utilisés avec discernement, ces outils peuvent amplifier notre capacité à suivre les progrès avec précision et à soutenir les familles avec les éclairages qu’elles méritent. Alors allez‑y tentez le suivi des données assisté par l’IA. Vous pourriez le trouver aussi utile que nous.

French

Au cœur de l’écosystème IA de Google : comment Gemini, AI Studio et les agents transforment discrètement la thérapie et l’éducation

Au cours de l’année écoulée, nous avons exploré en profondeur l’écosystème d’IA de Google et, honnêtement, cela a changé notre manière de travailler en thérapie et en éducation. Il ne s’agit plus seulement de Gemini, c’est la façon dont l’ensemble des outils, d’AI Studio aux agents, en passant par Notebook LM et toute une gamme d’applications, s’articulent pour créer un flux de travail réellement pensé pour des cliniciens et des enseignants très sollicités. Nous avons commencé avec Gemini, l’IA multimodale de Google, et nous avons très vite mesuré son utilité pour générer des contenus structurés et cliniquement pertinents. Qu’il s’agisse de créer une histoire sociale adaptée au profil sensoriel d’un enfant ou de simplifier un concept linguistique pour un parent, la force de Gemini réside dans sa capacité à comprendre des consignes détaillées et à fournir des brouillons utiles. Ce que nous avons le plus apprécié, c’est qu’avec un contexte clair, Gemini peut produire des supports qui semblent personnalisés et pertinents, nous faisant gagner des heures de préparation. Mais nous en avons aussi vu les limites, ce n’est pas un substitut à l’expertise clinique, et il faut parfois beaucoup d’ajustements pour en affiner les nuances. Nous avons ensuite exploré Google AI Studio, qui permet de construire des outils sur mesure reflétant votre style ou les besoins de votre file active. Nous avons créé un “générateur d’histoires sociales au langage sensoriellement adapté” et un “outil d’entraînement aux questions QU pour les premiers apprentissages langagiers”. Le meilleur dans tout ça ? Nul besoin d’être développeur concevoir quelque chose d’utile est étonnamment abordable. Quand vous automatisez une tâche répétitive, comme générer des résumés de séance ou des emails d’accompagnement aux parents, l’effet se cumule avec le temps. Nous économisons des heures chaque mois simplement grâce à ces outils prêts à l’emploi. Au niveau supérieur, la technologie d’agents de Google commence à prendre en charge des enchaînements plus complexes, en plusieurs étapes. Les agents peuvent lire vos objectifs hebdomadaires, les classer par enfant, rédiger des plans de séance, mettre à jour les documents de suivi des progrès et même préparer les emails aux parents. Au début, l’idée de workflows entièrement automatisés nous semblait un peu intimidante, mais nous avons constaté que même une automatisation partielle, comme l’auto‑génération de rapports hebdomadaires ou le tri des données clients, réduit la fatigue cognitive et libère de l’espace mental pour le cœur humain de notre métier. L’essentiel est de garder la main : les agents sont des assistants, pas des remplaçants. Nous avons aussi testé Google Notebook LM, qui vous permet de téléverser vos propres documents et de demander à l’IA de résumer, d’analyser ou même de rédiger des réponses à partir de vos notes. Pour la planification thérapeutique et la veille, c’est un moyen précieux d’organiser et d’extraire des insights de nos propres fichiers. Et avec les fonctionnalités dopées à l’IA dans Sheets et Docs, automatiser les calculs et générer des graphiques est devenu fluide. D’autres applications, comme les Chromebooks motorisés par l’IA de Google avec des fonctions avancées de synthèse vocale et de dictée, ont également fait la différence, notamment pour les apprenants ayant besoin d’outils d’accessibilité. La transcription et la traduction en temps réel dans Google Meet ont changé la donne pour les séances avec des locuteurs non natifs ou quand nous devons partager des synthèses claires avec les parents. Google Forms, avec ses enquêtes intelligentes assistées par l’IA, facilite encore la collecte de retours et le suivi des progrès, et Google Slides, avec ses suggestions de design pilotées par l’IA, nous aide à créer des présentations visuellement engageantes pour des formations ou des ateliers parents. Mais ce qui nous enthousiasme le plus vient de nos expérimentations avec Nano Banana et Nano Banana Pro. Nano Banana est un générateur de contenu IA rapide qui facilite la création, sur le vif, de visuels pédagogiques attrayants, de supports de cours et de matériaux didactiques. Il est particulièrement utile pour rendre des notions complexes accessibles et mémorables. Nano Banana Pro va plus loin, avec une génération d’images et de vidéos de haute qualité, expressives sur le plan émotionnel. C’est un changement de cap pour des vidéos d’intervention personnalisées, des histoires sociales et des démonstrations pas à pas, rendant plus simple que jamais la modélisation de compétences, de routines ou de scénarios émotionnels pour nos clients et nos élèves. Veo, l’outil de génération vidéo de Google, est un autre point fort. Il nous permet de créer en quelques minutes des vidéos sur mesure pour des explications thérapeutiques, des leçons ou des supports visuels. Qu’il s’agisse d’une courte vidéo pour démontrer une compétence, expliquer un concept ou capter l’attention d’un élève, Veo simplifie la production et nous fait gagner un temps précieux. N’oublions pas la recherche propulsée par l’IA de Google, qui met désormais en avant des études et des ressources adaptées à nos besoins spécifiques, ainsi que Google Keep avec ses rappels intelligents et son organisation des notes assistée par l’IA, qui maintient nos listes de tâches et nos notes de séance en ordre. Et pour celles et ceux qui aiment expérimenter, les nouvelles fonctions “Studio” alimentées par l’IA dans Docs et Slides permettent de générer des images, des graphiques et même des diaporamas complets en quelques clics. Ce que nous apprécions par‑dessus tout, c’est la manière dont tous ces outils sont conçus pour fonctionner ensemble. Vous pouvez démarrer par une invite dans Gemini, construire un outil personnalisé dans AI Studio, utiliser des agents pour automatiser le workflow, analyser vos résultats dans Notebook LM, puis partager vos livrables via Meet, Slides ou Keep, le tout au sein de l’écosystème Google. L’intégration est fluide, et l’on sent que ces outils sont réellement pensés pour soutenir notre pratique, sans ajouter une couche de complexité. Bien sûr, tout n’est pas parfait. La confidentialité reste une préoccupation constante, et nous veillons à ne jamais téléverser d’informations identifiantes sur les clients. Et même si ces outils sont puissants, ils nécessitent une supervision humaine, aucune IA ne remplace le jugement clinique ni la relation

Shopping Cart