Author name: Dr. Rania Kassir

French

Nano Banana 3 devient illimité : pourquoi la sortie surprise de Higgsfield compte pour les thérapeutes, les enseignants et les pratiques enrichies par l’IA

De temps en temps, le monde de l’IA réserve une surprise qui capte l’attention de tous. Cette semaine, elle vient de Higgsfield, l’entreprise derrière les modèles de génération vidéo Nano Banana réputés pour produire certaines des vidéos IA les plus nettes et les plus réalistes du marché, en débloquant des capacités jusqu’ici réservées à des offres entreprise coûteuses. Pour la plupart, la nouvelle est enthousiasmante. Pour les thérapeutes, les enseignants, les chercheurs et les créateurs travaillant dans le développement humain et la réadaptation, elle est transformatrice. Nano Banana 3 et Nano Banana Pro font partie des modèles vidéo de nouvelle génération de Higgsfield. Conçus à l’origine pour les créateurs et les studios, leur qualité, leur vitesse et leur réalisme ont attiré l’attention de professionnels de la santé, de l’éducation et, plus largement, du champ neurodéveloppemental. Ces modèles ne sont pas de simples générateurs d’avatars parlants. Ils produisent des scènes vidéo dynamiques et contextuelles, des animations humaines expressives et des clips éducatifs réalisés en un temps record le tout à partir de simples invites textuelles. Ainsi, lorsque Higgsfield a temporairement levé les restrictions, ce n’était pas uniquement destiné aux créateurs vidéo, c’était une invitation à explorer ce que pourrait être, en pratique thérapeutique et éducative, une génération vidéo de haute qualité. Qu’est-ce que Nano Banana 3, exactement ? Nano Banana 3 est le modèle vidéo léger, rapide et étonnamment réaliste de Higgsfield. Il génère de courtes vidéos fluides et expressives avec une meilleure stabilité du mouvement et moins de distorsion que les versions précédentes de Nano Banana. Nano Banana Pro, auquel l’accès est temporairement gratuity, ajoute encore davantage : Pour les thérapeutes, les enseignants et les cliniciens, cela signifie la possibilité de créer instantanément des vidéos d’intervention, des modèles de jeu de rôle, des supports visuels, des clips de psychoéducation et des scènes de démonstration qui prendraient normalement des heures à filmer. Pourquoi cette sortie est importante pour la pratique Je serai honnête : quand les modèles de génération vidéo sont apparus, je ne les voyais pas comme des outils thérapeutiques. Mais les modèles Nano Banana m’ont fait changer d’avis. Leur réalisme et leur flexibilité correspondent directement à plusieurs besoins que nous rencontrons chaque jour : modéliser la communication, décomposer des routines, illustrer des attentes sociales ou, tout simplement, rendre le contenu suffisamment engageant pour des apprenants qui ont besoin de nouveauté visuelle ou de répétition. Cette mise à disposition sans restriction supprime la barrière à l’expérimentation. Pendant trois jours, n’importe quel thérapeute ou enseignant peut tester Nano Banana Pro et constater concrètement comment la vidéo générée par IA peut soutenir ses flux de travail sans engagement financier ni friction technique. Par exemple : Ce qui rend Nano Banana particulièrement intéressant, c’est le réalisme émotionnel. Les personnages se déplacent avec un rythme naturel, un regard et une affectivité cohérents — des caractéristiques extrêmement précieuses pour les interventions en communication sociale. Mon point de vue : pourquoi vous devriez l’essayer Lorsque des outils comme celui-ci deviennent illimités, même brièvement, nous avons une occasion rare d’explorer à quoi pourrait ressembler l’avenir de l’intervention. Pas en théorie, ni en concept mais dans une expérimentation concrète et pratique. Je vois un fort potentiel pour : Un tel outil ne remplace pas la thérapie, il l’étend. Il comble l’intervalle entre les séances, aide à personnaliser l’intervention et fournit aux familles des ressources pertinentes, engageantes, culturellement adaptables et accessibles. Quelques précautions Bien sûr, la génération vidéo n’est pas exempte d’enjeux. Nous devons garder des limites claires concernant : Mais, utilisée à bon escient, Nano Banana peut aider à mettre l’échelle, enrichir les apprentissages et soutenir des environnements où le modelage visuel est une méthode d’instruction centrale. Une occasion d’explorer, pas pour se précipiter Le choix de Higgsfield d’ouvrir Nano Banana Pro au public est audacieux. C’est aussi un aperçu de l’accessibilité future de la création IA haut de gamme. Pour de nombreux professionnels, ces trois jours sont l’occasion de tester des flux de travail qui pourraient devenir la norme de la création de supports thérapeutiques personnalisés à la construction de stimuli de recherche ou de modules éducatifs. Que vous utilisiez les trois jours au complet ou seulement quelques minutes, cela vaut la peine d’essayer. Pas parce que l’IA va remplacer la présence pédagogique ou thérapeutique mais parce qu’elle peut l’étendre de manière puissante, flexible et créative.

French

Gemini 3 : le modèle le plus performant de Google et ce que cela signifie pour la thérapie, l’éducation et les approches fondées sur les neurosciences

Chaque année, l’IA avance un peu plus sur des terrains que l’on pensait réservés à la cognition humaine : nuance, empathie, raisonnement, adaptabilité. Mais avec la sortie de Gemini 3 par Google, quelque chose paraît différent. Cette nouvelle génération n’est pas qu’une mise à jour de plus c’est un basculement vers une IA qui raisonne de manière plus cohérente, communique plus naturellement et s’intègre aux écosystèmes clinique, éducatif et de recherche avec une aisance inédite. Pour beaucoup d’entre nous dans le monde thérapeutique, Gemini 3 arrive à un moment où nous jonglons avec des charges de cas croissantes, des pressions administratives et le besoin d’outils plus adaptatifs qui soutiennent, sans remplacer, notre expertise. Et, de manière surprenante ce modèle apporte une réponse adaptée à cette réalité . Ce que Gemini 3 est réellement au‑delà du marketing Google présente Gemini 3 comme son modèle multimodal le plus avancé : texte, audio, images, vidéo, graphiques, code et interactions en temps réel convergent dans un même système. Mais ce qui ressort, c’est la une plus grande stabilité dans son raisonnement. Les modèles précédents, y compris Gemini 1.5 et 2.0, étaient en tête des classements de performance mais peinaient parfois dans des tâches longues et structurées ou dans une communication de type thérapeutique. Gemini 3 montre un affinage notable. Il gère des consignes complexes et imbriquées avec moins d’erreurs. Il soutient des conversations longues sans perdre le contexte. Et peut‑être plus pertinent pour nous, il est plus sensible au ton et à l’intention. Lorsque vous demandez une explication accessible aux parents sur le trouble du traitement auditif, une stratégie de classe sensible au traumatisme, ou un résumé neutre de recherches récentes, ses réponses paraissent moins standardisées et mieux alignées avec les standards de communication clinique. Google a également renforcé les performances en multilingue, un point crucial pour nos contextes thérapeutiques et scolaires plurilingues. Gemini 3 traite l’arabe, le français et plusieurs langues d’Asie du Sud avec une stabilité bien supérieure aux itérations antérieures. Pour les familles et les éducateurs œuvrant dans des communautés linguistiquement diverses, cela compte. Comment il peut soutenir la pratique de notre point de vue Je serai franc : quand les entreprises d’IA annoncent de nouveaux modèles, ma première réaction est une curiosité prudente. « Montrez‑moi en quoi cela aide dans une vraie salle de thérapie. » Avec Gemini 3, je commence à voir des voies pratiques. Dans nos contextes thérapeutiques et éducatifs, les améliorations du modèle pourraient renforcer la pratique de plusieurs façons : Mais la vraie question est la suivante : faut‑il s’enthousiasmer ou rester prudent ? En tant que thérapeutes, nous gardons toujours un pied dans l’innovation et l’autre solidement ancré dans la sécurité. Avec Gemini 3, cette posture reste essentielle. L’enthousiasme vient de sa capacité à améliorer l’accès, réduire la surcharge et soutenir des familles qui ont besoin de plus qu’une séance hebdomadaire. Mais la prudence est nécessaire, car plus le modèle paraît « humain », plus il est facile de sur‑faire confiance à son autorité. Gemini 3 peut sembler empathique mais il ne « comprend » pas les émotions. Il peut synthétiser la recherche mais il ne remplace pas le jugement clinique. La voie à suivre, selon moi, est une intégration intentionnelle. Nous utilisons Gemini 3 pour renforcer, non eclipser, notre expertise. Nous lui confions les volets les plus lourds en charge de travail, tout en veillant à ce que l’interprétation et la décision demeurent pleinement humaines. Et nous maintenons la transparence avec nos clients, élèves et familles quant à la place de l’IA dans notre travail. Pourquoi Gemini 3 compte maintenant Nous entrons dans une période où les outils d’IA ne sont plus optionnels ils deviennent partie intégrante du paysage professionnel. Ce qui distingue Gemini 3, ce n’est pas la nouveauté, mais la maturité. Il offre suffisamment de stabilité, de profondeur et de flexibilité pour soutenir réellement la pratique, sans l’imprévisibilité erratique qui caractérisait les générations précédentes. Pour les thérapeutes, les enseignants spécialisés et les chercheurs, Gemini 3 représente une opportunité de reprendre du temps, d’affiner la personnalisation et d’accroître notre capacité à délivrer des soins. Mais il nous invite aussi à réfléchir avec lucidité à notre rôle dans cet écosystème en mutation : mener la conversation sur l’intégration éthique, former la prochaine génération à la littératie en IA et veiller à ce que la technologie demeure un outil d’autonomisation plutôt qu’un substitut. L’avenir de la thérapie reste centré sur l’humain. Gemini 3 nous donne simplement plus d’espace pour que cela le reste.

French

Tavus.io : le développement de la vidéo “AI Human” et ses implications pour la thérapie, l’éducation et l’interaction des patients

La vidéo générée par IA a évolué rapidement, mais Tavus.io représente l’un des bonds les plus significatifs non seulement pour le marketing ou la création de contenu, mais aussi pour les pratiques centrées sur l’humain. Tavus combine vidéo générative et IA conversationnelle, permettant de créer des « AI Humans » hyperréalistes qui ressemblent à une vraie personne, parlent et répondent en temps réel. Pour celles et ceux qui travaillent en thérapie, en rééducation, en éducation spécialisée ou en recherche en santé, cette technologie ouvre des perspectives fascinantes en matière de lien, de continuité et de soutien. Tavus permet à quiconque de créer une version numérique de soi à partir d’un court enregistrement vidéo. Grâce à une synthèse vidéo avancée, à la réplication de la voix et à un moteur conversationnel en temps réel, l’AI Human peut ensuite délivrer des informations personnalisées, répondre aux questions et maintenir un dialogue naturel en aller‑retour. Ce qui distingue Tavus, c’est le caractère convaincant de ces interactions le mouvement des lèvres, le timbre, les micro‑expressions, les pauses et même la chaleur relationnelle sont remarquablement bien reproduits. Ce n’est pas un avatar scripté lisant un texte : c’est un système dynamique et adaptatif capable de soutenir une conversation. L’un des aspects les plus convaincants de Tavus est sa présence émotionnelle. De nombreux outils d’IA peuvent générer du texte ou de la voix, mais Tavus ajoute la couche visuelle et relationnelle sur laquelle s’appuient souvent les thérapeutes et les enseignants. Pour un enfant ayant des difficultés d’attention, par exemple, voir un visage familier expliquer une tâche peut être plus interactif que de simples consignes audio. Pour des familles qui ont besoin d’une psychoéducation cohérente, l’AI Human d’un thérapeute peut les accompagner pas à pas entre les séances routines, exercices à domicile, stratégies comportementales. La technologie ne remplace pas l’interaction thérapeutique réelle mais elle peut en étendre le sentiment de continuité et personnaliser le soutien au‑delà de l’heure programmée. La plateforme se situe aussi à l’intersection de l’accessibilité et de la mise à l’échelle. Beaucoup de cliniciens peinent à produire des ressources individualisées, à enregistrer des vidéos pédagogiques ou à maintenir un suivi régulier. Avec Tavus, une réplique numérique peut générer des rappels ciblés, expliquer les étapes d’un protocole thérapeutique ou proposer des modèles d’apprentissage sans exiger de nouvelles prises à chaque fois. Pour les enseignants en éducation spécialisée, cela peut signifier des consignes visuelles personnalisées pour des élèves qui ont besoin de répétition et de prévisibilité. Pour les chercheurs, Tavus ouvre la voie à des passations vidéo standardisées mais naturalistes dans des études cognitives ou comportementales, améliorant la cohérence entre participants. Ces nouvelles capacités exigent néanmoins une réflexion attentive. Cloner le visage et la voix d’un clinicien soulève des questions éthiques de consentement, d’identité et de frontières professionnelles. Les chercheurs et cliniciens doivent être transparents quant à l’usage de leur AI Human, aux publics qui interagiront avec lui et aux données collectées. Des enjeux relationnels se posent aussi : si un patient s’attache à l’avatar d’un thérapeute, quel impact sur l’alliance thérapeutique ? Comment prévenir toute confusion entre un clinicien humain et sa représentation numérique ? Le réalisme émotionnel qui fait la force de Tavus est aussi celui qui impose des garde‑fous réfléchis. Sur le plan de la recherche, l’API conversationnelle en temps réel de Tavus est particulièrement remarquable. Les développeurs peuvent entraîner l’AI Human sur des corpus spécifiques principes thérapeutiques, contenus éducatifs, référentiels institutionnels et l’intégrer à des applications ou plateformes web. Cela pourrait déboucher sur de nouvelles modalités d’interventions auto‑guidées, d’identification précoce des besoins ou de pratique conversationnelle structurée pour des personnes présentant des difficultés de communication sociale. La capacité à diffuser un accompagnement vidéo personnalisé à grande echelle, auprès de milliers d’apprenants ou de patients, est sans précédent. Le potentiel de Tavus ne se limite toutefois pas à la transmission d’informations : il réside aussi dans le renforcement de la présence humaine derrière le message. Le système capture la familiarité du visage, de la voix et du style relationnel d’un clinician, chose que les IA textuelles ne peuvent pas offrir. Utilisé de manière responsable, cela peut renforcer l’interaction, améliorer l’adhésion aux programmes de soins et soutenir les personnes qui bénéficient de sollicitations visuelles fréquentes ou de signaux de réassurance. Tavus n’est pas un substitut à la thérapie. C’est une nouvelle modalité de communication qui associe présence humaine et scalabilité de l’IA. Pour de nombreux cliniciens et éducateurs, la question n’est plus « Est‑ce que cela arrive ? » mais « Comment bien l’utiliser ? » À mesure que la vidéo IA évolue, Tavus offre un aperçu d’un futur où les outils numériques paraissent moins mécaniques et plus relationnels, donnant aux professionnels de nouvelles façons d’étendre le soin, de renforcer les apprentissages et de combler les écarts en dehors de la salle de consultation. Lectures recommandées

French

ChatGPT 5.1 : l’IA la plus « humaine » à ce jour et ce que cela implique pour notre travail en thérapie, éducation et recherche

Si vous utilisez ChatGPT depuis un moment, vous avez peut‑être remarqué quelque chose ce mois‑ci : il semble soudain différent. Plus chaleureux. Plus précis. Un peu plus… humain. Ce n’est pas un hasard. Le 12 novembre 2025, OpenAI a officiellement déployé ChatGPT 5.1, et cette mise à jour marque discrètement l’un des plus grands tournants dans notre manière de travailler avec l’IA en contextes clinique, éducatif et de recherche. J’ai passé la semaine dernière à l’expérimenter pour la planification de thérapie, l’analyse académique et la conception de contenus. Ce qui m’a frappé n’est pas seulement l’amélioration de la precision, c’est la façon dont l’IA « tient » désormais la conversation. On a moins l’impression d’interroger une machine que de collaborer avec un collègue compétent, qui ajuste son ton et sa profondeur selon le besoin. Ce n’est pas du battage, c’est de l’architecture. Et cela vaut la peine de comprendre ce qui a changé, car ces changements comptent réellement pour la pratique. Une nouvelle forme d’IA : adaptative, expressive et étonnamment humaine La mise à jour GPT‑5.1 introduit deux comportements de modèle qui changent concrètement son utilité : Contrôle du ton : la fonctionnalité qui change tout GPT‑5.1 introduit huit présélections de « personnalité » (Professionnel, Amical, Franc, Décalé, Geek, Cynique, Efficace et Par défaut), ainsi que des curseurs expérimentaux pour régler : Pour les cliniciens et les chercheurs, cela permet d’adapter la sortie de l’IA à l’objectif :un script de psychoéducation pour une réunion avec des parents n’exige pas la même « voix » qu’une synthèse de recherche ou qu’un compte rendu thérapeutique.Ce niveau de contrôle est peut‑être l’un des pas les plus importants vers une IA réellement utilisable dans des domaines sensibles et centrés sur l’humain. Où GPT‑5.1 change concrètement la pratique Après l’avoir testé dans plusieurs contextes, trois évolutions se dégagent : Rien n’est parfait et c’est essentiel de le dire. Avec un langage plus expressif, ChatGPT 5.1 a parfois tendance à la sur‑explicitation. Les réponses peuvent être trop soignées ou trop longues. Cela peut paraître anodin, mais en contexte thérapeutique ou médical, l’excès de verbosité peut diluer la précision. Il y a aussi une réalité éthique plus vaste :plus ces modèles paraissent humains, plus il est facile d’oublier qu’ils ne le sont pas.GPT‑5.1 peut paraître empathique, mais il n’éprouve pas d’empathie.Il peut sembler réfléchi, mais il ne comprend pas véritablement.Il peut très bien rédiger des notes cliniques, mais il ne remplace pas le jugement.En d’autres termes : GPT‑5.1 est un partenaire puissant, tant que l’humain reste aux commandes. Et maintenant ? Ce que je trouve le plus encourageant, c’est que GPT‑5.1 donne l’impression d’un modèle pensé pour les professionnels. Il respecte le ton. Il respecte la nuance. Il comprend que toutes les tâches ne se valent pas, certaines exigent de la vitesse, d’autres de la profondeur. Pour celles et ceux qui travaillent en thérapie, éducation, psychologie, neurosciences et recherche, cette mise à jour apporte quelque chose dont nous avions besoin depuis longtemps :un outil capable de nous rejoindre là où nous en sommes, de s’adapter à ce dont nous avons besoin, et d’amplifier, sans remplacer, notre expertise.ChatGPT 5.1 ne rend pas seulement l’IA plus puissante.Il la rend plus utilisable.Et c’est un tournant. Sources

English

The Mind-Reading AI? How Brain-Computer Interfaces Are Changing Therapy Forever

What if artificial intelligence could read your thoughts — not to spy on you, but to heal your brain? It may sound like science fiction, yet emerging research in brain-computer interfaces (BCIs) powered by AI is rapidly reshaping possibilities for people with paralysis, speech loss, or severe trauma. For professionals working in therapy, special education, and neuroscience, this isn’t just a technologic novelty — it signals a fundamental change in how we might approach intervention, autonomy, and recovery. Decoding the Brain: How BCIs and AI Work At their core, BCIs translate neural activity into digital commands. Historically, these devices captured signals (via EEG, implanted electrodes or minimally-invasive sensors) that corresponded with a user’s intention — like moving a cursor or selecting a letter. The leap now comes from AI. Sophisticated machine-learning and deep-neural-network models can decode nuanced brain patterns, adjust in real time, and even predict states such as mood shifts or seizure events. For example, a man with partial paralysis used a non-invasive BCI-AI hybrid system to control a robotic arm and complete screen-based tasks four times more effectively than with the device alone. This is not automation—it’s collaboration. The AI decodes the signal, but the human leads the intention. As a practitioner, it means thinking of BCIs not as “devices we deliver to clients” but as extensions of the therapeutic interface — neural input, meaningful output, and a feedback loop that connects brain to device, device to action, and action to meaning. Breakthroughs in 2024-25: From Paralysis to Restoration Recent stories illustrate the pace of change. A 2025 article reported how a man with paralysis controlled a robotic arm via thought alone, thanks to an AI-enhanced BCI. Another major milestone: the company Medtronic’s BrainSense Adaptive Deep Brain Stimulation system — a closed-loop BCI-informed therapy for Parkinson’s — was named one of TIME’s “Best Inventions of 2025” after more than 1,000 patients received the treatment. These examples aren’t just about technology; they’re about therapy delivered at the brain level. Speech therapists, neurorehabilitation professionals, and educators who support motor recovery might soon interact with clients whose therapy includes neural-interface elements: devices that decode intention, guide movement, or translate thought into speech. For many clients, the promise of regained autonomy—typing messages, controlling assistive devices, or even walking—becomes real. Ethical and Practical Considerations for Clinical Practice Despite the excitement, the shift from novelty to mainstream carries enormous responsibility. Data from neural interfaces is intensely personal: thinking, intending, perhaps even emoting. Decoding inner speech raises privacy questions. One recent implant study could interpret a user’s “inner monologue” with up to 74% accuracy. As clinicians or educators, we must ask: how do we preserve dignity, agency, and consent when the very channel of thought becomes part of therapy? Accessibility is another concern. These technologies are highly specialist, invasive in certain cases, and expensive. Without careful integration, we risk creating a two-tier system where only some clients benefit. The research commentary on BCIs in 2025 notes that despite dramatic advances, many devices still require frequent recalibration and remain confined to labs. From a practice standpoint, we’re entering the era of hybrid therapy—one where neural devices, AI analytics, and human relational expertise converge. Our role expands: we’re interpreters of neural data, ethical stewards of device use, and guides of clients whose therapy includes machine-mediated experience. The therapeutic alliance doesn’t disappear—it deepens. For therapists, special educators and researchers, the rise of AI-enabled BCIs signals three shifts: In effect, the future of rehabilitation and intervention may involve thought, device, and context in tandem—with the human at the centre, but AI and BCIs as powerful allies. While fully mainstream neurotechnology may still be a few years away, the trajectory is clear. We might soon design therapy plans that include neural intention measurement, adaptive devices that respond to brain-states, and home-based neural support systems. For now, staying informed, curious and ethically grounded is vital. When the channel of change is the brain itself, our practice must become correspondingly profound. Suggested Reading: Live Science (2025): The new implant that can decode inner speech

English

AI Ethics in Healthcare — Building Trust in the Age of Intelligent Therapy

Artificial intelligence has woven itself into the fabric of modern healthcare. From diagnostic imaging to speech and language therapy, AI now touches nearly every aspect of practice. But as the technology grows more powerful, so does the need for clear ethical boundaries. Recent international reports and consensus statements show that 2025 may be remembered as the year the world finally agreed on what “ethical AI in healthcare” must look like. Across countries and disciplines, regulators and researchers are converging on similar principles: transparency, accountability, fairness, and above all, human oversight. The International Medical Committee of Research (ICMR) recently published its Ethical Guidelines for the Application of Artificial Intelligence in Biomedical Research and Healthcare, a comprehensive document outlining the responsibilities of professionals who use AI in health-related contexts. These guidelines call for explicit consent procedures, clear communication about the use of AI, and strong governance around data protection. At the same time, the World Medical Association (WMA) released its summary document on the Ethical, Legal, and Regulatory Aspects of AI in Healthcare — a blueprint that urges health and therapy professionals to safeguard autonomy and to ensure that the “human-in-the-loop” principle remains non-negotiable. This echoes the FUTURE-AI framework, published in The BMJ, which identifies seven pillars for trustworthy AI: fairness, transparency, human-centeredness, robustness, explainability, accountability, and sustainability. For therapists, educators, and clinical researchers, these frameworks are more than abstract policies — they are practical guardrails. As AI becomes more embedded in clinical systems, therapists may rely on algorithmic suggestions to guide interventions, predict outcomes, or tailor materials. Yet ethical AI demands that professionals remain critical thinkers, not passive users. A language model may suggest a therapy strategy or generate a progress note, but it cannot capture the emotional subtleties, ethical dilemmas, or contextual nuances that define human care. The implications for practice are profound. When integrating AI tools — whether a language analysis app, an adaptive learning system, or a mental health chatbot — professionals must consider how these tools handle data, what assumptions shape their algorithms, and whether clients fully understand the role of AI in their care. Informed consent becomes a living process, not a one-time checkbox. Ethical AI also requires vigilance against bias. Many datasets that train AI systems underrepresent neurodiverse populations, minority language users, or people from low-resource contexts. When bias is embedded in data, it is embedded in outcomes — potentially amplifying inequities rather than reducing them. The current international guidelines call on practitioners to advocate for inclusivity in AI design, urging collaboration between clinicians, technologists, and patient communities. Ultimately, the question is not whether AI should be part of healthcare — it already is — but how we ensure it serves humanity rather than undermines it. The future of therapy and rehabilitation will likely be hybrid: human judgment empowered by machine intelligence. But the ethical compass must always point toward empathy, consent, and equity. Professionals who engage early with these ethical frameworks position themselves as leaders in responsible innovation. Reading and reflecting on them isn’t just regulatory compliance — it’s professional integrity in action. Further Reading:

French

L’IA lit-elle nos pensées ? Les interfaces cerveau-ordinateur qui bouleversent la thérapie

Et si l’intelligence artificielle pouvait « lire » vos pensées, non pour vous espionner, mais pour soigner votre cerveau ? Cela ressemble à de la science‑fiction, pourtant la recherche émergente sur les interfaces cerveau–ordinateur (ICO) dopées à l’IA redéfinit rapidement les possibles pour les personnes vivant avec une paralysie, une perte de la parole ou un traumatisme sévère. Pour les professionnels de la thérapie, de l’éducation spécialisée et des neurosciences, ce n’est pas une simple curiosité technologique, c’est un basculement majeur dans notre façon d’aborder l’intervention, l’autonomie et la récupération. Décoder le cerveau : comment fonctionnent les ICO et l’IA Au cœur du dispositif, les ICO traduisent l’activité neuronale en commandes numériques. Historiquement, ces systèmes captaient des signaux (via EEG, électrodes implantées ou capteurs mini‑invasifs) correspondant à l’intention de l’utilisateur, déplacer un curseur, sélectionner une lettre. Le saut qualitatif vient aujourd’hui de l’IA. Des modèles avancés d’apprentissage automatique et de réseaux de neurones profonds savent décoder des motifs cérébraux subtils, s’ajuster en temps réel et même prédire des états comme des variations d’humeur ou des épisodes épileptiques. Par exemple, un homme atteint de paralysie partielle a utilisé un système hybride ICO ‑IA non invasif pour contrôler un bras robotisé et accomplir des tâches sur écran quatre fois plus efficacement qu’avec l’appareil seul. Ce n’est pas de l’automatisation, c’est une collaboration. L’IA décode le signal, mais l’intention reste humaine. Pour le praticien, il s’agit de penser la ICO non comme un « dispositif livré au patient », mais comme une extension de l’interface thérapeutique, entrée neuronale, sortie porteuse de sens, et une boucle de rétroaction qui relie cerveau à dispositif, dispositif à action, et action à signification. Percées 2024–2025 : de la paralysie à la restauration Des récits récents illustrent l’accélération. Un article de 2025 a rapporté le cas d’un homme paralysé contrôlant un bras robotisé par la pensée grâce à une ICO renforcée par l’IA. Autre jalon majeur : le système BrainSense de stimulation cérébrale profonde adaptative de Medtronic (une thérapie « en boucle fermée » guidée par ICO pour la maladie de Parkinson) a été classé parmi les « meilleures inventions de 2025 » par TIME après plus de 1 000 patients traités. Ces exemples ne parlent pas seulement de technologie ; ils parlent de thérapie délivrée au niveau du cerveau. Les neuro rehabilateurs impliqués dans la récupération motrice pourraient bientôt accompagner des clients dont le parcours de soins inclut des éléments d’interface neurale : des dispositifs qui décodent l’intention, guident le mouvement ou traduisent la pensée en parole. Pour beaucoup, la promesse d’une autonomie retrouvée, saisir des messages, piloter des aides techniques, voire marcher, devient tangible. Enjeux éthiques et pratiques pour la clinique Malgré l’enthousiasme, le passage de la nouveauté au courant dominant s’accompagne d’une grande responsabilité. Les données issues des interfaces neurales sont d’une intimité extrême : penser, intentionner, peut‑être même ressentir. Le décodage de la parole intérieure soulève des questions de confidentialité. Une étude récente avec implant a pu interpréter le « monologue intérieur » d’un utilisateur avec une précision allant jusqu’à 74 %. En tant que cliniciens ou éducateurs, demandons‑nous : comment préserver dignité, autonomie et consentement lorsque le canal même de la pensée entre dans la thérapie ? L’accessibilité pose également question. Ces technologies sont hautement spécialisées, parfois invasives et coûteuses. Mal intégrées, elles peuvent créer un système à deux vitesses où seuls certains bénéficient. Des commentaires de recherche en 2025 rappellent que, malgré les progrès spectaculaires, nombre de dispositifs exigent encore des recalibrations fréquentes et restent confinés aux laboratoires. Sur le plan pratique, nous entrons dans l’ère de la thérapie hybride, où dispositifs neuraux, analyses par IA et expertise relationnelle humaine convergent. Notre rôle s’élargit : interprètes des données neuronales, garants éthiques de l’usage des dispositifs, et guides de clients dont l’expérience thérapeutique est médiée par la machine. L’alliance thérapeutique ne disparaît pas, elle se renforce. Trois évolutions clés pour les thérapeutes, les enseignants spécialisés et les chercheurs En somme, l’avenir de la réadaptation et de l’intervention combinera pensée, dispositif et context, avec l’humain au centre, et l’IA/les ICO comme alliés puissants. Bien que la neurotechnologie grand public ne soit peut‑être qu’à quelques années, la trajectoire est claire. Bientôt, nous pourrions concevoir des plans de thérapie intégrant la mesure de l’intention neurale, des dispositifs adaptatifs sensibles aux états cérébraux, et des systèmes d’accompagnement à domicile. D’ici là, rester informé, curieux et fermement ancré dans l’éthique est essentiel. Lorsque le canal du changement est le cerveau lui‑même, notre pratique doit gagner en profondeur à la même mesure. Lectures suggérées

French

Éthique de l’IA en santé construire la confiance à l’ère de la thérapie intelligente

L’intelligence artificielle s’est désormais tissée au cœur du système de santé moderne. De l’imagerie diagnostique à l’orthophonie, l’IA touche aujourd’hui presque chaque facette de la pratique. Mais plus la technologie gagne en puissance, plus le besoin de repères éthiques clairs s’impose. Des rapports internationaux et des déclarations de consensus récents laissent penser que 2025 pourrait rester comme l’année où le monde s’est enfin accordé sur ce que doit être une « IA éthique en santé ». Dans tous les pays et disciplines, régulateurs et chercheurs convergent vers des principes similaires: transparence, responsabilité, équité et, surtout, supervision humaine. Le Conseil Indien de la Recherche Médicale (ICMR) a publié récemment ses Lignes directrices éthiques pour l’application de l’intelligence artificielle en recherche biomédicale et en santé, un document de référence qui précise les responsabilités des professionnels utilisant l’IA en contexte de santé. Ces directives exigent des procédures de consentement explicites, une communication claire sur l’usage de l’IA, et une gouvernance solide de la protection des données. Parallèlement, l’Association Médicale Mondiale (AMM/WMA) a diffusé un document de synthèse sur les aspects éthiques, juridiques et réglementaires de l’IA en santé une feuille de route qui appelle les professionnels du soin et de la rééducation à protéger l’autonomie et à garantir le caractère non négociable du « human-in-the-loop », la présence humaine dans la boucle décisionnelle. Ce positionnement fait écho au cadre FUTURE-AI, publié dans The BMJ (British Medical Journal), qui identifie sept piliers d’une IA digne de confiance: équité, transparence, centrage humain, robustesse, explicabilité, responsabilité et durabilité. Pour les thérapeutes, les éducateurs et les chercheurs cliniques, ces cadres ne sont pas de simples politiques abstraites ce sont des garde-fous opérationnels. À mesure que l’IA s’intègre aux systèmes cliniques, les thérapeutes peuvent s’appuyer sur des recommandations algorithmiques pour orienter les interventions, anticiper les résultats ou adapter les supports. Pourtant, une IA éthique exige que les professionnels demeurent des penseurs critiques, non des utilisateurs passifs. Un modèle de langage peut proposer une stratégie thérapeutique ou générer une note d’évolution, mais il ne saisit pas les subtilités émotionnelles, les dilemmes éthiques ni les nuances contextuelles qui fondent la relation de soin. Les implications pour la pratique sont majeures. Lorsqu’ils intègrent des outils d’IA, qu’il s’agisse d’une application d’analyse du langage, d’un système d’apprentissage adaptatif ou d’un agent conversationnel en santé mentale, les professionnels doivent examiner la gestion des données par ces outils, les hypothèses qui orientent leurs algorithmes, et vérifier que les clients comprennent pleinement le rôle de l’IA dans leur prise en charge. Le consentement éclairé devient alors un processus continu, pas une case à cocher une fois pour toutes. Une IA éthique suppose aussi une vigilance constante face aux biais. De nombreux jeux de données qui entraînent les systèmes d’IA sous‑représentent les personnes neurodivergentes, les locuteurs de langues minoritaires ou les populations à faibles ressources. Lorsque le biais est dans les données, il se retrouve dans les résultats avec le risque d’amplifier les inégalités au lieu de les réduire. Les lignes directrices internationales actuelles invitent les praticiens à défendre l’inclusivité dès la conception des IA, en favorisant la collaboration entre cliniciens, technologues et communautés de patients. Au fond, la question n’est pas de savoir si l’IA doit faire partie du système de santé, elle en fait déjà partie, mais comment s’assurer qu’elle serve l’humain sans le desservir. L’avenir de la thérapie et de la réadaptation sera probablement hybride: un jugement clinique éclairé, amplifié par l’intelligence machine. Mais la boussole éthique doit toujours pointer vers l’empathie, le consentement et l’équité. Les professionnels qui s’approprient tôt ces cadres éthiques se positionnent comme des acteurs de référence de l’innovation responsable. Les lire et les mettre en perspective n’est pas qu’une question de conformité réglementaire, c’est l’éthique professionnelle en action. Pour aller plus loin

English

OpenAI’s 2028 Vision: The Rise of Fully Autonomous AI Researchers

The pace of artificial intelligence advancement has been staggering, but OpenAI’s latest announcement marks a turning point that could redefine scientific discovery itself. By 2028, the company aims to develop fully autonomous AI researchers—systems capable of independently conceiving, executing, and refining entire scientific studies without human intervention. This isn’t merely an evolution of existing tools; it represents a fundamental shift in how knowledge is generated, one that promises to accelerate breakthroughs in fields ranging from neuroscience to education while forcing us to confront profound questions about the nature of research, authorship, and human expertise. The implications for scientists, clinicians, and educators are immense. Imagine an AI that doesn’t just assist with data analysis but actively designs experiments based on gaps in current literature, adjusts methodologies in real-time as new evidence emerges, and publishes findings that push entire fields forward. For researchers drowning in the ever-expanding sea of academic papers, this could mean identifying meaningful patterns in days rather than years. Therapists might gain access to personalized intervention strategies derived from millions of case studies, while special educators could receive AI-generated instructional approaches tailored to individual learning profiles. Yet with these possibilities comes an urgent need to consider: How do we ensure these systems serve human needs rather than commercial interests? What happens when AI makes discoveries we can’t fully explain? And how do we maintain ethical standards when the researcher is an algorithm? OpenAI’s roadmap to this future unfolds in deliberate stages, with the first major milestone arriving in 2026. By then, the company expects to deploy AI systems functioning as research interns—tools sophisticated enough to synthesize existing literature, propose testable hypotheses, and even draft experimental protocols with minimal human oversight. This intermediate step is crucial, as it allows the scientific community to adapt to AI collaboration before full autonomy becomes reality. The transition will require more than just technological advancement; it demands a cultural shift in how we view research. Peer review processes may need to evolve to accommodate AI-generated studies. Funding agencies might prioritize projects that leverage these tools effectively. And perhaps most importantly, researchers themselves will need to develop new skills—not just in using AI, but in critically evaluating its outputs, understanding its limitations, and ensuring its applications align with ethical principles. The potential benefits are undeniable. In psychology, an autonomous AI researcher could analyze decades of therapy outcome data to identify which interventions work best for specific demographics, leading to more effective treatments. In special education, it might design and test personalized learning strategies for students with unique cognitive profiles, offering educators evidence-based approaches they previously lacked. Even in fundamental science, AI could accelerate the pace of discovery by running thousands of virtual experiments in the time it takes a human lab to complete one. Yet these advantages come with significant risks. Without careful oversight, AI systems could perpetuate biases present in existing data, overlook nuanced human factors that don’t fit neat statistical patterns, or even generate findings that appear valid but lack real-world applicability. The challenge, then, isn’t just building these systems—but building them responsibly. As we stand on the brink of this new era, the scientific community faces a critical choice. We can approach this transition reactively, waiting to address problems as they arise, or we can take a proactive stance, establishing guidelines, ethical frameworks, and validation processes now. The latter approach requires collaboration across disciplines—computer scientists working with ethicists, clinicians partnering with AI developers, and educators helping shape how these tools integrate into real-world practice. It also demands public engagement, as the implications extend far beyond academia. When AI begins making discoveries that affect healthcare, education, and policy, who decides how those findings are used? The answers to these questions will determine whether this technological leap empowers humanity or leaves us struggling to keep up with machines that outpace our understanding. Ultimately, the rise of autonomous AI researchers isn’t just about faster science—it’s about redefining what research means in an age where human and machine intelligence intertwine. The goal shouldn’t be to replace human researchers, but to create a synergy where AI handles the heavy lifting of data and computation while humans bring creativity, ethical judgment, and real-world insight. If we navigate this transition thoughtfully, we could unlock a new golden age of discovery—one where the most pressing questions in psychology, education, and medicine find answers at an unprecedented pace. But if we fail to prepare, we risk creating a system where the pursuit of knowledge outpaces our ability to use it wisely. The clock is ticking; 2028 is closer than it seems, and the time to shape this future is now.

English

The 2026 Milestone: AI Research Interns and the Changing Face of Scientific Collaboration

The scientific community stands at the threshold of a transformative shift. By September 2026, OpenAI plans to introduce AI systems capable of functioning as research interns—tools that go beyond simple data analysis to actively assist in literature synthesis, hypothesis generation, and experimental design. This development marks more than just a technological upgrade; it represents the first step toward a future where artificial intelligence becomes an integral partner in the research process. For psychologists, neuroscientists, and educators, this shift could mean faster insights, more efficient studies, and unprecedented opportunities for discovery—but it also demands a fundamental rethinking of how we conduct, validate, and apply scientific knowledge. The concept of an AI research intern might sound abstract, but its practical applications are both immediate and profound. Consider a clinical psychologist investigating new therapies for anxiety disorders. Today, the process begins with months of literature review, sifting through hundreds of studies to identify gaps and opportunities. An AI intern could accomplish this in hours, not only summarizing existing research but highlighting unexplored connections—perhaps noticing that certain demographic groups respond differently to mindfulness-based interventions, or that combination therapies show promise in understudied populations. From there, the AI might propose specific hypotheses (“Would adding a social skills component improve outcomes for adolescents with comorbid anxiety and autism?”) and even draft preliminary study designs, complete with sample size calculations and methodological considerations. For researchers accustomed to the slow, labor-intensive nature of academic work, this level of support could dramatically accelerate the pace of discovery, allowing them to focus on the creative and interpretive aspects of their work rather than the mechanical. Yet the introduction of AI interns isn’t just about efficiency—it’s about changing the very nature of research collaboration. Traditional scientific work relies on human intuition, serendipitous connections, and deep domain expertise, qualities that AI currently lacks. The most effective use of these tools will likely emerge from a hybrid approach, where AI handles the repetitive and data-intensive tasks while human researchers provide contextual understanding, ethical oversight, and creative problem-solving. For instance, an AI might identify a statistical correlation between early childhood screen time and later attention difficulties, but it would take a developmental psychologist to interpret whether this reflects causation, confounding variables, or cultural biases in the data. Similarly, in special education research, an AI could analyze vast datasets on reading interventions, but an experienced educator would need to determine how those findings apply to individual students with complex, multifaceted needs. The integration of AI interns also raises critical ethical and practical questions that the scientific community must address proactively. One of the most pressing concerns is validation. How do we ensure that AI-generated hypotheses are rigorous and reproducible rather than artifacts of flawed data or algorithmic bias? Peer review processes may need to adapt, incorporating AI literacy as a standard requirement for evaluators. Funding agencies might develop new criteria for AI-assisted research, ensuring that proposals leverage these tools responsibly. And journals will face the challenge of authorship and transparency—should AI systems be credited as contributors? If so, how do we distinguish between human-led and AI-driven insights? Another significant consideration is equity. While AI interns could democratize research by giving smaller labs and underfunded institutions access to powerful analytical tools, they could also exacerbate existing disparities if only well-resourced teams can afford the most advanced systems. OpenAI and similar organizations have a responsibility to prioritize accessibility, perhaps through open-source models or subsidized access for academic researchers. Similarly, there’s a risk that AI systems trained primarily on data from Western, educated, industrialized populations could overlook or misrepresent other groups, reinforcing biases in scientific literature. Addressing this requires diverse training datasets and inclusive development teams that understand the limitations of current AI models. Perhaps the most profound impact of AI research interns will be on the next generation of scientists. Graduate students and early-career researchers may find themselves in a radically different training environment, where traditional skills like manual literature reviews become less essential, while AI literacy, prompt engineering, and critical evaluation of machine-generated insights grow in importance. Academic programs will need to evolve, teaching students not just how to use AI tools, but how to think alongside them—when to trust their outputs, when to question them, and how to integrate them into a human-centered research process. This shift could also reshape mentorship, with senior researchers guiding juniors not just in experimental design, but in navigating the ethical and practical challenges of AI collaboration. As we approach the 2026 milestone, the scientific community would be wise to prepare rather than react. Researchers can begin by experimenting with current AI tools, such as literature synthesis platforms like Elicit or data analysis assistants like IBM Watson, to understand their strengths and limitations. Institutions should develop guidelines for AI-assisted research, addressing questions of authorship, validation, and bias mitigation. And perhaps most importantly, we must foster interdisciplinary dialogue, bringing together computer scientists, ethicists, domain experts, and policymakers to ensure that these tools are designed and deployed responsibly. The arrival of AI research interns isn’t just a technological advancement—it’s a cultural shift in how we pursue knowledge. If we embrace this change thoughtfully, it could liberate researchers from tedious tasks, accelerate meaningful discoveries, and open new frontiers in science. But if we fail to engage with its challenges, we risk creating a system where the speed of research outpaces its quality, where algorithmic biases go unchecked, and where human expertise is undervalued. The choice isn’t between rejecting AI or accepting it uncritically—it’s about shaping its role in a way that enhances, rather than diminishes, the pursuit of truth. The countdown to 2026 has begun; the time to prepare is now.

Shopping Cart