
La cybersécurité n'est plus un problème informatique de niche. C'est une condition de la vie moderne: les banques, l'éducation, les services gouvernementaux et les soins de santé fonctionnent tous sur des couches fragiles de logiciels que nous voyons rarement. La plupart des gens remarquent cette fragilité quand quelque chose tourne mal—une panne, une rupture, un compte verrouillé, un système qui ne peut soudainement pas être fiable. Le risque est large, mais les conséquences ne sont pas uniformément réparties.
Dans les soins de santé, cette inégalité est ressentie rapidement. Lorsque les systèmes numériques échouent, les soins ne s'arrêtent pas poliment jusqu'à ce que les choses reviennent en ligne. Les gens continuent de se montrer affligés, dangereux ou en pleine crise, et les cliniciens doivent toujours prendre des décisions avec des informations incomplètes. L'"incident technique" devient humain, souvent en quelques minutes.
C'est pourquoi les thérapeutes devraient prendre soin même quand la conversation semble loin de notre travail quotidien. En thérapie, la cybersécurité s'annonce rarement comme "cyber". Il apparaît comme une séance brusquement annulée parce que l'horaire est coupé, un lien de télésanté qui échoue au dernier moment, ou une clinique soudainement incapable d'accéder aux notes. Il apparaît aussi comme un client demandant, tranquillement mais directement, si leurs messages sont vraiment privés.
Dans ce contexte, Anthropiques 7 avril 2026 annonce du projet Glasswing est plus que des nouvelles technologiques. Ils ont décrit un modèle inédit, Aperçu de Claude Mythos, et a souligné qu'il pas être mis à disposition en général. Au lieu de cela, il est acheminé par un programme restreint, encadré autour d'une utilisation défensive. Quand un laboratoire d'IA décide qu'un modèle est trop capable de se libérer, c'est un signal indiquant où se dirige le paysage de la menace.
La raison clé donnée pour le verrouillage est simple et troublant: Anthropic présente Mythos Preview comme capable de trouver de graves vulnérabilités avec très peu de direction humaine. En termes clairs, il pourrait repérer des points faibles dans les logiciels plus rapidement et de manière plus autonome que les systèmes précédents. Même si l'intention est la défense, la capacité elle-même compte, parce que les capacités tendent à se propager, et parce que les attaquants s'adaptent également.
Les exemples anthropiques sont le genre qui rendent les personnes non techniques difficiles pour une bonne raison. Ils mettent en évidence les faiblesses des logiciels fondamentaux largement utilisés et décrivent des cas où des problèmes persistent pendant des années, voire des décennies, sans être pris. C'est la vérité inconfortable sur l'infrastructure numérique: de nombreux systèmes que nous traitons comme stables sont cousus ensemble à partir de bases de code avec de longues histoires, entretien inégal, et complexité cachée.
Si cela reste abstrait, ramenez-le aux outils que nous utilisons. Les plateformes de télésanté dépendent des navigateurs, des systèmes d'exploitation, des serveurs et des bibliothèques tierces. Les systèmes de planification et les portails patients dépendent des intégrations et des API qui peuvent facilement multiplier les risques. Une vulnérabilité « quelque part en amont » peut devenir un temps d'arrêt, une exposition aux données ou une perturbation du service lorsque les clients rencontrent des soins.
Il y a aussi une question structurelle qui compte pour les soins de santé: qui a accès aux outils de protection les plus puissants, et quand? Restreindre un modèle à haute capacité peut réduire l'utilisation abusive immédiate, mais il concentre également la puissance et l'expertise dans un petit ensemble d'organisations. Les petites cliniques et les vendeurs peuvent finir par dépendre des délais de sécurité, des priorités et des décisions de divulgation qu'ils peuvent facilement voir ou influencer. Cet écart, entre attentes éthiques et réalités techniques—peut devenir un problème de confiance.
Pratiquement, cela nous pousse vers une vision plus explicite et systémique du risque clinique. Nous ne pouvons pas patch systèmes d'exploitation, mais nous peut traiter la maturité cybersécurité comme faisant partie de la qualité des soins. Cela signifie poser de meilleures questions sur les achats, exiger des fournisseurs qu'ils prennent des engagements clairs en matière d'intervention en cas d'incident et maintenir des protocoles d'arrêt qui protègent la continuité. Cela signifie aussi réduire les « outils d'ombre » et les add-ons AI non gérés qui élargissent la surface de l'attaque sans surveillance.
Éthiquement, le but n'est pas de paniquer, c'est d'insister sur la confiance défendable. Dans les contextes cliniques, « digne de confiance » signifie qu'il y a des pistes de décision que nous pouvons expliquer : quel système a été utilisé, quelles données ont été déplacées, quelles mesures de protection existaient, quelles opérations d'enregistrement et de vérification étaient en place et comment les erreurs ou les incidents seront corrigés et divulgués. Les clients ne devraient pas devoir compter sur une infrastructure invisible et espérer le meilleur; ils méritent des systèmes de soins construits pour échouer en toute sécurité.
Project Glasswing est un avant-goût d'une nouvelle phase : l'IA ne modifie pas seulement les outils cliniques, mais aussi l'environnement de sécurité que ces outils occupent. La confiance des patients dépend de la confidentialité, de l'intégrité et de la disponibilité, et ceux-ci dépendent de l'infrastructure actuellement éprouvée par des systèmes de plus en plus autonomes. Pour les thérapeutes, la tâche consiste à maintenir le cadre clinique intact au fur et à mesure que le cadre technique s'accélère : protéger la continuité, protéger la vie privée et défendre les systèmes que nous pouvons réellement soutenir.
