« PhD-Intelligences » est une absurdité- Ce que la déclaration de Demis Hassabis change pour la recherche et la santé

Dans un entretien récent, Demis Hassabis, PDG de Google DeepMind, a balayé l’idée selon laquelle les modèles d’IA actuels posséderaient une « intelligence de niveau doctoral ». Son message est sans équivoque : si l’IA peut parfois égaler, voire surpasser, les humains dans des tâches très spécifiques, elle reste loin d’une intelligence générale. Qualifier ces systèmes de « doctorants artificiels » est non seulement trompeur, mais risque d’alimenter des attentes irréalistes, notamment en santé et en recherche.

Hassabis souligne que des modèles comme Gemini ou les systèmes de type GPT affichent certes des « poches de performance doctorale » – en pliage de protéines, en imagerie médicale ou en résolution de problèmes complexes. Pourtant, ces mêmes outils échouent à des tâches de raisonnement élémentaire, incapables d’apprentissage continu, et commettent des erreurs grossières qu’un·e chercheur·se humain·e ne ferait jamais. Selon lui, une véritable Intelligence Artificielle Générale (IAG) – capable d’apprendre de manière flexible à travers différents domaines – n’est pas pour avant 5 à 10 ans.


Ce que cela implique pour la recherche et la santé

Ces limites ne signifient pas que l’IA n’a pas sa place dans notre travail. Elles nous rappellent simplement comment l’utiliser : de manière responsable et stratégique.

Points clés à retenir :

  • Un outil d’appui, pas un décideur : → Utilisez l’IA pour scanner la littérature, transcrire des données, rédiger des ébauches ou effectuer des analyses préliminaires – mais jamais pour prendre des décisions cliniques ou scientifiques sans validation humaine.
  • L’expertise étroite est un atout : → L’IA excelle dans des domaines ciblés (ex. : imagerie radiologique, génomique, classification de données). C’est là que la recherche en santé et en thérapie peut en tirer le meilleur parti.
  • La supervision humaine est indispensable : → Les performances inégales de l’IA imposent aux clinicien·ne·s et chercheur·se·s de vérifier systématiquement ses sorties, surtout dans des contextes sensibles.

Applications concrètes par discipline

DomaineAvantages actuels de l’IALimites / Risques
Recherche médicalePrédiction de structures protéiques (ex. AlphaFold) ; accélération de la découverte de médicaments ; diagnostics par imagerie.  Erreurs de généralisation ; raisonnement opaque ; biais dans les données.
Thérapie & PsychologieRédaction de supports thérapeutiques ; génération de scénarios comportementaux ; transcription de séances.  Risque de dépendance excessive ; erreurs dans des contextes délicats.
Éducation spécialiséeCréation de contenus différenciés ; suivi des progrès ; supports d’apprentissage accessibles.Recommandations potentiellement inadaptées sans contexte.

Perspectives d’avenir

Même sans IAG, les outils actuels peuvent accélérer considérablement les processus et renforcer l’expertise humaine. Mais l’avertissement de Hassabis reste valable : l’IA n’est pas un substitut à l’intelligence humaine, mais un partenaire dans le progrès.

En tant que chercheur·se·s et clinicien·ne·s, notre responsabilité est double :

  1. Maximiser les bénéfices en appliquant l’IA de manière ciblée et fondée sur des preuves.
  2. Minimiser les risques par une validation rigoureuse, un usage éthique et une communication transparente avec les patient·e·s et leurs familles.

Dans nos prochains numéros, nous explorerons des cas concrets d’intégration de l’IA en recherche, avec des exemples tirés de la thérapie et des sciences médicales.

Références

  • Jindal, S. (2025, September). DeepMind’s Demis Hassabis says calling today’s AI systems “PhD intelligences” is nonsense. Analytics India Magazine.
  • Business Insider. (2025). The CEO of Google DeepMind says one flaw is holding AI back from reaching full AGI.
  • Windows Central. (2025). DeepMind CEO dismisses claims of PhD-level AI as nonsense.

Leave a Comment

Your email address will not be published. Required fields are marked *