
Mots originaux, idées réutilisées : la réalité du plagiat dans la recherche générée par IA
Tout ce qui « a l’air » nouveau ne l’est pas vraiment. Les IA génératives peuvent réellement booster la productivité en recherche : plan détaillé, réécriture, traduction, et même remue‑méninges quand on est bloqué. Mais la même aisance qui rend ces sorties « publiables » peut aussi masquer un risque plus discret : des travaux générés par IA peuvent recycler, sans intention malveillante, des connaissances existantes, non pas forcément en copiant des phrases, mais en réutilisant des idées, des ossatures argumentatives familières, des logiques d’étude déjà vues, et une nouveauté de façade. C’est la réalité à laquelle beaucoup de chercheurs sont désormais confrontés : le problème d’intégrité n’est souvent pas un plagiat flagrant, mais une réutilisation cachée, où le texte est original dans la forme, tandis que l’apport intellectuel est mince, dérivé, ou trop proche de l’existant. Dans ces cas‑là , la « nouveauté » devient un effet de surface, et l’intégrité scientifique consiste moins à débusquer du texte copié qu’à protéger la véritable originalité, la traçabilité du raisonnement et l’honnêteté de la contribution. Un exemple éclairant vient de l’étude ACL 2025 de Gupta et Pruthi, All That Glitters is Not Novel: Plagiarism in AI Generated Research (Outstanding Paper à ACL 2025). Leur objet n’est pas le simple copier‑coller, mais une forme plus subtile : des textes de style recherche qui reformulent ou recombinent des travaux antérieurs de manière à paraître « neufs » lors d’une relecture rapide. Au lieu de demander aux évaluateurs de juger la nouveauté comme d’habitude, les auteurs ont conçu un dispositif piloté par des experts, explicitement chargés de rechercher des sources de plagiat. Ils ont fait évaluer 50 documents de recherche générés par LLM (y compris des documents issus de « The AI Scientist » et d’autres propositions publiques, ainsi que de nouvelles générations). C’est important, car les évaluations classiques supposent souvent la bonne foi et n’incitent pas à une chasse active aux sources. Ils ont aussi utilisé une grille claire : les notes les plus élevées correspondaient aux cas où l’on observe quasiment une correspondance un‑pour‑un entre la méthodologie générée et des travaux antérieurs, ou bien où des pans substantiels sont empruntés à un petit nombre d’articles précédents sans attribution. Autrement dit, il ne s’agit pas d’identifier des phrases identiques, mais de constater que l’ossature intellectuelle de la méthode et de la contribution est trop proche de quelque chose qui existe déjà . Le résultat clef est difficile à ignorer : les experts ont signalé 24 % des 50 documents comme plagiés (notes 4–5) après des vérifications comprenant le contact avec les auteurs originaux ; si l’on inclut les cas où la vérification n’a pas été possible (par ex. auteurs injoignables), le taux monte à 36 %. Cet écart compte, car il montre comment les cas « confirmés » peuvent rester sous‑estimés lorsque la vérification réelle est lente ou impossible. C’est précisément ce qui rend le plagiat à l’ère de l’IA si particulier : le risque se loge souvent au niveau des idées, du cadrage du problème, de la chaîne méthodologique et des revendications de contribution, plutôt que dans la phraséologie identique. Si une proposition est rédigée avec assurance, présentée par sections impeccables et saupoudrée de citations plausibles, elle peut passer un contrôle de surface, même si le concept sous‑jacent n’est pas vraiment original. L’étude met aussi en évidence un second problème : l’automatisation ne nous sauve pas (encore). Les auteurs rapportent que plusieurs approches automatisées, notamment la recherche par embeddings et un service commercial de détection de plagiat, se sont révélées insuffisantes pour repérer le plagiat dans ces propositions générées par LLM. C’est cohérent avec une réalité plus large : « l’emprunt sémantique » est bien plus difficile à détecter que le recouvrement de chaînes de caractères. Pour l’évaluation par les pairs, cela crée un compromis pénible en termes de charge de travail. Si l’IA augmente le volume de soumissions très polies tout en accroissant la probabilité d’emprunts cachés, les relecteurs doivent passer davantage de temps en travail d’enquête : fouiller la littérature, cartographier les méthodes, vérifier si les « contributions originales » ne sont pas de simples versions renommées d’idées connues. Cette pression ne fait pas que ralentir la revue ; elle peut aussi pousser les évaluateurs vers des heuristiques superficielles, rendant le système encore plus facile à contourner. Pour les auteurs qui utilisent l’IA de manière éthique, l’état d’esprit le plus sûr est : l’IA peut vous aider à exprimer vos idées, mais elle ne doit pas être la source de votre contribution. Gardez une « trace de provenance » : ce que vous avez lu, ce que vous avez copié dans vos notes (entre guillemets), et ce que vous avez décidé vous‑même. Si l’IA suggère une méthode ou un cadrage, traitez‑les comme des indices non fiables ; puis vérifiez en recherchant les travaux antérieurs et en ajoutant des citations explicites là où votre idée se rattache à la littérature existante. Pour les universités, les revues et les conférences, la réponse ne doit pas être la panique, mais la mise à niveau des processus. Exigez une divulgation transparente de l’usage d’IA, renforcez les contrôles de nouveauté (surtout au niveau des idées/méthodes), et donnez aux relecteurs des outils et du temps pour mener des recherches ciblées de sources quand quelque chose paraît « trop propre ». Surtout, récompensez la citation soignée et le positionnement honnête (« ceci est une extension de X ») plutôt que la sur‑vente de la nouveauté ; car à l’ère de l’IA, il est plus facile de fabriquer une nouveauté apparente que du véritable progrès scientifique. Enfin, c’est précisément là que les relecteurs humains et le jugement humain restent essentiels, et où la responsabilité ne peut pas être externalisée. Parce que la réutilisation au niveau des idées est subtile, il faut souvent une expertise de domaine pour repérer quand une « nouvelle » chaîne de traitement n’est en réalité qu’une version renommée ou légèrement réarrangée d’un travail établi. Autrement dit, l’intégrité à l’ère de l’IA repose moins sur des alertes automatisées que sur









