Depuis l’invention de ChatGPT en 2022, les agents conversationnels (chatbots) basés sur des modèles de langage de grande taille (LLMs) ont fait irruption dans nos vies -- bouleversant les habitudes établies, remettant en cause les idées reçues sur ce que l’IA est et peut faire, et soulevant de nouvelles questions éthiques. Comme toute innovation majeure, les chatbots ouvrent la voie à de nombreuses applications susceptibles d’accroître l’efficacité et la productivité, mais ils suscitent aussi des préoccupations éthiques importantes. Radu Vranceanu, professeur d'économie et référent pour l'intégrité scientifique de l'ESSEC Business School, explique pourquoi nous devrions être particulièrement prudents lorsque nous utilisons des chatbots pour la recherche en économie et gestion.
L’économie et le management relèvent des sciences sociales, qui étudient le comportement humain sous divers angles, contextes et perspectives. Contrairement aux sciences naturelles, les sciences sociales nécessitent souvent de longues périodes pour valider des hypothèses conceptuelles et s’appuient bien moins sur des expériences contrôlées (Calderon et Herrera, 2025). L’expression écrite et le langage contribuent à poser les hypothèses, et convaincre de leur bien fondé. À cet égard, l’utilisation des chatbots comme “assistants de recherche” soulève des enjeux éthiques supplémentaires, notamment par rapport à l’attribution des idées, solutions, résultats.
Risques éthiques : La prudence est de mise
On sait depuis longtemps que la maîtrise de l’anglais est un facteur important pour l’acceptation des articles dans les revues prestigieuses, majoritairement anglo-saxonnes. Un bon anglais améliore la lisibilité d’un article en permettant une transmission claire et directe des idées. Cela évite aussi d’irriter la sensibilité des anglophones natifs, qui représentent une grande partie des évaluateurs académiques et, comme tout un chacun, peuvent avoir un biais inconscient en faveur de leur langue.
On pourrait même aller plus loin : si les relecteurs supposent que les chercheurs anglophones sont en moyenne meilleurs, et qu’ils peinent à évaluer des articles de plus en plus complexes, alors un anglais de qualité pourrait agir comme un signal, indiquant non seulement l’origine des auteurs, mais aussi — indirectement — la qualité (perçue) de leur travail. En réduisant l’écart linguistique, les chatbots LLMs pourraient ainsi améliorer les chances d’acceptation des articles rédigés par des non-natifs.
En pratique, plusieurs rédacteurs de revues académiques recommandent désormais l’utilisation de chatbots pour vérifier et améliorer l’anglais, avant la soumission ou lors du processus de révision. Il est souvent demandé aux auteurs de déclarer sur l’honneur s’ils ont utilisé un chatbot LLM, même si aucun moyen fiable ne permet actuellement de vérifier cette déclaration. Beaucoup d’auteurs choisissent probablement de ne pas le mentionner. À première vue, cette évolution semble inoffensive : après tout, quel mal y a-t-il à vouloir écrire aussi bien que Robert Solow ou Paul Samuelson ?
Le risque éthique est ailleurs : la possibilité que le programme altère le sens du texte, même légèrement, et ainsi s'éloigne de la pensée de l’auteur. Les chatbots génèrent des phrases en minimisant la distance par rapport à un ensemble de textes sur lesquels ils ont été entraînés. Cet ensemble est prédéfini, et peut refléter des biais de sélection ou de pensée dominante. Plus l’anglais initial de l’auteur est faible, plus il risque d’être influencé par les suggestions du modèle, et plus la propriété intellectuelle de son travail sera diluée dans l’article final. En outre, les auteurs peuvent involontairement reproduire les biais présents dans le corpus d’entraînement (Messeri et Crockett, 2024).
Par ailleurs, comment distinguer un chercheur ayant utilisé un chatbot pour améliorer son anglais d’un autre qui s’est servi de la machine pour générer des idées ? Il y a un risque qu’à terme, tout article assisté par IA soit contesté quant à son originalité, même si l’utilisation a été minimaliste.
Pour cette raison, le professeur Vranceanu conseille d’utiliser les LLMs uniquement pour des tâches précises, comme poser la question : « Mon anglais est-il correct ? », et non pas pour des demandes plus larges du type « Mon paragraphe est-il clair ? ». La première porte sur la forme, la seconde sur le fond et l’interprétation.
Faut-il recourir aux LLMs pour les revues de littérature ? Construire une revue de littérature est un exercice intellectuel sophistiqué qui reflète la culture scientifique de l’auteur, sa personnalité de chercheur et sa manière de concevoir sa recherche dès le départ. Si l’on confie à une machine la tâche de générer une liste initiale de références, on prend le risque que la structuration même du travail soit orientée, voire réduite, par le biais de conformité du modèle. De plus, les LLMs sont souvent limités aux publications en accès libre, ce qui restreint la diversité et la qualité de leurs sources.
Si l’utilisation des chabots à la fin d’un projet pour éventuellement vérifier de ne pas avoir oublié un article majeur semble acceptable, il faudrait éviter d’utiliser l’aide chatbot pour la revue de littérature au début du processus de recherche.
Les chatbots peuvent être très utiles pour les transformations techniques, comme convertir une sortie Stata en LaTeX, ou un document Word en LaTeX, etc. En ce sens, ils complètent efficacement des outils existants. Il est parfaitement acceptable d’utiliser un chatbot pour trouver une erreur dans une routine Stata ou Maple. En revanche, poser des questions plus avancées du type « Aide-moi à résoudre ce problème économétrique » ou “Aide moi à résoudre ce problème mathématique complexe” soulève des interrogations sur l’auteur réel du travail et teste les limites de sa contribution intellectuelle. La moindre des choses serait d’indiquer que la résolution du problème complexe a été assistée par l’IA.
Le professeur Vranceanu note “Personnellement, je recommanderais aux chercheurs en économie et en gestion de ne pas utiliser les chatbots pour la génération d’idées fondamentales. À ce jour, même les systèmes les plus avancés échouent largement sur ce plan (bien que cela peut évoluer rapidement). Or, l’essentiel d’un article académique est l’idée fondatrice : la question de recherche, l’énigme à résoudre. Déléguer cela à une machine reviendrait à reléguer la contribution humaine à un rôle marginal, incompatible avec une revendication de paternité intellectuelle.”
On pourrait objecter qu’une assistance pour la rédaction d’un titre ou d’un résumé est une contribution mineure et éthiquement acceptable. Mais là encore, il faut s’interroger : jusqu’à quel point sommes-nous prêts à déléguer notre identité intellectuelle aux machines ? Les chercheurs non anglophones (et parfois même certains anglophones) se laissent entraîner vers cette dépendance par leur maîtrise imparfaite de l’anglais. C’est peut-être inévitable, mais si nous pouvons y résister, ne serait-ce qu’un peu, faisons-le.
Comme le soulignent Calderon et Herrera (2025), « pour les scientifiques mal formés ou ceux extérieurs au monde scientifique, les résultats d’un chatbot peuvent créer une illusion de connaissance ». Ils reconnaissent toutefois que des chercheurs bien formés peuvent bénéficier d’un travail collaboratif avec ces outils. Messeri et Crockett (2024) sont plus radicaux et préviennent : « Les individus qui font confiance aux IA pour dépasser leurs limites cognitives deviennent vulnérables aux illusions de connaissance. »
En conclusion, mieux vaut pécher par excès de prudence que par curiosité, indulgence ou quête d’une productivité prétendument accrue. L’avenir arrive vite, et des pratiques aujourd’hui justifiées par l’enthousiasme envers ce « nouveau partenaire de recherche » pourraient bientôt être contestées.
Pour anticiper les critiques futures, les auteurs devraient déclarer volontairement et intégralement leur utilisation des chatbots-LLMs, en précisant la marque et la version du logiciel, ainsi que les requêtes posées. Les rédacteurs devraient exiger cette information et sanctionner toute omission prouvée. Il ne devrait exister aucun délai de prescription pour cette transparence.
Un scénario de science-fiction
Passons maintenant de ce questionnement éthique à un scénario de science-fiction.
Aujourd’hui, des millions d’articles sont publiés chaque année en sciences sociales. Pourtant, le nombre de contributions réellement significatives, celles qui comptent, se compte peut-être en centaines – voire moins (Besancenot et Vranceanu, 2024). Le système « publish or perish » a conduit à une prolifération d’articles de qualité standard, peu lus, mais utilisés pour évaluer les enseignants-chercheurs, distribuer des primes, et accorder des promotions. Beaucoup de publications ne sont que des extensions incrémentales d’autres travaux tout aussi mineurs. Avec l’explosion des données disponibles, les chercheurs se précipitent pour dénicher des corrélations ou des effets peu intéressants mais statistiquement significatifs.
Une équipe de chercheurs (Tomaino, Cooke et Hoover, 2025) a demandé à ChatGPT-4 -- l’un des chatbots les plus avancés actuellement -- de rédiger un article en comportement du consommateur. Une intervention humaine n’était sollicitée que lorsque la machine se bloquait. Sans surprise, le chatbot s’en est bien sorti sur certaines tâches et mal sur d’autres, notamment la génération du sujet. Mais le résultat final - un article sur la « fatigue éthique » -- était loin d’être ridicule.
Imaginez maintenant refaire la même expérience dans cinq ans, en guidant légèrement le chatbot sur un thème. Il est fort probable qu’en moins de cinq minutes, il pourrait produire un texte satisfaisant qui demanderait six mois de travail humain aujourd’hui.
De la même manière que la profession de relecteurs disparaît peu à peu face à la concurrence des chatbots, ce type de recherche académique « low-tech » pourrait aussi s’éteindre. En étudiant presque 45,000 articles dans des revues de finance, les chercheurs Thomas Walther et Marie Dutordoir ont montré que les chercheurs ayant utilisé intensément ChatGPT pour améliorer leur texte ont publié plus d’articles en général, mais moins d’articles dans les revues de très bon niveau. Ainsi, ce qui subsistera à terme sera la recherche avancée : celle qui pose des questions importantes, mobilise des méthodes innovantes, et est menée par des chercheurs très bien formés. De nombreuses revues disparaîtront -- avec leurs éditeurs, leurs comités, et les gros profits des maisons d’édition. Les sciences sociales pourraient revenir à leurs racines, où la qualité primait sur la quantité. Les chercheurs aujourd’hui engagés dans des publications standardisées sans grand intérêt pourraient redécouvrir le plaisir d’enseigner des idées complexes et d’animer des discussions en classe, chose que les machines ne savent (encore) faire.
Ou alors… pas du tout. Les éditeurs humains pourraient être remplacés par des éditeurs-machines. Des millions d’articles générés par chatbots pourraient être publiés dans des revues gérées par chatbots, lues exclusivement par d’autres chatbots… et utilisées pour produire de nouveaux articles, tandis que les humains regarderont leur série préférée.
Il faut peut-être demander à son chatbot préféré ce qu’il en pense.
Références
-
Besancenot, Damien, et Radu Vranceanu (2024). “Reluctance to pursue breakthrough research: A signaling explanation.” Research Policy 53.4 : 104974.
-
Calderon, Reyes, et Francisco Herrera (2025). “And Plato met ChatGPT: an ethical reflection on the use of chatbots in scientific research writing, with a particular focus on the social sciences.” Humanities and Social Sciences Communications 12.1 : 1-13.
-
Messeri, Lisa, et M. J. Crockett (2024). “Artificial intelligence and illusions of understanding in scientific research.” Nature 627.8002 : 49-58.
-
Tomaino, Geoff, Alan DJ Cooke, et Jim Hoover (2025). “AI and the advent of the cyborg behavioral scientist.” Journal of Consumer Psychology 35.2 : 297-315.
-
Walther, Thomas and Dutordoir, Marie, 2025. Certainly! Generative AI and its Impact on Academic Writing (in Finance). Available at SSRN:https://ssrn.com/abstract=5317993