À l'ère de l'IA, avons-nous encore besoin de chercheurs ?

À l'ère de l'IA, avons-nous encore besoin de chercheurs ?

Avec ESSEC Knowledge Editor-in-chief

Avons-nous encore besoin de chercheurs étant donné l'essor et la portée de l'intelligence artificielle ? Nous savons que le machine learning peut identifier des relations complexes dans des ensembles de données massifs qui ne sont pas nécessairement identifiables à l'œil "nu" (humain). Nous savons également que l'intelligence artificielle pourra un jour prendre en charge de nombreuses fonctions humaines. La recherche sera-t-elle l'une d'entre elles ? Vivianna Fang He de l'ESSEC Business School et ses collègues Yash Raj Shreshta (ETH Zurich), Phanish Puranam (INSEAD), et Georg von Krogh (ETH Zurich) se penchent sur cette question dans leurs récentes recherches.

En un mot : non, mais l’histoire est un peu plus compliquée que cela.

Jusqu'à présent, les techniques du machine learning ont été largement utilisées pour coder des données et faire des prédictions, mais pas encore pour la tâche principale d'un chercheur : élaborer une théorie. Pourquoi en est-il ainsi ? Cela pourrait être dû à un dégoût des chercheurs pour les soi-disant "prédictions sans explications". En fait, c'est exactement là que se situe l'opportunité, suggèrent le professeur He et ses collègues. Le machine learning pourrait en effet s’avérer meilleur que les chercheurs pour trouver des modèles solides et complexes dans les données.

Traditionnellement, les chercheurs en management proposent une théorie et/ou un modèle et le testent ensuite, généralement en utilisant un ensemble de données relativement petit. Avec des ensembles de données plus importants, il y a plus de chances que les résultats soient applicables à une population plus large plutôt qu’à celle utilisée dans l’étude et qu’ils soient donc reproductibles — ce qui est vrai dans d’autres situations que la présente. Les chercheurs peuvent également étudier davantage de variables lorsqu’ils travaillent avec des ensembles de données plus importants, ce qui est inestimable pour construire une image plus complète de la situation étudiée. Lorsqu’ils élaborent une théorie à partir de données en utilisant des outils statistiques traditionnels, les chercheurs courent le risque de surestimer les données, c’est-à-dire de trouver un modèle spécifique à l’échantillon actuel. Les algorithmes du machine learning ont des procédures qui aident à éviter le surajustement, ce qui signifie que les modèles qu’ils identifient ont plus de chances d’être reproduits dans d’autres échantillons. C’est une propriété très précieuse, car elle pourrait, par exemple, aider à résoudre la crise de réplication actuelle de la psychologie en facilitant l’élaboration de théories solides et donc de résultats reproductibles.

Un autre avantage de l’intégration des techniques du machine learning est qu’elle peut aider à gérer les préjugés des chercheurs en rendant les processus de recherche et les décisions transparents. Après tout, les chercheurs ne sont que des êtres humains. Il est donc possible qu’ils subissent un biais de confirmation et cherchent des résultats qui soutiennent leurs prévisions : en d’autres termes, qu’ils voient ce qu’ils veulent voir. En utilisant des algorithmes de machine learning, les chercheurs peuvent spécifier le niveau de complexité des modèles détectés et documenter ces décisions. L’ensemble de ces procédures permet une approche réfléchie pour équilibrer la précision des prédictions et la possibilité d’interprétation. Une précision prédictive plus élevée peut signifier que les modèles sont trop complexes pour être compris, et une interprétabilité plus élevée peut signifier que le modèle est plus simple et ne tient peut-être pas compte de tous les facteurs d’impact. Il est essentiel de pouvoir contrôler ce compromis pour interpréter les modèles d’une manière qui ait un sens pour les personnes et pas seulement pour les machines. Cela signifie également que les chercheurs peuvent expliquer leur raisonnement de manière transparente.

Cependant, les machines ne peuvent pas agir seules : les algorithmes manquent d’intuition et du bon sens que possèdent les humains. S’ils peuvent assembler les pièces du puzzle, c’est à nous, les humains, d’expliquer pourquoi les pièces vont ensemble. De nombreuses parties essentielles du processus d’élaboration de la théorie resteront à la charge des chercheurs, comme la définition des facteurs d’intérêt, la sélection ou le développement de moyens de mesure de ces facteurs, et l’explication des relations qui sous-tendent les modèles observés. L’avenir de la théorisation nécessitera une synergie entre les algorithmes et les humains.

Le professeur He et ses collègues proposent une procédure en quatre étapes pour explorer cette possibilité. La première étape consiste à diviser l’échantillon en deux : un échantillon à utiliser pour la détection de modèles assistée par le machine learning, et le second échantillon à utiliser pour tester les hypothèses. Lors de la deuxième étape, les chercheurs programment les algorithmes et ceux-ci font leur magie et identifient des modèles interprétables et fiables. À l’étape 3, les chercheurs se demandent si les modèles ont un sens et trouvent des explications à ces modèles. C’est à cette étape que l’expertise et le jugement humains sont essentiels, car les algorithmes du machine learning n’ont pas la capacité de le faire. À l’étape 4, les chercheurs testent les hypothèses — la théorie — dans le deuxième échantillon pour voir si le modèle se maintient.

Certains chercheurs ont déjà adopté cette approche, démontrant qu’elle peut être menée à bien. Elle a été utilisée pour étudier les conflits de gouvernance dans les communautés en ligne (He, Puranam, Shreshta, von Krogh, 2020), pour identifier le revenu optimal pour une large gamme de produits de l’App Store (Tidhar & Eisenhardt, 2020), et pour évaluer si une idée va ou non décoller (Dahlander, Fenger, Beretta, Kazami, & Frederiksen, 2020). Les approches similaires sont également expérimentées dans le domaine des sciences naturelles. Par exemple, Udrescu et Tegmark (2020), deux physiciens du MIT, ont utilisé 100 équations pour générer des données puis les transmettre à un réseau de neurones. Leur algorithme a réussi à récupérer les 100 équations ! Cet ensemble diversifié d’études montre que l’approche peut être appliquée à une grande variété de sujets, ce qui la rend utile aux chercheurs de toutes les disciplines.

Bien que cette approche ait des implications importantes pour l’élaboration de théories, les auteurs notent qu’il faut tenir compte de certaines réserves avant de l’utiliser. 

Le machine learning suppose que l’avenir peut être prédit à partir du passé, il est donc préférable d’utiliser des algorithmes lors de l’évaluation de phénomènes relativement stables. Deuxièmement, il ne peut pas remplacer la randomisation. Les techniques de machine learning sont plus adaptées pour faire des prédictions que pour tester une théorie sur les relations entre les variables. Il existe également le risque que les techniques du machine learning amplifient les biais présents dans les données, ce qui conduirait à des conclusions biaisées, car les biais pourraient être difficiles à détecter, mais avoir des conséquences éthiques importantes. C’est pourquoi les chercheurs doivent avoir une solide compréhension conceptuelle des techniques qu’ils utilisent, ce qui n’est pas chose facile dans un domaine qui progresse si rapidement.

En bref, si le machine learning ne peut pas remplacer les chercheurs, il peut prendre en charge certaines fonctions que les humains effectuent actuellement, comme la reconnaissance des formes, la mémorisation par cœur et l’arithmétique. Cependant, les êtres humains sont nécessaires pour les tâches qui requièrent plus d’intuition et de créativité, comme l’explication de modèles, la rédaction de livres et l’art.

Alors, avons-nous encore besoin de chercheurs ? Oui — et le machine learning peut être un outil puissant pour produire des recherches plus solides.

Pour plus d’informations sur l’utilisation des algorithmes du machine learning dans la construction de théories, consultez leur article ici.

References

Dahlander, L., Fenger, M., Beretta, M., Kazami, S., & Frederiksen, L. (2020). A Machine-Learning Approach to Creative Forecasting of Ideas. In Academy of Management Proceedings (Vol. 2020, No. 1, p. 17027). Briarcliff Manor, NY 10510: Academy of Management.

Dahlander, L., Fenger, M., Beretta, M., Kazami, S., & Frederiksen, L. (2020). A Machine-Learning Approach to Creative Forecasting of Ideas. In Academy of Management Proceedings (Vol. 2020, No. 1, p. 17027). Briarcliff Manor, NY 10510: Academy of Management.

He, V. F., Puranam, P., Shrestha, Y. R., & von Krogh, G. (2020). Resolving governance disputes in communities: A study of software license decisions. Strategic Management Journal, 41,  doi:10.1002/smj.3181

Shrestha, Y. R., He, V. F., Puranam, P. and von Krogh, G., (Forthcoming) Algorithm supported induction for building theory: How can we use prediction models to theorize? Organization Science.

Tidhar, R, Eisenhardt, KM. (2020). Get rich or die trying… finding revenue model fit using machine learning and multiple cases. Strategic Management Journal, 41, 1245– 1273. doi :10.1002/smj.3142 

Suivez nous sur les réseaux