Depuis 2010, dans le monde post #Metoo, les causes et les conséquences des inégalités de genre font l’objet d’une attention croissante de la part des universitaires, des décideurs politiques, des consommateurs et du grand public. Au cours de la dernière décennie, les préoccupations relatives à la diffusion de l’intelligence artificielle (IA) ont également attiré une attention accrue dans le débat public. L’IA est une « technologie d’usage général », dont les progrès entraînent une baisse des coûts de prédiction, notamment grâce au domaine de « machine learning » (Agrawal, Gans & Goldfarb, 2019), c’est-à-dire l’utilisation de données pour faire des prédictions. Un domaine qui sera fortement impacté par l’IA est le marché du travail, un marché où les inégalités de genre ont été particulièrement étudiées par les chercheurs en sciences sociales. L’écart salarial entre les salaires des hommes et des femmes a été déconstruit pour étudier le rôle des attributs (par exemple les différences entre les hommes et les femmes en termes d’années d’études, de choix professionnels, d’expérience professionnelle...) et le rôle de la discrimination (les différents effets des mêmes attributs). La discrimination est souvent mesurée comme la partie de l’écart qui reste inexpliquée après avoir contrôlé toutes les différences observables entre les hommes et les femmes. Une difficulté à laquelle les chercheurs sont confrontés lorsqu’ils mesurent la discrimination est de s’assurer que toutes les différences sont prises en compte, car certaines de ces différences peuvent être difficiles à mesurer et ne pas être disponibles dans les données. Comme l’IA contribue à réduire les coûts de prédiction, il n’est pas surprenant que le débat autour de l’IA ait également conduit à des questions concernant l’équité des algorithmes d’IA. Les algorithmes d’IA contribueront-ils à réduire la discrimination de genre, par exemple en améliorant les prévisions sur la productivité des travailleurs basées sur des facteurs objectifs ? Ou, au contraire, vont-ils exacerber les inégalités à l’embauche et dans la rémunération des travailleurs ? Si nous regardons au-delà du marché du travail, dans quelle mesure l’IA est-elle genrée ? Répondre à ces questions demande un effort permanent qui nécessitera une augmentation des ressources de recherche, trois considérations méritent d’être prises en compte. Premièrement, définir le point de référence correct (ou contre-factuel). Deuxièmement, la distinction entre les objectifs et les prédictions des algorithmes. Troisièmement, lors de la formulation de politiques publiques, il faut tenir compte des conséquences des asymétries informationnelles entre les régulateurs et les utilisateurs d’IA.
Le rôle du contre-factuel
Des exemples d’IA présentant des préjugés sexistes ont atteint la presse populaire, façonnant la perception du public selon laquelle l'A conduit à des décisions discriminatoires. Pourtant, ces preuves ne suffisent pas à écarter les algorithmes de l’IA. La question clé pour les décideurs politiques n’est peut-être pas : « les algorithmes d’IA sont-ils sujets à des préjugés sexistes ?” mais plutôt “Ces préjugés seraient-ils plus importants ou moindres si les algorithmes d’IA n’étaient pas utilisés ?”. En effet, l’alternative à l’utilisation d’algorithmes d’IA est de s’appuyer exclusivement sur le jugement humain. Comme le montrent des recherches approfondies, les décisions humaines sont souvent sujettes à des préjugés sexistes. Dans des travaux récents avec mon collègue, le professeur François Longin (Longin et Santacreu-Vasut, 2020), nous montrons que c’est le cas dans un contexte d’investissement, un environnement où les décideurs ont pour objectif de maximiser leurs gains et ne poursuivent pas explicitement un objectif sexiste. Pourtant, les décisions d’investissement sont sujettes à des préjugés et des stéréotypes inconscients qui conduisent à des choix d’investissement biaisés, par exemple, la vente d’actions lorsqu’une femme est nommée à la tête d’une entreprise. Bien que ce ne soit pas leur objectif, les investisseurs peuvent prédire que la vente est la meilleure ligne de conduite, en partie à cause de leurs stéréotypes de genre.
La distinction entre objectifs et prévisions
La distinction entre objectifs et prévisions est centrale dans la théorie économique. Cette distinction est extrêmement utile pour réfléchir à l’équité de l’IA (Cowgill et Tucker, 2020). Les objectifs d’un algorithme d’IA sont-ils biaisés ? Ou ses prédictions sont-elles biaisées ? Pour répondre à cette question, il est important de faire la distinction entre différents types d’algorithmes, en particulier entre ceux qui sont entièrement automatisés et ceux où un humain est “dans la boucle”. Comme les investisseurs sur le marché financier, les programmeurs ou "l'humain dans la boucle” peuvent avoir des biais inconscients qui se traduisent par des algorithmes biaisés même lorsque l’objectif de l’algorithme n’est pas lié au genre. Les programmeurs peuvent être biaisés parce que, comme beaucoup d’entre nous, ils peuvent souffrir de biais de groupe (Tajfel, 1970), c’est-à-dire la tendance des individus à distinguer entre « nous » et « eux », profondément ancrée dans notre processus de socialisation. Comme les programmeurs peuvent être majoritairement des hommes, ils peuvent souffrir d’homophilie : la tendance à interagir avec des individus de leur propre groupe, y compris leur genre. Comment devrions-nous alors faire face à de tels préjugés ? Les outils juridiques sont-ils bénéfiques ?
Des politiques pour contrer les objectifs et les prévisions biaisés
L’utilisation d’outils juridiques peut être utile pour lutter contre les préjugés de genre lorsque les régulateurs constatent que l’objectif d’un algorithme d’IA est biaisé. Cependant, l’utilisation d’outils juridiques stricts peut inciter les programmeurs et les utilisateurs à créer des algorithmes moins transparents, ce qui accroît l’asymétrie informationnelle entre le régulateur et le réglementé concernant l’objectif de l’algorithme. Plus radicalement, les entreprises et les organisations peuvent décider d’éviter d’utiliser des algorithmes d’IA afin de réduire l’examen minutieux des parties prenantes et des régulateurs. Le développement d’algorithmes plus transparents peut donc conduire à un compromis entre les incitations ex ante et les incitations ex post.
Les outils politiques visant à lutter contre les biais dans les prévisions, au contraire, devront peut-être s’appuyer moins sur les outils juridiques et plus sur l’éducation. Par exemple, nous devrions former les futurs décideurs afin qu’ils déconstruisent certains de leurs propres biais et reconnaissent que les données utilisées par les algorithmes peuvent elles-mêmes contenir des biais. Pour les générations actuelles, il est important de développer des programmes de formation qui s’attaquent à la source des inégalités de genre, à savoir les préjugés humains. En résumé, la question de savoir si l’IA sera une bénédiction ou une malédiction pour lutter contre les inégalités entre les sexes dépendra de la lutte contre la racine des préjugés: pas des machines, mais des humains.
References
Agrawal, A., Gans, J., & Goldfarb, A. (2019). Economic policy for artificial intelligence. Innovation Policy and the Economy, 19(1), 139-159. |
|
Cowgill, B. & Tucker, C. E. (2020). Algorithmic Fairness and Economics. Columbia Business School Research Paper, Available at SSRN: https://ssrn.com/abstract=3361280 or http://dx.doi.org/10.2139/ssrn.3361280
Longin, F. & Santacreu-Vasut, E. (2019). Is gender in the pocket of investors? Identifying gender homophily towards CEOs in a lab experiment. Available at SSRN: https://ssrn.com/abstract=3370078 or http://dx.doi.org/10.2139/ssrn.3370078
Tajfel, H. (1970). Experiments in intergroup discrimination. Scientific American, 223, 96-102.