L’intelligence artificielle au service de l’octroi des crédits aux particuliers : promesses et défis.

L’intelligence artificielle au service de l’octroi des crédits aux particuliers : promesses et défis.

Avec Laurence Daures

Les technologies de l'information impactent le risque de crédit depuis plusieurs dizaines d’années. La Fair Isaac Corporation (FICO) a introduit les « scores » FICO en 1989, initiant une transition entre une analyse de solvabilité des crédits réalisée par des opérateurs humains et celle automatisée par des algorithmes. Le « score » FICO est une note de crédit établissant le risque de solvabilité de l’emprunteur, qui s’appuie sur cinq éléments : l'historique des paiements, le niveau d'endettement courant, les types de crédit détenus, l’ancienneté de l'historique de crédit et les nouveaux crédits. Aujourd'hui, ce score est utilisé dans plus de 90% des décisions de crédit prises aux États-Unis.

Avec la digitalisation croissante de la société au cours de la dernière décennie, il y a eu une explosion à la fois dans la collecte de données personnelles, dans la sophistication des algorithmes et dans la capacité de calcul de traitement des informations. Cette accélération digitale a le potentiel d’automatiser totalement le processus d’évaluation de solvabilité des individus. Dans cet article, nous résumons les principales leçons extraites de la littérature académique récente concernant l'application des techniques d'intelligence artificielle (IA) à l’octroi de crédit.

Comment l'IA peut-elle aider la décision d’octroi de crédit ?

Les nouveaux outils d'IA (machine learning, deep learning) sont très prometteurs. Ils améliorent significativement les techniques existantes de détermination du risque de crédit des emprunteurs. Pour comprendre les voies d’amélioration, rappelons que les modèles traditionnels de notation du crédit, comme, par exemple, celui du score FICO, utilisent des sources d’informations financières issues des comptes bancaires des particuliers.

Ensuite, un nombre relativement limité de variables prédictives est généralement combiné au sein de modèles linéaires de la probabilité de défaut de l’emprunteur (tels que les régressions logistiques) afin d’en déduire la note de crédit. Les nouvelles approches d'IA vont au-delà de ces outils sur au moins deux aspects. 

Premièrement, les méthodes de « machine learning » (ou apprentissage automatique), telles celles à arbre de décision ou de réseaux neuronaux, peuvent faire de la prédiction à partir de relations non linéaires entre les variables prédictives et le risque de crédit individuel, tout en permettant d’éviter les écueils de l’ « overfitting » (lorsque le modèle, en essayant de trop coller aux données, n’est plus généralisable). Généralement, les techniques de machine learning surpassent les modèles de prédiction linéaires traditionnels, en particulier, pour les groupes d’emprunteurs à risque élevé. Walther et al (2020), en utilisant des données relatives à des millions de prêts immobiliers américains, ont montré que les méthodes d’arbres de décision surpassent considérablement les techniques de régression logistique. Albanesi et Vamossy (2019) ont comparé plusieurs algorithmes de machine learning sur les données de crédit de l’entreprise Experian spécialisée en risque de crédit et ont constaté qu’un ensemble de techniques combinant réseaux de neurones et arbres améliore les modèles traditionnels et que cette amélioration est particulièrement prononcée pour les emprunteurs avec des notations de crédit dégradées.

Deuxièmement, la digitalisation de notre mode de vie et l’intelligence artificielle permettent d’utiliser de nouveaux types de données. En utilisant les données de connexion relatives à environ 270 000 achats en ligne, Berg et al. (2020) ont analysé le pouvoir prédictif des « empreintes digitales » (les informations laissées par les individus lors de la visite d'un site Web, comme le type de système d’exploitation utilisé, l'adresse e-mail, l'heure d'achat, etc.). Ils ont constaté que la précision d'un modèle de risque de crédit utilisant des variables d'empreinte digitale est comparable et complémentaire à celle des scores de risque de crédit traditionnels. Par conséquent les empreintes digitales peuvent être des outils d’aide à la décision intéressants, en particulier pour établir le profil d’emprunteurs potentiels qui n’auraient pas assez d'historique de crédit pour obtenir une notation fiable donnant accès au crédit. Les données non structurées sous forme de texte ou d'images (par exemple, des informations provenant de réseaux sociaux tels que LinkedIn, Twitter ou Facebook) constituent une autre source d'informations utilisée par les algorithmes d’IA. En utilisant les données de Prosper, une plateforme de financement participatif, Netzer et al (2019) constatent que le fait de compléter les informations financières et démographiques par les informations textuelles soumises par les emprunteurs potentiels améliore considérablement la prédiction des défauts.

Quelles sont les implications du recours à l’IA pour les consommateurs ?

Sur une note positive, les améliorations de la prédiction du risque de solvabilité sont particulièrement prononcées parmi les groupes plus risqués et les personnes ayant des antécédents de crédit limités (Berg et al, 2020). L’IA permet donc de réduire les problèmes d'information asymétrique entre emprunteurs et créanciers et donc de développer l’accès au crédit. Cela peut être particulièrement utile pour les pays émergents dans lesquels le secteur bancaire est souvent embryonnaire et donc dans lesquels la plupart des consommateurs sont dépourvus d’informations financières traditionnelles utilisées dans les modèles de crédit standard freinant ainsi l’accès et le développement du crédit.

Un autre avantage potentiel du transfert des décisions de crédit aux algorithmes est que les biais humains - tels que le racisme ou les préjugés contre les minorités - peuvent être court-circuités (au moins théoriquement), conduisant à moins de discrimination.

Pour examiner cette question de manière empirique, il faut d'abord une définition précise de la discrimination. Bartlett et al (2019) suggèrent d'utiliser l'interprétation des tribunaux américains, selon laquelle tout impact différentiel de traitement des groupes minoritaires non lié à la « nécessité commerciale légitime » est jugé discriminatoire. Bartlett et al (2019) constatent que, concernant la tarification des prêts immobiliers, les algorithmes FinTech discriminent également, mais 40% de moins que les créanciers humains. En revanche, les FinTechs ne font pas de discrimination à la décision d’octroi de ces prêts, contrairement aux créanciers humains.

Les défis des algorithmes d'IA

Si promesses il y a, l’IA au service de l’octroi du crédit fait également face à de sérieux défis. Premièrement, une précision plus forte du risque de solvabilité par les algorithmes amène à une plus grande disparité, voire inégalité, du coût du crédit entre consommateurs. Cette augmentation de la dispersion est particulièrement prononcée pour les minorités et les emprunteurs à risque plus élevé (Fuster et al, 2020). La prise en compte par les régulateurs de cette limite est nécessaire pour que les conditions de crédit des ménages défavorisés soient améliorées et moins inégalitaires.

Deuxièmement, l’utilisation des nouvelles données (par exemple, l’université ou grande école dont est diplômé le potentiel emprunteur) par les algorithmes d’IA peut potentiellement créer des discriminations par inadvertance, comme le soulignent Bartlett et al (2019). Prenons l’exemple d’une entreprise qui met en place un algorithme de filtrage des emprunteurs pour maximiser ses profits, mais que ce filtrage introduise ex post un impact différentiel sur les groupes minoritaires protégés. Par exemple l’algorithme prend en compte la donnée relative à l’éducation de l’emprunteur, et donc l’université ou grande école de ce dernier, qui est certes un proxy de la richesse de l’emprunteur, mais qui est probablement corrélée avec sa race, ou son ethnie. L'entreprise risque de tomber sous le coup d'une législation anti-discriminatoire, même si l’algorithme ne contient pas de biais contre lesminorités. La nature de la boîte noire de la plupart des algorithmes d'IA augmente ce risque de discrimination par inadvertance.

Au final, l'avenir des algorithmes d'IA dans les décisions d’octroi de crédit est réellement prometteur, mais ses opérateurs humains doivent veiller à réduire le risque de décisions inéquitables pour fournir des évaluations justes et précises pour tous.

Réferences

Albanesi, S., & Vamossy, D. F. (2019). Predicting consumer default: A deep learning approach (No. w26165). National Bureau of Economic Research.

Bartlett, R., Morse, A., Stanton, R., & Wallace, N. (2019). Consumer-lending discrimination in the FinTech era (No. w25943). National Bureau of Economic Research.

Berg, T., Burg, V., Gombović, A., & Puri, M. (2020). On the rise of fintechs: Credit scoring using digital footprints. The Review of Financial Studies, 33(7), 2845-2897.

Iyer, R., Khwaja, A. I., Luttmer, E. F., & Shue, K. (2016). Screening peers softly: Inferring the quality of small borrowers. Management Science, 62(6), 1554-1577.

Netzer, O., Lemaire, A., & Herzenstein, M. (2019). When words sweat: Identifying signals for loan default in the text of loan applications. Journal of Marketing Research, 56(6), 960-980.

Walther, A., Ramadorai, T., Goldsmith-Pinkham, P., et al., (2020), Predictably unequal? The effect of machine learning on credit markets, The Journal of Finance, forthcoming.

ESSEC Knowledge sur X

Suivez nous sur les réseaux