Les dangers de l’intelligence artificielle

Les dangers de l’intelligence artificielle

Lorsque l’on parle des dangers de l’intelligence artificielle, on imagine des armées de robots déferlant dans les rues, ou un monde où une intelligence artificielle centrale prendrait le contrôle de l’humanité. Mais l’intelligence artificielle présente dès aujourd’hui des dangers beaucoup plus concrets et que l’on tendance a sous-estimer.

Les modèles prédictifs

En 2016, dans le Wisconsin, un certain Eric Loomis a été condamné à six ans prison pour avoir fui la police dans une voiture impliquée dans un autre crime. Ce qui est interpellant, c’est que la sentence --relativement lourde-- a été partiellement justifiée en se basant sur un logiciel d’intelligence artificielle qui avait prédit que l’accusé présentait un fort risque de récidive. Or, ce logiciel, développé par une société privée, ne donnait aucune explication pour justifier cette prédiction.

Les modèles prédictifs d’intelligence artificielle, basés sur les réseaux de neurones profonds, sont extrêmement puissants. Ils sont également extrêmement compliqués, et pour cette raison, ils fonctionnent comme des boîtes noires souvent impénétrables. Mais ce n’est pas pour la cause qu’ils ne font pas d’erreur.

Une intelligence artificielle explicable

Par exemple, un grand magasin japonais a relié ses caméras de surveillance vidéo à des logiciels d’intelligence artificielle pour dénombrer ses clients, reconnaître la présence de femmes, d’hommes, d’enfants, de jeunes, de personnes âgées, et ce de manière totalement automatisée et à tout moment de la journée. Mais ils se sont rendus compte qu’à chaque fois que le logiciel voyait passer un homme avec des cheveux longs, il le classifiait comme étant une femme.

Dans un autre cas, une équipe de chercheurs a entraîné un logiciel à reconnaître la présence de chevaux dans des photos. Après quelques temps, le logiciel s’est montré d’une précision redoutable. Mais quand de nouvelles photos de chevaux ont été présentées au logiciel, à la surprise générale, les résultats se sont avérés très décevants. C’est alors que l’équipe s’est rendue compte que toutes les photos de chevaux qu’ils avaient utilisées dans la phase d’apprentissage provenaient du même site Web, et que sur chacune de ces photos se trouvait un copyright dans le coin inférieur gauche. Le logiciel n’avait pas pris à reconnaître la présence de chevaux, mais la présence d’un copyright.

Ces deux exemples pourraient prêter à sourire, mais ce serait oublier un instant que c’est sur base de ces mêmes technologies que Eric Loomis a été envoyé 6 ans en prison. Les logiciels d’intelligence artificielle sont très doués lorsqu’il s’agit de faire des prédictions, et commettent souvent bien moins d’erreurs de jugement que des experts humains. Mais ce n’est pas pour la cause qu’ils sont infaillibles.

Dans le domaine de la recherche en intelligence artificielle, beaucoup de chercheurs se consacrent aujourd’hui à rendre les algorithmes plus transparents. C’est ce qu’on appelle l’intelligence artificielle explicable.

C’est d’autant plus important que les logiciels d’intelligence artificielle vont apprendre des données qu’on va leur soumettre. Vous allez me dire, du coup, plus ils vont avoir de données disponibles, plus ils vont être précis dans leurs prédictions. C’est vrai, mais si ces données sont biaisées, les logiciels vont apprendre à reproduire ces biais dans leurs prédictions.

Par exemple, aux États-Unis, il a été démontré que les personnes de couleur avaient plus de chances d’être arrêtées par la police, plus de chances d’être poursuivies en justice, et plus de chances d’être condamnées. Et par conséquent, toutes choses égales par ailleurs, les personnes de couleur ont plus de chances de se retrouver dans la base de données des récidivistes. Base de données justement utilisée pour prédire que Éric Loomis représentait un danger important pour la société.

Opportunités et limites

L’intelligence artificielle offre des opportunités incroyables dans d’innombrables domaines. Mais il faut rester réalistes, elle n’est pas infaillible. Et dans des domaines comme la justice, la santé, la sécurité sociale, ou les applications militaires, où le coût humain d’une erreur est énorme, il faut dès aujourd’hui exiger plus de transparence.

ESSEC Knowledge sur X

Suivez nous sur les réseaux