Intelligence artificielle et éthique

Intelligence artificielle et éthique

Au sujet des questions éthiques posées par l’intelligence artificielle, deux points majeurs doivent être soulignés :

1)  Il n‘y a pas de problème éthique au développement des nouvelles technologies et de l’intelligence artificielle en tant que telles : ce ne sont pas les technologies par elles-mêmes qui posent problème, mais l’usage que nous en faisons et que nous rêvons d’en faire. Vieille comme le monde, cette observation au sujet des « techniques » est capitale pour poser correctement et contre nos naïvetés, le problème de l’« éthique » concernant l’intelligence artificielle.

2)  Les manières dont se pose de nos jours le problème sont en quantité et en variété infinies. Elles impliquent en particulier la fascination que provoquent les « nouvelles technologies » et les progrès de l’intelligence artificielle en termes de performance. Le problème le plus grave est actuellement qu’il est en général présupposé et tacitement ou explicitement admis que l‘intelligence artificielle non seulement va dominer l’intelligence humaine dans l’avenir mais qu’elle le fait déjà. Cette présupposition prend la forme, chez les concepteurs de systèmes, de la présupposition que les humains ne sont ultimement que sources de défaillances. Une des conséquences majeures de cette présupposition est que les ingénieurs qui conçoivent les systèmes censés remplacer les humains sont de facto et sans contestation possible, bien supérieurs en tout – dont en éthique … – aux humains censés piloter les dits systèmes. Ceci se révèle particulièrement lorsque l’on est censé anticiper les problèmes « éthiques » des décisions en situation d’urgence comme pour les futurs véhicules dits « autonomes », ou encore dans l’aviation.

Je m’arrête au cas de l’aviation, particulièrement révélateur d’une posture profondément délétère non seulement en termes d’éthique, mais en termes de management, et de rapport à autrui de façon générale.

Outre les problèmes éthiques gravissimes liés au court-termisme et à la recherche d’économies dans lesquels Boeing a par exemple été pris lors de la conception précipitée du Boeing 737 MAX, se pose un problème éthique spécifiquement lié à la conception, la mise en place et les (dys-)fonctionnements du système MCAS censé assurer la sécurité des avions en cas de décrochage pour perte de vitesse.

Le système MCAS est censé provoquer, lorsqu’un avion est en perte de vitesse et risque de décrocher, la plongée de l’appareil vers le bas pour lui faire reprendre de la vitesse et récupérer son assiette. Un avion risque en particulier de perdre de la vitesse lorsqu’il se cabre, ce qui est malheureusement arrivé à l’appareil du vol Rio – Paris d’Air France en 2009. Le logiciel du système MCAS est donc conçu pour faire automatiquement plonger l’avion vers le bas lorsque les données indiquent au système que l’avion est trop cabré et risque de décrocher. Ceci, sans que les pilotes concernés par l’appareil en question y soient pour quoi que ce soit, leur vigilance et leur efficacité étant présupposées inférieures à celles du système automatique embarqué.

Seulement voilà. Si les données qui entrent dans le système sont mal « interprétées » par le système, le système peut « interpréter » que l’appareil se cabre indûment, alors qu’il est par exemple en phase d’ascension normale – et indispensable – après un décollage. C’est ce qui s’est passé dans les deux cas des catastrophes des compagnies Southwest Airlines et Ethiopian Airlines à trois mois d’intervalle en 2018.

Or, cela s’est passé sans que les pilotes ne puissent rien aux opérations, pour la bonne raison qu’ils n’avaient pas été informés du fonctionnement du système dans le premier cas, et mal dans le deuxième. Outre les aspects classiquement problématiques sur le plan éthique de la question – l’information et la formation sur le désamorçage du système étaient des fonctions optionnelles payantes pour les compagnies concernées -, se pose le problème fondamental de la présupposition de l’incompétence des pilotes comparée à la compétence présupposée des systèmes. Tout se passe comme si l’on présupposait qu’il va tellement de soi que les systèmes électroniques embarqués sont infiniment plus « intelligents » que les humains, que l’on n’informe plus même les humains – ici, les pilotes  de ce que l’on fait faire aux systèmes et comment on le leur fait faire à la place des humains. Il y a ici non seulement problème éthique, mais problème politique. Ce n’est en effet pas l’éthique des systèmes dits intelligents qui est en jeu. C’est celle de leurs concepteurs, bien humains – trop humains –, qui supposent savoir ce qu’est le bien d’autrui à la place d’autrui. Ce ne sont pas des machines qui sont à l’origine de la présupposition d’incompétence des humains au point de ne pas même les informer de ce que l’on met en place alors qu’ils sont directement concernés en tant qu’usagers. Ce sont des femmes et des hommes dont la formation aux enjeux éthiques et politiques des systèmes qu’ils fabriquent est de toute évidence inexistante.

Nous sommes au cœur de l’éthique, dont la continuation est, selon Aristote, par d’autres moyens, la politique. Pour le dire tout à fait clairement, ce problème « éthique » que l’on attribue à ce qui s’appelle désormais l’« intelligence artificielle » se pose sur le fond d’un problème éternel de toute vie politique. C’est un problème de pouvoir, qui s’exprime par le fait que certaines et certains se croient plus « sachants » que les autres, voire sachants tout court, et qu’ils se rapportent aux autres – aux usagers – comme à des enfants incompétents. C’est le problème de toute tyrannie, de toute dictature, de toute oppression. Nous sommes exactement dans cette même problématique lorsque l’on comprend que le produit vendu par des entreprises comme celles du GAFAM sont leurs usagers eux-mêmes, que les robots sont censés connaître mieux qu’eux-mêmes ne se connaissent. La présupposition est ici que l’identité des humains s’épuise en leurs comportements passés : l’on n’est censé « aimer » que ce que l’on a toujours déjà fait. Quel sens garde alors la notion d’« avenir » ?

La difficulté est qu’ici le problème s’exprime en douceur si l’on peut dire, au travers de l’objectivité et de la neutralité supposées des technologies et de l’intelligence censée y présider. Décidément, les problèmes éthiques que pose l’intelligence artificielle n’ont rien à voir avec les systèmes en tant que tels. Les problèmes « éthiques » liés à l’intelligence artificielle sont directement liés à l’idée que les concepteurs se font des relations entre humains et non humains. Et ici comme partout, la plus grande difficulté est que les victimes elles-mêmes de cette dynamique sont le plus souvent complices de l’oppression qui leur est imposée ou du pouvoir exercé sur elles.

S’il est urgent, pour poser correctement la question de l’éthique quand il s’agit d’intelligence artificielle, de relire le Discours de la servitude volontaire de La Boétie, il est encore plus urgent de garder à l’esprit que ce ne sont pas les machines qui sont responsables de ce que nous leur faisons faire ou de ce que nous rêvons de leur faire faire. C’est nous, les humains, qui sommes responsables des machines que nous imaginons. Les problèmes éthiques de ce qu’on appelle l’intelligence artificielle sont en fait les problèmes éthiques liés aux débordements de l’imagination humaine. Et c’est alors la République de Platon qu’il faut lire pour les poser de la meilleure façon possible.

ESSEC Knowledge sur X

Suivez nous sur les réseaux