VERS UNE POLITIQUE DE SÉCURITÉ DES ALGORITHMES ?

VERS UNE POLITIQUE DE SÉCURITÉ DES ALGORITHMES ?

 Alors qu’Elizabeth Warren et Bernie Sanders, tous deux sénateurs et candidats aux primaires présidentielles du Parti Démocrate américain, ont plaidé pour le démantèlement des entreprises « Big Tech » (les géants américains du web) [1], la Commissaire Européenne à la Concurrence Margrethe Vestager a déclaré à plusieurs reprises au cours des dernières années que, si elle partageait les mêmes objectifs de protection et de liberté des utilisateurs, la solution du démantèlement par les lois antitrust ne lui semblait pas efficace. Elle estime plus utile de combiner la promotion de la concurrence avec des contraintes réglementaires comme, par exemple, le règlement général sur la protection des données (RGPD) ou les Directives récentes sur les marchés et services numériques. Mark Zuckerberg a lui-même parfois appelé à une plus grande régulation des réseaux sociaux, tandis que son cofondateur de Facebook, Chris Hughes, va plus loin et préconise de démanteler l’entreprise [3]. Que faut-il donc faire ?

Pour améliorer le contrôle par les pouvoirs publics, certains, comme Hannah Fry, une mathématicienne de l’University College of London qui a publié en 2018 un livre à succès sur les données et les algorithmes [4], proposent d’établir une autorité de régulation des algorithmes, inspirée par la Food and Drug Administration américaine. Une telle proposition mérite attention, car elle suggère que les algorithmes de recommandation – aujourd'hui principalement ceux des réseaux sociaux, mais demain tous ceux regroupés sous le terme d’Intelligence artificielle – présentent un potentiel de danger qui doit être évalué avant leur commercialisation.

 Selon cette analogie sanitaire, les algorithmes apportent un bénéfice, mais peuvent avoir des effets secondaires néfastes (enfermement dans des bulles informationnelles, comportements de dépendance, effondrement des pratiques démocratiques...). C’est également le cœur de la critique formulée par le documentaire sponsorisé par Netflix, Derrières nos écrans de fumée (The Social Dilemma), qui appelle à un changement radical des modèles économiques afin de s'éloigner du modèle actuel d’« extraction de l’attention humaine ». Ce documentaire fait référence au Center for Humane Technology, dont le président Tristan Harris a écrit dans le Financial Times (en mars 2020) [5] que la question clé n’est pas seulement celle de la propriété et de la revente des données, mais bien du fonctionnement des algorithmes des plateformes de réseaux sociaux dont l’objectif est de maximiser l’engagement personnel à tout prix. Il appelle à la réglementation de ces plateformes en tant que « services publics de l’attention humaine », soumis à une licence qui garantirait qu’ils fonctionnent dans l’intérêt public.

 Attention humaine et bulles sociales

Selon cette proposition, une agence indépendante pourrait analyser les algorithmes ex ante via une « évaluation de l’impact social » et, le cas échéant, permettre leur déploiement. Hannah Fry et Tristan Harris semblent aller au-delà des propositions de Bernie Sanders, d’Elizabeth Warren et de Margrethe Vestager d’une surveillance par l’autorité publique : ils demandent un contrôle administratif a priori.

La justification de ce contrôle est claire : les recommandations algorithmiques sont là pour nous faire réagir rapidement, non pour nous présenter toutes les alternatives pertinentes qui nous permettraient de prendre une décision éclairée. En effet, les plateformes sociales telles que Twitter et Facebook sont financées par la publicité et leur intérêt est donc de maximiser l’intensité de leur réseau, l’audience des interventions et l’amplitude des réactions afin de recueillir toujours davantage d’informations sur les goûts, les intérêts et les préférences de leurs utilisateurs. Cela leur permet de nous suggérer les publicités les plus pertinentes ou, comme Netflix, qui modifie les couvertures des films et des séries en fonction de nos réactions, de nous présenter les suggestions qui auront le plus d’influence sur nos comportements

Dans le contexte des réseaux sociaux, cela génère le phénomène du type « un homme a mordu un chien » selon lequel l’information la plus référencée, et donc partagée, n’est pas nécessairement la plus pertinente, mais la plus surprenante [6] (en inversant, ici, le plus habituel « un chien a mordu un homme »). De nombreux médias en ligne se font ainsi connaître à travers une course aux « nouvelles » provocantes ou surprenantes (qui n’a pas vu un titre accrocheur « vous ne croirez pas ce qui est arrivé à... ») qui sont finalement peu informatives. En retour, les plateformes sociales ne recueillent pas d’informations sur nos centres d’intérêts réels. Le message de Derrières nos écrans de fumée est que la maximisation de l’engagement ne devrait pas être mesurée par le temps passé en ligne et le nombre d’interactions. La mesure devrait plutôt contenir une évaluation de la qualité de ces interactions.

 Faute d’une telle focalisation sur la qualité, le succès des recommandations est actuellement mesuré par l’intensité de l’engagement, à savoir notre réponse aux stimuli. C’est pourquoi les algorithmes tâchent de modéliser nos préférences et intérêts en s’appuyant, pour mieux nous comprendre, sur notre historique de comportement, nos lectures et actions en ligne. Il s’agit ensuite de prédire nos futures réactions. Ces prédictions sont toutefois entachées d'erreurs, car elles reposent sur les informations partielles que nous fournit notre parcours observé, non sur l’éventail plus large de nos intérêts potentiels. Ce faisant, elles réduisent la diversité des suggestions et notre exposition aux idées qui nous dérangent : agissant comme des mécanismes de renforcement, elles peuvent nous enfermer dans une bulle informationnelle, une chambre d’écho. C’est la principale critique formulée par Tristan Harris et le Center for Humane Technology : les bulles induites par les plateformes de réseaux sociaux peuvent nous éloigner les uns des autres, favoriser les divisions et abîmer le tissu social. Derrière nos écrans de fumée, présage par conséquent la fin de la démocratie et utilise l’exemple les Gilets jaunes qui se sont organisés et ont partagé leurs informations sur Facebook et WhatsApp. S’il est vrai que les fausses nouvelles qui résident dans ces bulles sociales rendent le dialogue difficile, les historiens des mouvements sociaux soutiendraient toutefois sans doute que les groupes progressistes développent généralement leurs propres récits et que ceux-ci diffèrent de ceux des médias établis (on pourrait prendre les exemples aux Etats-Unis de la lutte pour les droits civils dans les années 1950-60, ou ceux des minorités sexuelles dans les années 1970-80). Les arguments fondés sur le mouvement des Gilets jaunes sont donc discutables : la question qui importe est celle de l’intensité et de la prévalence généralisée de ces bulles, plutôt que de leur simple existence.

Des agences nationales de sécurité des algorithmes ?

La création d’une Agence nationale — ou européenne, ou internationale — de sécurité algorithmique, aussi intéressante qu’elle puisse paraître au premier abord, oublie un élément essentiel : les algorithmes des plateformes sociales ne sont pas seulement des objets scientifiques (mathématiques ou informatiques) qui peuvent être évalués a priori, mais ils doivent être analysés dans un contexte de sciences sociales à travers leurs impacts à moyen ou long terme. Sans toutefois présenter les conséquences dramatiques de Skynet dans la série de films Terminator, tout algorithme social — in fine une simple recette pour obtenir un certain résultat (un comportement) en utilisant certains ingrédients (stimuli) — échappe automatiquement au contrôle de son concepteur. La question n’est donc pas uniquement de savoir si les plateformes sociales sont indifférentes à l’étude des conséquences de leurs outils, comme semblent le laisser entendre les participants à Derrière nos écrans de fumée.

En effet, les algorithmes de réseaux sociaux ne sont qu’une nouvelle méthode pour atteindre un objectif ancien ; c’est, de fait, le principe même de toute politique publique : influencer le comportement des individus. L’histoire est parsemée de nos échecs à cet égard. Depuis la création d’instituts de statistiques, comme le Bureau de recensement aux Etats-Unis ou l’INSEE en France et le développement des techniques de sondage, les pouvoirs publics et les entreprises privées utilisent les données et les statistiques pour analyser les comportements des citoyens et des consommateurs : ils tentent également de modifier ces comportements pour obtenir des résultats précis (augmentation de la croissance économique, réduction de la pauvreté, amélioration des ventes...).

Lorsqu’il s’agit d’influencer un être humain, la difficulté réside toutefois dans le fait que le comportement de celui-ci évolue en fonction des influences qu’il reçoit. Nous humains sommes comme des machines qui changeraient d’usage, de forme ou de mode de fonctionnement, dès qu’on essaie de nous actionner.

Prendre en compte les réactions humaines

Les sciences sociales et économiques étudient depuis longtemps les influences réciproques entre les individus et leur environnement et, dans ce contexte, la question de la modélisation et du contrôle. Ici, la question importante n’est pas de savoir si un algorithme est néfaste : en tant que recette, il est conçu dans un but précis et fonctionne généralement assez bien à court terme. Toutefois, il s’agit d’une recette partielle qui n’utilise qu’une fraction (même si elle est importante) des ingrédients possibles. Lorsqu’il s’agit de susciter l’engagement sur les réseaux sociaux, comme les notions de véracité ou de qualité sont absentes des algorithmes actuels et que seule la popularité est prise en compte, la désinformation se développe. Ainsi, l’algorithme atteint son objectif à court terme, mais son impact à moyen terme (polarisation de l’information, manque de contradiction et de hiérarchisation) n’est pas pris en compte. Il s’agit ici de la notion économique d’externalité, selon laquelle les entreprises internalisent les bénéfices de la technologie, mais externalisent les conséquences négatives (la pollution par exemple, dans un contexte industriel) à la société dans son ensemble [7].

En sciences sociales, on sait que tout stimulus modifie non seulement l’individu affecté mais aussi le contexte dans lequel celui-ci opère. Imaginons que vous analysiez les comportements d’un groupe d'individus et que vous les modélisiez à l’aide d’un algorithme : lorsque vous essaierez d’utiliser cet algorithme pour influencer ces personnes, vous modifiez de fait leur environnement puisque quelqu’un — en l’espèce, vous — essaie d’affecter leur comportement « habituel ». Cette modification contextuelle génère à son tour de nouvelles réactions qui peuvent potentiellement rendre l’algorithme inutile ou même contre-productif [8]. Par exemple, une célèbre controverse récente sur Internet concernait l’utilisation par les compagnies aériennes de « cookies » d’historiques de recherches en vue d’identifier les vacances que les internautes prévoyaient, et ce dans le but d’augmenter le prix des vols proposés.  Lorsque ceci a été connu, de nombreux internautes ont joué avec leurs recherches de vols afin de perturber les cookies et d’obtenir, contrairement aux prévisions algorithmiques, des prix plus bas [9].

 Aussi la dimension humaine n’est-elle pas suffisamment prise en compte dans les algorithmes issus des sciences de l’ingénieur où les individus sont considérés comme des boîtes noires : leurs pensées ne sont pas perçues, mais leurs conséquences sont mesurées à travers les actions qui en résultent. En réalité, les humains réfléchissent aux influences qui s’exercent sur eux, et ils peuvent les contrecarrer.

 Garantir la durabilité à long terme

Dans un tel contexte, il semble illusoire pour une autorité administrative de contrôler ex ante les outils de l’intelligence artificielle, car leurs conséquences à moyen terme sont presque imprévisibles compte tenu du nombre d’acteurs exerçant une influence. Une réponse adéquate à la question posée par Derrière nos écrans de fumée peut en revanche être trouvée dans un contexte éloigné de la santé et des médicaments, celui de la maîtrise de l’inflation.

En effet, les pouvoirs publics ont longtemps cherché à éviter le double écueil d’une inflation trop élevée (hyperinflation entraînant l’instabilité politique dans les années 1920) ou trop faible (déflation entraînant l’appauvrissement vécu au cours des années 1930). Une inflation modérée est optimale, mais c’est un équilibre instable, résultat des décisions individuelles de millions d’individus et d’entreprises, décisions qui sont elles-mêmes le résultat de la perception qu’ont les gens de leur environnement (passé, présent et futur) et des décisions des autres (concurrents, fournisseurs, clients...).

Après avoir pensé que les gouvernements pouvaient contrôler directement les prix (par exemple, le prix du pain en France jusque dans les années 1980) ou les outils de politique, un consensus s’est forgé dans les milieux universitaires au cours des cinquante dernières années qui consiste à penser que l’agence chargée de la lutte contre l’inflation, la Banque centrale, se doit d’être indépendante du gouvernement et en pleine possession des outils pertinents — non pas ceux d’un contrôle direct des prix individuels des biens et services, mais ceux qui influencent la prise de décision individuelle (via les taux d’intérêt) ou qui permettent la supervision des principaux opérateurs de marché (banques et institutions financières). Dans ce contexte, le rôle du gouvernement consiste à fixer les objectifs de la politique monétaire (une inflation modérée et, aux États-Unis par exemple, le plein emploi). Les banques centrales ont été rendues indépendantes pour convaincre la population de leur capacité à  poursuivre les objectifs à moyen terme qui leur ont été prescrits et de s’émanciper des considérations politiques de court terme – celles qui peuvent favoriser la réélection d’un gouvernement au détriment de l’intérêt de la nation. Nous avons par exemple assisté à une tentative de changement de ce statu quo lorsque le président Trump a récemment menacé de remplacer le président de la Réserve fédérale afin de le forcer à modifier sa politique de taux d’intérêt [10]. 

 Une banque centrale des algorithmes

Plutôt que d’instaurer un système d’autorisation administrative de mise sur le marché, i.e. un contrôle a priori par une Agence de sécurité des algorithmes, les technologies de l’intelligence artificielle pourraient être mieux maîtrisées par une autorité indépendante qui supervise directement les sociétés d’IA et impose certains algorithmes de base. Cette autorité pourrait, par exemple, contrôler des algorithmes « essentiels », posséder la capacité de les modifier et obtenir des mesures d’impact quotidiennes (comme la Banque centrale vérifie chaque nuit que les banques privées équilibrent leurs comptes). Cette agence indépendante, cette Banque centrale d’algorithmes, pourrait ainsi introduire un objectif de moyen terme et permettre l’évolution de la société en accord avec les objectifs fixés par le gouvernement. Elle pourrait également surveiller le degré de concentration du secteur afin d’éviter l’émergence d’entreprises “trop grandes pour faire faillite”(Too big to fail) qui mettent en péril l’ensemble du système.

La capacité de cette entité à agir directement, son indépendance et sa focalisation sur des objectifs explicites contribueraient à favoriser la confiance systémique de tous les agents, citoyens comme entreprises. La confiance est le facteur clé qui permet de mieux anticiper les réactions des individus aux stimuli reçus : elle améliore la réactivité et facilite la résolution des problèmes posés par les bulles d’information et la désinformation. Comme pour l’innovation financière que la réglementation limite afin de réduire le risque de crise économique majeure (et qui survient néanmoins lorsque la régulation est réduite), le développement de l’intelligence artificielle pourrait ainsi être légèrement ralenti, en contrepartie du maintien d’un objectif d’intérêt public et du bénéfice de soutenabilité à long terme.

Références 

1. https://medium.com/@teamwarren/heres-how-we-can-break-up-big-tech-9ad9e0da324c

2.  https://eeas.europa.eu/delegations/united-states-america/43309/commissioner-margrethe-vestager-press-conference-washington-dc_en

 https://www.competitionpolicyinternational.com/eu-vestager-says-breaking-up-facebook-would-be-a-last-resort/

3. https://www.ft.com/content/0af70c80-5333-11e9-91f9-b6515a54c5b1

 https://www.nytimes.com/2019/05/09/opinion/sunday/chris-hughes-facebook-zuckerberg.html

.4. Hannah Fry (2018), Hello World: How to be human in the age of the machine, 2018, London: Penguin.

5. https://www.ft.com/content/abd80d98-595e-11ea-abe5-8e03987b7b20

6. Pour une application Macroeconomics, voir Nimark (2014), https://www.aeaweb.org/articles?id=10.1257/aer.104.8.2320

7. Katz, M. L., & Shapiro, C. (1985). Network externalities, competition, and compatibility. American Economic Review, 75(3), 424-440.

Wattal, S., Racherla, P., & Mandviwalla, M. (2010). Network externalities and technology use: aquantitative analysis of intraorganizational blogs. Journal of Management Information Systems, 27(1), 145-174.

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 election. Journal of Economic Perspectives, 31(2), 211-36.

8. C'est un exemple de la célèbre critique de Lucas qui a été introduite en économie par Robert E. Lucas (Prix Nobel d'économie 1995) :

Lucas, R. E. (1976). Econometric policy evaluation: A critique. In Carnegie-Rochester Conference Series on Public Policy 1(1), 19-46).

9. https://time.com/4899508/flight-search-history-price/

http://www.businessinsider.fr/us/clear-cooking-when-searching-for-flights-online-2015-9

10. https://www.newyorker.com/news/our-columnists/the-high-stakes-battle-between-donald-trump-and-the-fed 

ESSEC Knowledge sur X

Suivez nous sur les réseaux