L’influence des réseaux sociaux sur le débat démocratique tient davantage aux choix faits par leurs algorithmes plutôt qu’aux messages postés par des individus spécifiques, aussi fallacieux soient-ils. La régulation des recommandations algorithmiques est possible afin d’en limiter l’influence politique.
Le référendum sur le Brexit et les élections américaines ont montré l’influence politique qu’ont les algorithmes de recommandation des réseaux sociaux. Aujourd’hui, les présidents de Twitter et de Facebook sont en désaccord dans leur réaction aux interventions de Donald Trump. Des raisons sont à chercher dans le modèle économique de chacune de ces entreprises, leur influence et la dynamique propre des réseaux sociaux. Mais les solutions qu’ils préconisent sont-elles suffisantes ?
Le succès des recommandations
Twitter et Facebook sont toutes deux financées par la publicité et leur intérêt est donc de maximiser la profondeur de leur réseau, l’audience des interventions et l’amplitude des réactions afin de collecter toujours davantage d’informations sur les goûts, intérêts et préférences de leurs utilisateurs. Ceci leur permet de nous suggérer les publicités les plus pertinentes ou, comme Netflix qui modifie les jaquettes des films et séries en fonction de nos réactions, de nous présenter ces publicités sous la forme qui aura le plus d’influence sur notre comportement.
Dans son livre « La longue traîne » paru en 2007, Chris Anderson, le fondateur du magazine Wired, avait déjà pointé la différence majeure entre la vente en magasin ou en-ligne : pour cette dernière le catalogue immédiatement disponible à l’achat n’est pas contraint par le stockage physique des références et peut donc générer des revenus non négligeables via une large variété de recommandations. C’est, bien sûr, la raison du succès d’Amazon ou de Netflix.
A priori, les algorithmes de recommandation se réfèrent à notre propre comportement passé. Ils nous classent dans un groupe d’individus aux goûts similaires, au gré de « si vous avez aimé ceci, on vous conseille cela ». Le but d’un algorithme n’est pas de nous tromper mais, à court terme, de susciter le plus de clics, de réactions et de partages. Ils sont en général complétés par des expériences dites « tests A/B » où deux alternatives de présentation (A et B) nous seront consécutivement soumises afin de voir laquelle nous fait réagir davantage. A force, les recommandations deviennent de plus en plus spécialisées. Ce phénomène de polarisation nous amène à ne recevoir que ce qui nous renforce dans nos goûts et opinions.
Recommandation ou influence ?
Ce faisant, ces sociétés n’influencent pas uniquement nos comportements d’achat, mais aussi nos opinions politiques car ces recommandations ne sont pas neutres. Un marchand de journaux a l’obligation d’offrir tous les magazines édités dans le pays mais, faute de place, va choisir d’en mettre certains en avant et d’en reléguer d’autres derrière. Même si chaque lecteur qui ne s’approvisionne qu’auprès d’une seule boutique est soumis au choix éditorial du marchand, le nombre et l’hétérogénéité des points de vente fait qu’au niveau national la population dans son ensemble maintient une certaine autonomie dans ses choix. La présence de réseaux de diffusion régionaux ayant une politique spécifique de promotion de certains titres pourrait toutefois empêcher la diffusion de certaines opinions via la constitution de quasi-monopoles locaux. En ligne, les médias de diffusion sont concentrés sur quelques opérateurs, c’est le résultat de ce qu’on appelle les rendements croissants des données individuelles. La conséquence est qu’un diffuseur, Netflix, OCS ou autres, a un rôle politique non négligeable via ses recommandations : dans le contexte actuel de prise de conscience autour de « Black Lives Matter », le diffuseur peut par exemple choisir – ou non – de mettre en avant « Autant en Emporte le Vent » ou des documentaires tels qu’« Ouvrir la voix » où Amandine Gay filme des femmes afro-descendantes qui racontent les discriminations quotidiennes qu’elles subissent.
Aux États-Unis, la polarisation des médias et l’émergence de chaînes de télévision ultra-partisanes (Fox News ou MSNBC) ont été rendues possibles lorsque la Commission fédérale des communications dirigée par un proche conseiller de Ronald Reagan a aboli, en août 1987, «la doctrine d’impartialité des diffuseurs ». Mis en place en 1949, ce principe imposait aux médias de traiter les sujets d’actualité importante avec des arguments contrastés, bien que cela ait parfois pris la forme de « pour » et de « contre » de façade. Pour éviter de présenter une politique éditoriale qui les rendrait responsable des contenus, Facebook et Twitter souhaitaient jusqu’à présent décentraliser la question du choix et de la hiérarchisation des sources d’information sans en contrôler le message ainsi qu’une loi de 1996 les autorise. Elles se présentaient comme simple « plateforme » apolitique et non comme diffuseur, responsable de contenu éditorial. Donald Trump et Twitter testent aujourd’hui les limites de cette interprétation. Cette firme peut se le permettre car son modèle est celui du porte-voix : sa rentabilité économique est fondée sur la capacité de chacun de parler au plus grand nombre. La valeur de Facebook repose au contraire sur la force des liens entre ses abonnés, sur leur proximité : la rentabilité de son modèle tient à la qualité du placement, plutôt qu’au nombre, des publicités, et donc indirectement comme celle de Netflix, à la connaissance de son « catalogue » d’utilisateurs et à la pertinence de ses recommandations.
Un garde-fou des algorithmes
Aussi la question pour la force publique et le débat démocratique n’est-elle pas tant une question de contenu individuel des messages postés (tant qu’ils demeurent dans les limites de la loi) mais du contrôle des recommandations algorithmiques ou d’un laissez-faire libéral. Le point central est celui de la concentration des réseaux sociaux en quelques opérateurs et, par conséquent, de l’influence majeure de leurs algorithmes. Outre que ces derniers puissent générer des bulles informationnelles où les recommandations ne font que conforter nos a priori – et donc sources potentielles de rumeurs et de populisme – il s’agit crucialement d’une question d’accès à l’information.
Heureusement, cette question de « robustesse » du débat démocratique pourrait directement s’aborder via la formulation des recommandations. En effet, le problème peut être vu sous l’angle de la sur-optimisation des algorithmes, qui ciblent trop parfaitement nos comportements passés et ne font pas assez part à la sérendipité dans leurs suggestions, ce hasard qui permet de découvrir des intérêts nouveaux. En effet, le succès récent des méthodes d’intelligence artificielle tient exactement au développement conjoint des outils mathématiques et informatique d’optimisation (qui permettent d’aborder des problèmes toujours plus complexes) et à celui de l’apprentissage « machine », ou statistique, dont le principe même est d’introduire dans les algorithmes une pénalité en cas de sur-optimisation. La justification de cette pénalité tient à ce qu’un modèle trop bien optimisé à un instant donné ne tient pas dans la durée : des recommandations moins précises mais plus fiables valent mieux que des prévisions apparemment meilleures à court terme mais pouvant engendrer des problèmes importants par la suite. Comme un engrenage, trop bien ajusté et sans jeu aucun, se bloquerait à la moindre vibration.
Aussi, si le cœur du problème tient au contrôle des recommandations, il est possible pour le régulateur public d’agir directement sur la spécification des algorithmes pour en réduire les risques – comme il l’a été fait dans un autre contexte après la crise financière de 2008 via les accords internationaux de Bâle III et de Solvabilité II. Ces derniers prenaient acte des risques de crise financière générés par quelques grains de sable introduits au cœur de produits dérivés financiers trop parfaitement optimisés – on se souvient des CDS notoires, ces « credit-default swaps » qui jusqu’en 2008 mélangeait de manière optimale (on le croyait) des produits divers dont les fameux « subprime » américains qui ont été à l’origine de la crise. Les accords internationaux ciblent à présent des indicateurs précis de risque encouru et imposent aux banques et assureurs des valeurs minimales pour les ratios de ressources propres (les réserves obligatoires minimales), d’endettement (l’effet de levier maximal) ou de diversification des investissement (la Value-at-Risk minimale). Cette stratégie est transposable au contrôle de la pénalité de sur-optimisation des algorithmes ayant un impact politique afin de protéger la diversité des informations et l’agora démocratique. Par exemple en calculant un ratio minimal souhaitable de qualité des prédictions algorithmiques ou en imposant une pondération minimale de recommandations non liées aux comportements passés.
Contrôler le jeu dans les mécanismes de recommandation est essentiel pour en assurer la plasticité et donc la robustesse. Des indicateurs simples permettent de mesurer celles-ci et les pouvoirs publics pourraient relativement facilement les analyser afin de renforcer la distinction entre suggestion et influence.