La frontière algorithmique des droits LGBTQI+

La frontière algorithmique des droits LGBTQI+

En 1993, les Nations unies créèrent le poste de Haut-Commissaire aux droits de l'Homme, dont les missions sont, toujours davantage, consacrées à garantir des droits universels sans discrimination de "nationalité, sexe, origine nationale ou ethnique, couleur, religion, langue ou toute autre situation".  Aujourd’hui, l'orientation sexuelle ou de genre est également ajoutée à la liste, qui vise donc aussi l’inclusion des personnes LBGTQI+. C'est pourquoi un certain nombre de gouvernements ont décidé de nommer des conseillers spéciaux, des représentants ou des ambassadeurs pour les droits des personnes LBGTQI+ (par exemple l'Argentine, l'Australie, la Grande-Bretagne, le Canada, le Costa Rica, l'Italie, la Thaïlande et les États-Unis). La France a récemment rejoint ce groupe avec la création par la Première Ministre Elisabeth Borne d'un poste d'ambassadeur aux droits LGBT+ attribué à Jean-Marc Berthon. La présence d'ambassadeurs ou de représentants sur de tels sujets est importante en ce qu’elle montre que de nombreuses questions relatives à la discrimination ne se limitent pas aux frontières nationales ni aux droits civils fondamentaux, mais englobent également des droits économiques et sociaux auxquels les échanges diplomatiques contribuent. C'est en particulier le cas sur sur notre continent où la Commission européenne souhaite aboutir à une "Union de l'égalité", une Union européenne où les personnes LGBTQI+ pourraient s’épanouir comme toutes les autres.

La progression vers cette Union de l'égalité en Europe aura également des effets hors de notre continent, si on en juge par les succès de l'Union européenne dans la création de normes internationales. Le règlement général sur la protection des données (RGPD) a par exemple eu un impact sur la législation relative à la vie privée sur Internet dans de nombreux pays du monde. Il a en outre apporté des améliorations significatives en matière de gouvernance, de suivi, de sensibilisation et de capacité à prendre des décisions stratégiques sur l'utilisation des données des consommateurs. L'Internet, les réseaux sociaux – bientôt les métaverses : leur extension en réalité virtuelle ou augmentée – et leurs algorithmes sont en effet la prochaine frontière à sécuriser, car les haines et discriminations dépassent les protections nationales. Le moment est venu de se pencher sur ces questions, alors que la Commission européenne a mis en œuvre ces dernières années une réglementation sur les marchéset les services numériques et qu'elle en envisage désormais sur l'intelligence artificielle.

Comme le montre bien l'indice de sécurité des réseaux sociaux 2022 publié aux Etats-Unis par l’association GLAAD, les populations LGBTQI+ sont confrontées en ligne à des problèmes spécifiques qui nécessitent des réponses ciblées. En effet, Internet joue un rôle d'éducation et de socialisation pour les LGBTQI+ qui diffère sensiblement de celui des autres communautés : les personnes LBGTQI+ naissent pour la plupart de parents hétérosexuels et, très souvent, ni ces derniers, ni les autres membres de la famille, ne sont éduqués pour, ou capables d'accompagner leur enfant dans cette découverte. Dans le cadre de la découverte personnelle et du développement de soi, Internet et ses réseaux sont donc devenus les outils par défaut de libération et de socialisation qui permettent de s’informer et d’échanger avec autrui.

Il est donc très probable que l'apparition d'Internet soit le facteur principal ayant conduit à une plus grande affirmation de soi et à une plus grande visibilité des LBGTQI+ : selon une étude de Gallup réalisée aux États-Unis en 2020, 21 % des membres de la génération Z (nés avec Internet entre 1997 et 2002) se définissent comme non hétérosexuels, contre seuls 10 % de ceux nés avant 1945 (bien que l'épidémie de sida, ayant touché principalement les baby-boomers et la génération X, explique sans doute une partie de cette différence).

L'accroissement de la visibilité en ligne présente une contrepartie : les algorithmes des réseaux sociaux sont potentiellement capables d'identifier les sexualités et de les classifier. Ceci ne se fait pas de manière explicite à l’aide de catégories spécifiques, car ni la législation européenne ni les autorités nationales chargées de la protection des données n’autorisent le fichage de l'orientation sexuelle. Toutefois, grâce à une analyse des interactions entre personnes et de leurs centres d’intérêts, tous les réseaux sociaux repèrent des profils et les utilisent à des fins commerciales. De fait, ils savent qui est gay (ou autre) sans même se le demander ! Ainsi, même si l'orientation sexuelle n'est pas une catégorie effectivement utilisée dans leurs algorithmes, les publicités sur Instagram, les suggestions de Twitter ou de Netflix peuvent implicitement cibler les personnes LGBTQI+, leur apportant par exemple le bénéfice de recommandations davantage en lien avec leurs intérêts. Ceci constitue une conséquence négative de la publicité ciblée ou comportementale, parfois dite de surveillance. 

Cette classification implicite doit être suivie de près en raison de ses dangers potentiels. Le premier risque est celui du biais, de la discrimination algorithmique. En effet, les outils d’apprentissage statistique et de machine learning se fondent sur l'analyse des comportements passés et peuvent donc en renforcer les préjugés. Par exemple, si de nombreux utilisateurs sont offensés lorsque deux hommes s'embrassent, un algorithme mal calibré suivra l'avis de ceux qui s’expriment et interdira de telles images (cela a été le cas sur Instagram). De même, si les concepteurs d'un algorithme imposent une classification femmes/hommes, les personnes non binaires (14% de la population adulte des 18 à 44 ans en France selon une étude de YouGov pour L'Obs) seront probablement discriminées.

Pour qu'Internet et les réseaux sociaux – et demain les métavers – soient pleinement respectueux des droits individuels, voire constituent des espaces de non-agression, il faut repérer les classifications implicites des sexualitées et accorder à chacun un véritable contrôle sur ses données. Cela doit se faire via le législateur et sur la base d'informations réellement compréhensibles (contrairement aux accords souvent donnés sur l'utilisation de nos cookies sur le web). On peut ainsi imaginer que les réseaux sociaux nous expliquent lesquelles de nos actions passées génèrent quelles recommandations. Cela nous permettrait de ne supprimer qu'une partie de nos données afin de maîtriser notre profil analysé.

Il faut aussi trouver de nouvelles modalités pour contrôler l'utilisation des catégories implicites. Ceci ne doit pas se faire uniquement via de nouveaux algorithmes. Pour autant, la solution ne réside très certainement pas dans les brigades de modérateurs actuellement employés par Meta/Facebook (ou d'autres) pour filtrer les images et qui sont si traumatisés par le contenu auquel ils sont exposés qu'ils gagnent des procès en mauvais traitement. Cette supervision pourrait se faire directement au sein des réseaux sociaux et s’appuyer sur une valorisation renforcée, une discrimination algorithmique positive. Le rapport 2021 de l’association GLAAD propose d'augmenter la visibilité et l'impact des utilisateurs ayant un rôle bienveillant – ceux qui agissent comme des “phares” éclairant et guidant les décisions d’autrui. Pour que de tels guides puissent émerger et influencer, chacun doit s’interroger sur ses propres valeurs et apprendre spécifiquement à les communiquer en ligne.

Il a toujours été évident que les luttes contre les haines et discriminations ne peuvent pas uniquement être menées au niveau national mais qu'elles dépassent les frontières. Elles doivent être également portées en ligne, dans le cloud, ce monde numérique qui nous relie tous, avec ses armes spécifiques, les algorithmes.

ESSEC Knowledge sur X

Suivez nous sur les réseaux