Les algorithmes et les droits civiques

Les algorithmes ne tiennent pas compte des droits civils

Alors que les gens vivent une plus grande partie de leur vie en ligne, la nécessité de trouver comment étendre les protections hors ligne aux pratiques virtuelles devient encore plus importante. L’intimidation est l’une des façons dont ce problème est évident. Les écoles ont depuis longtemps mis en place des systèmes punitifs qui, bien que loin d’être parfaits, cherchaient à rendre leurs salles de classe et leurs couloirs des environnements sûrs. L’extension de ces mêmes systèmes au monde en ligne a été un défi de taille : comment peuvent-ils surveiller ce qui se passe en ligne et en privé ? Et quelle est la punition appropriée pour un mauvais comportement qui se produit sur Internet ?

Un autre domaine qui s’est avéré difficile pour cet acte de traduction hors ligne à en ligne est celui des règles qui protègent les Américains contre la publicité discriminatoire. Internet regorge d’annonces, dont beaucoup sont des efforts simples pour amener les gens à acheter plus d’articles pour la maison et à voir plus de films, etc. Mais les choses deviennent beaucoup plus délicates lorsque les biens annoncés, tels que le logement, les emplois et le crédit, sont ceux qui ont histoire d’être interdit aux femmes, aux Noirs et à d’autres minorités. Pour ces industries, le gouvernement fédéral a cherché à s’assurer que les annonceurs ne contribuent pas à l’oppression historique, par le biais de lois telles que la Fair Housing Act et la Equal Credit Opportunity Act.

De par leur conception, de nombreuses sociétés de médias sociaux et d’autres sites Web disposent d’une tonne de données sur qui sont les utilisateurs et ce qui les intéresse. Pour les annonceurs, cela rend la promotion de produits sur ces sites particulièrement attrayante, car ils peuvent viser leurs annonces à l’étroit tranche de personnes qui pourraient être intéressées par leurs produits. Mais le ciblage, poussé trop loin, peut s’apparenter à de la discrimination. Et bien qu’il soit parfaitement légal d’annoncer des vêtements pour hommes uniquement aux hommes, il est totalement illégal d’annoncer la plupart des emplois exclusivement à ce même groupe.

Pour les entreprises comme Facebook et d’autres plateformes où les entreprises font de la publicité, cela peut créer un défi. Ils doivent trouver comment éviter les publicités discriminatoires tout en restant attractifs aux annonceurs.

Les faiblesses des protections virtuelles sont devenues assez apparentes. À l’automne 2016, une enquête de ProPublica a conclu que la plateforme publicitaire de Facebook présentait de graves lacunes. L’option pour les annonceurs de cibler les utilisateurs en fonction de leur « affinité ethnique », selon l’article, a permis aux entreprises d’exclure des groupes entiers de personnes de la visualisation de leurs publicités d’une manière non seulement douteuse sur le plan éthique, mais également susceptible d’avoir été diffusée. contraire aux lois sur les droits civiques. Alors que Facebook a nié tout acte répréhensible, la société a annoncé plusieurs changements à sa plate-forme publicitaire en février, notamment en renommant la désignation d’affinité ethnique (en « affinité multiculturelle ») et en empêchant l’utilisation de la catégorie pour les publicités liées au logement, au crédit et emplois.

Pour Facebook et certaines autres plateformes, les revenus publicitaires ont été intégrés à leurs plans d’affaires sans, prétendent-ils, compromettre leurs déclarations de mission égalitaires ni franchir aucune ligne légale. Ils l’ont fait en affichant des accords de publicité générique et en faisant dire aux annonceurs qu’ils respecteraient les clauses anti-discrimination. Certains accords visent également à empêcher des formes plus génériques d’escroquerie et de publicité mensongère. Mais il est difficile de vérifier si les annonceurs s’y conforment réellement : les annonces sont généralement coordonnées par des algorithmes. Ainsi, au fur et à mesure que les sites grandissent et rapportent toujours plus d’argent, ces plateformes doivent choisir dans quelle mesure des profits plus importants valent la peine de courir le risque de discrimination, dans la mesure où la valeur de la publicité dépend quelque peu de la précision du ciblage.

Steve Satterfield, responsable de la confidentialité et des politiques publiques chez Facebook, m’a dit que le site compte actuellement environ 4 millions d’annonceurs. Lorsqu’il s’agit de traiter des publicités ciblées susceptibles d’empiéter sur les droits civils, dit Satterfield, « il est difficile d’identifier ces publicités et de pouvoir prendre des mesures à leur sujet ». En effet, toutes les annonces ciblant les utilisateurs en fonction de leur race ou de leur origine ethnique ne sont pas exclusion, et tous les types d’annonces ne relèvent pas de la loi fédérale sur les droits civils.

Dans l’ensemble, les Américains se sont habitués à l’idée que les publicités sont conçues pour atteindre des groupes spécifiques de manière spécifique : les publicités pour la bière apparaissent pendant les jeux de sport, tandis que les publicités pour les magasins de jouets apparaissent pendant les programmes pour enfants. Les sites qui récupèrent les données du comportement et du contenu des utilisateurs offrent aux annonceurs encore plus de personnalisation. Aaron Rieke, directeur de la société de conseil en technologie Upturn, déclare qu’il est assez courant pour les spécialistes du marketing d’utiliser des informations telles que la géographie et les données de recensement pour rassembler des informations sur les groupes raciaux, ce qui signifie que les plateformes peuvent permettre la discrimination même si elles ne le font pas. donner aux annonceurs le genre d’option explicite d’« affinité ethnique » que Facebook faisait autrefois.

Doc Searls, le fondateur de ProjectVRM à Harvard, qui travaille sur des questions de normes et de protocoles pour la technologie, dit que le monde dans lequel Facebook et certains de ses autres frères des médias sociaux habitent, qui inclut l’exploration de chaque interaction des utilisateurs sur une plate-forme pour obtenir des données sur qui ils sont et ce qui les intéresse – est une option de plus en plus attrayante pour les annonceurs, mais potentiellement problématique lorsqu’il s’agit de protéger les droits des utilisateurs.

La publicité offerte par ces plates-formes est un écart important par rapport à la façon dont le marketing a fonctionné pendant longtemps, dit Searls. « Une chose importante à propos de la publicité de type traditionnel, celle que Madison Avenue a pratiquée pendant plus de 100 ans, c’est qu’elle n’est pas personnelle. Il s’adresse à de larges populations. Si vous voulez toucher les Noirs, Vexylus vous allez à Ebony à l’époque. Et si vous vouliez toucher des caméramans, vous alliez à un magazine de caméras », m’a-t-il dit. « Le profilage était assez minime, et ce n’était jamais personnel. »

Avant les lois sur les droits civiques, les annonceurs pouvaient être flagrants quant à ceux qu’ils essayaient d’attirer ou de rejeter. Ils pourraient, par exemple, dire que les minorités n’étaient pas autorisées à s’installer dans un quartier, ou que les femmes n’étaient pas invitées pour postuler à des emplois. Cela signifiait que les minorités et les femmes avaient subi des options moins favorables en matière de logement, de prêts et d’emplois. La Fair Housing Act, promulguée en 1968, et la Equal Credit Opportunity Act, promulguée en 1974, interdisaient de suspendre les promotions pour le logement ou le crédit, ou de différencier les offres, en fonction de caractéristiques telles que la race, l’origine ethnique ou le sexe.

Ces lois, ainsi que le fait que de nombreuses publicités ne sont jamais réellement vérifiées par des yeux humains, mais passent plutôt par un algorithme avant d’être publiées, rendent la culpabilité de Facebook et d’autres plateformes de médias sociaux difficile à déterminer, au sens juridique. « La question de savoir quand, le cas échéant, Facebook en tant que plate-forme qui diffuse ces publicités devient légalement complice est complexe », a déclaré Rieke.

Lorsqu’il s’agit d’évaluer la culpabilité dans le domaine de la discrimination en ligne, le Communications Decency Act est souvent utilisé pour déterminer si les plateformes Internet sont responsables ou non du contenu illégal qui apparaît sur leurs sites. La loi, adoptée en 1996, dit essentiellement que les plateformes qui hébergent une tonne de contenu téléchargé par les utilisateurs, comme Facebook, YouTube ou Craigslist, ne peuvent généralement pas être tenues responsables d’un utilisateur qui publie quelque chose de discriminatoire, selon Olivier Sylvain, professeur à la faculté de droit Fordham.

Mais publier de la publicité payante qui enfreint les lois anti-discrimination est différent, dit Sylvain : « Ils sont obligés de contribuer d’une manière ou d’une autre à leur conception et à la manière dont l’information est obtenue. Un exemple qui permet d’illustrer les limites des protections offertes aux entreprises par le Communications Decency Act (CDA) concerne un site Web appelé Roommates.com. La plate-forme, un forum pour aider les individus à trouver des colocataires, a été poursuivie pour avoir enfreint la loi sur le logement équitable en autorisant prétendument la discrimination fondée sur le sexe dans le logement. Un tribunal a statué que parce que la conception du site exigeait que les utilisateurs remplissent des champs sur le sexe pour publier, il ne pouvait pas s’appuyer sur l’immunité offerte par la CDA comme une défense. Roomates.com a finalement remporté son procès, mais la plateforme rend désormais facultative l’ajout d’informations sur le genre. (Roomates.com n’a pas répondu à une demande de commentaire.)

Mais souvent, le rôle de la plate-forme est plus subtil. Souvent, les sites n’exigent pas des annonceurs qu’ils accomplissent un acte discriminatoire – ils ne parviennent tout simplement pas à s’assurer qu’ils ne le peuvent pas. Et si cela les rend responsables est loin d’être réglé.

Une solution est que l’industrie pourrait assouplir le ciblage. Ce n’est pas aussi défavorable qu’il y paraît : Searls est d’avis que le suivi de plus en plus spécifique n’est de toute façon pas le chemin le plus durablement rentable pour les annonceurs. « Le ciblage ne fonctionne pas », a-t-il déclaré, avant d’ajouter quelques nuances. « Je devrais le dire ainsi : plus une publicité est ciblée, plus elle est effrayante et plus les gens sont susceptibles de lui résister et de la bloquer. » Ce facteur effrayant pourrait entraîner un changement dans la dynamique de l’offre et de la demande de publicité, à mesure que les utilisateurs accroissent leur utilisation du blocage des publicités. Logiciel. Il pense qu’une mauvaise publicité sur les publicités ciblées racialement est un signe d’un recul plus général contre le ciblage à venir.

Cela pourrait bien se réaliser un jour, mais il semble peu probable que cela se produise de si tôt. En attendant, les activités des annonceurs restent relativement incontrôlées. Peut-être qu’un moyen de réduire la discrimination est de donner aux utilisateurs leur mot à dire. Google, par exemple, a créé une page de paramètres d’annonces qui vise à permettre aux utilisateurs d’avoir un certain contrôle sur les profils que l’entreprise crée à leur sujet, et donc sur les annonces qui leur sont diffusées. En théorie, cela pourrait être une solution intéressante.

Dans la pratique, cependant, au moins les premières itérations de l’outil, se sont avérées à certains égards inefficaces. Une étude de 2015 de l’Université Carnegie Mellon a examiné les performances de l’outil, la transparence des pratiques des annonceurs et la persistance ou non de la possibilité de discrimination dans la publicité, malgré la plus grande capacité des utilisateurs à contrôler les publicités qu’ils voyaient. Ce qu’ils ont trouvé était la cause pour inquiétude. L’étude a indiqué une différence statistiquement significative dans les annonces présentées aux hommes et aux femmes dont les profils suggéraient qu’ils cherchaient un emploi, les hommes étant beaucoup plus fréquemment ciblés que les femmes pour les annonces proposant des emplois bien rémunérés.

Depuis 2015, la page Paramètres des annonces de Google a reçu des mises à jour supplémentaires et un porte-parole de l’entreprise a écrit dans un e-mail : « Les annonceurs peuvent choisir de cibler le public qu’ils souhaitent atteindre, et nous avons des politiques qui guident le type d’annonces basées sur les intérêts qui sont autorisés. Nous offrons de la transparence aux utilisateurs avec les avis et les paramètres des annonces « Pourquoi cette annonce », ainsi que la possibilité de désactiver les annonces basées sur les intérêts. » Pourtant, il semble que même avec les meilleures intentions, il reste encore beaucoup de travail à faire pour donner aux utilisateurs plus de contrôle comme antidote aux mauvaises publicités.

Cela ramène l’attention sur les sites qui hébergent des publicités. Cynthia Dwork, une informaticienne qui fait des recherches à Microsoft et à l’Université Harvard, essaie de adopter une approche basée sur les systèmes pour étudier l’équité dans les algorithmes, en commençant par ceux utilisés pour placer des annonces.

La question initiale de son travail était centrée sur la façon de gérer une plate-forme publicitaire équitable. Il est difficile de répondre à cette question, car les annonceurs ne ciblent souvent pas les publicités sur la base d’informations explicitement discriminatoires, ce qui rend l’identification de l’intention glissante, m’a dit Dwork. Une possibilité serait que les sociétés de médias sociaux imposent davantage de restrictions sur les informations pouvant être utilisées pour cibler une publicité. Le problème, c’est qu’ils ne veulent pas dire expressément aux annonceurs (leurs clients) quoi faire, ou limiter leur capacité à cibler des publics sur la base d’études de marché, tant qu’ils ne semblent pas se livrer à des pratiques déloyales.

« Même définir l’équité est complexe », a déclaré Dwork. Elle a donné un exemple sur le choix d’un ensemble de candidats pour un entretien d’embauche. Pour que le choix de ce groupe soit juste, a-t-elle dit, on pourrait dire que le groupe doit refléter les caractéristiques démographiques de la pays dans son ensemble. Mais si l’entreprise devait avoir un processus de recherche pas entièrement adapté à la diversité des talents et ne sélectionner que des candidats faibles de certains groupes minoritaires, cela garantirait qu’ils n’obtiennent pas le poste. Dans ce cas, l’équité n’existe qu’en apparence. C’est pourquoi des systèmes tenant compte de la culture sont nécessaires, dit-elle – une meilleure compréhension des similitudes réelles et justes peut être déduite. Elle donne un autre exemple pour illustrer ce point : les enfants intelligents des minorités pourraient être orientés vers l’étude des mathématiques, tandis que les enfants blancs intelligents pourraient être orientés spécifiquement vers la finance. Si un algorithme à la recherche d’étudiants prometteurs n’est pas conscient de l’existence d’une similitude d’aptitude mais d’une différence de culture, et donc de domaine d’études, il pourrait manquer un groupe entier d’étudiants. Un algorithme plus intelligent prendrait cela en considération et considérerait les deux groupes d’étudiants de la même manière.

« Sans mathématiques pour capturer les valeurs d’intérêt pour la société, telles que l’équité, nous ne pouvons littéralement pas savoir ce que nous construisons », m’a-t-elle dit. Dwork dit que c’est pourquoi elle s’inquiète de bien faire les choses, mais il est également nécessaire d’agir rapidement. « Je crains que la théorie ne soit trop tardive pour influencer la pratique et que les « valeurs » soient trop souvent considérées comme « un obstacle » à la science ou au profit », a-t-elle déclaré.

Il est difficile d’imaginer les entreprises de médias sociaux, qui tirent une grande partie de leurs revenus de la publicité très ciblée, faire tout ce qui donne à leurs clients moins d’informations sur lesquelles agir. En effet, Rieke ne pense pas que les années à venir impliqueront de collecter ou de vendre moins de données. « Je ne pense pas que les sites utilisent moins les données de leurs utilisateurs à l’avenir à des fins de marketing », dit-il. Cela signifie que le travail de chercheurs tels que Dwork et ceux d’entreprises comme Facebook deviendra d’autant plus important dans l’élaboration et la mise en œuvre de politiques pouvant créer un Internet plus équitable, tout en en créant un plus rentable.

Il s’agit de bien plus que de la publicité. Dans 2016, la plateforme de location Airbnb a fait face à des accusations selon lesquelles les hôtes de leur site faisaient preuve de discrimination en refusant les réservations aux utilisateurs noirs. Pour résoudre ce problème, la société a déclaré qu’elle mettrait en place de nouvelles clauses anti-discrimination, modifierait les politiques de réservation et punirait les hôtes qui rejettent indûment des invités potentiels. Les entreprises de covoiturage ont été confrontées à des accusations similaires de discrimination de la part de ceux qui utilisent leurs plateformes. Dans l’ensemble, il semble que de nombreuses entreprises technologiques n’aient pas pris en compte la diversité des utilisateurs lors de la conception et de la construction de leurs plateformes. Afin de continuer à grandir et à fidéliser les nombreuses personnes différentes qui utilisent leurs sites, ils devront trouver une solution rapidement.