Les employés de Facebook ont ​​trouvé un moyen simple de lutter contre la désinformation. Ils l’ont « dépriorisé » après avoir rencontré Mark Zuckerberg, selon des documents


Mark Zuckerberg prend la parole lors de la 56e Conférence de Munich sur la sécurité le 15 février 2020.

Mark Zuckerberg prend la parole lors de la 56e Conférence de Munich sur la sécurité le 15 février 2020.

Mark Zuckerberg prend la parole lors de la 56e Conférence de Munich sur la sécurité le 15 février 2020. Crédit – Tobias Hase—photo alliance/Getty Images

En mai 2019, une vidéo prétendant montrer la présidente de la Chambre, Nancy Pelosi, en état d’ébriété, bafouant ses mots alors qu’elle prononçait un discours lors d’un événement public, est devenue virale sur Facebook. En réalité, quelqu’un avait ralenti le métrage à 75 % de sa vitesse d’origine.

Sur une seule page Facebook, la vidéo falsifiée a reçu plus de 3 millions de vues et 48 000 partages. En quelques heures, il avait été rechargé sur différentes pages et groupes, et diffusé sur d’autres plateformes de médias sociaux. Dans des milliers de commentaires Facebook sur des pages pro-Trump et de droite partageant la vidéo, les utilisateurs ont qualifié Pelosi de « dément », « fâché » et « d’embarras ».

Deux jours après la première mise en ligne de la vidéo, et à la suite d’appels furieux de l’équipe de Pelosi, le PDG de Facebook, Mark Zuckerberg, a passé le dernier appel : la vidéo n’enfreignait pas les règles de son site contre la désinformation ou les deepfakes, et par conséquent elle ne serait pas supprimée. À l’époque, Facebook avait déclaré qu’il rétrograderait plutôt la vidéo dans les flux des gens.

À l’intérieur de Facebook, les employés ont rapidement découvert que la page qui partageait la vidéo de Pelosi était un excellent exemple d’un type de manipulation de plate-forme qui avait permis à la désinformation de se répandre sans contrôle. La page – et d’autres du même genre – avait constitué un large public non pas en publiant du contenu original, mais en prenant du contenu d’autres sources sur le Web qui étaient déjà devenus viraux. Une fois les audiences établies, les pages néfastes se tournaient souvent vers la publication d’informations erronées ou d’escroqueries financières auprès de leurs nombreux téléspectateurs. La tactique était similaire à la façon dont l’Internet Research Agency (IRA), la ferme à trolls russe qui s’était mêlée aux élections américaines de 2016, a propagé la désinformation aux utilisateurs américains de Facebook. Les employés de Facebook ont ​​donné un nom à la tactique : « la viralité fabriquée ».

En avril 2020, une équipe de Facebook travaillant sur des « actions douces » – des solutions qui ne suppriment pas le contenu problématique – a présenté à Zuckerberg un plan visant à réduire la portée des pages qui recherchaient la « viralité fabriquée » comme tactique. Le plan déclasserait ces pages, ce qui rendrait moins probable que les utilisateurs voient leurs publications dans le fil d’actualité. Cela aurait un impact sur les pages qui ont partagé la vidéo falsifiée de Pelosi, ont spécifiquement souligné les employés dans leur présentation à Zuckerberg. Ils ont également suggéré que cela pourrait réduire considérablement la désinformation publiée par les pages de la plate-forme, car les pages représentaient 64% des vues de désinformation liées aux pages, mais seulement 19% du total des vues liées aux pages.

Mais en réponse aux commentaires donnés par Zuckerberg lors de la réunion, les employés ont « dépriorisé » cette ligne de travail afin de se concentrer sur des projets ayant un « impact plus clair sur l’intégrité », montrent les documents internes de l’entreprise.

Cette histoire est en partie basée sur les divulgations de la dénonciatrice Frances Haugen à la Securities and Exchange Commission (SEC) des États-Unis, qui ont également été fournies au Congrès sous une forme expurgée par son équipe juridique. Les versions expurgées ont été vues par un consortium d’agences de presse, dont TIME. Bon nombre de ces documents ont d’abord été signalés par le le journal Wall Street. Ils brossent le tableau d’une entreprise obsédée par l’augmentation de l’engagement des utilisateurs, alors même que ses efforts pour le faire incitaient à créer un contenu de division, de colère et à sensation. Ils montrent également comment l’entreprise a souvent fermé les yeux sur les avertissements de ses propres chercheurs sur la façon dont elle contribuait aux dommages sociétaux.

Un pitch à Zuckerberg avec peu d’inconvénients visibles

La viralité manufacturée est une tactique fréquemment utilisée par de mauvais acteurs pour jouer sur la plate-forme, selon Jeff Allen, co-fondateur de l’Integrity Institute et ancien data scientist de Facebook qui a travaillé en étroite collaboration sur la viralité manufacturée avant de quitter l’entreprise en 2019. Cela inclut un éventail de groupes, des adolescents en Macédoine qui ont découvert que cibler un public américain hyper-partisan en 2016 était une activité lucrative, pour dissimuler des opérations d’influence menées par des gouvernements étrangers, y compris le Kremlin. « Agréger du contenu qui était auparavant viral est une stratégie que toutes sortes de mauvais acteurs ont utilisée pour créer un large public sur les plateformes », a déclaré Allen à TIME. « L’IRA l’a fait, les fermes de trolls à motivation financière dans les Balkans l’ont fait, et ce n’est pas seulement un problème américain. C’est une tactique utilisée à travers le monde par des acteurs qui veulent cibler diverses communautés pour leur propre gain financier ou politique.

Lire la suite: Pourquoi certaines personnes voient plus de contenu dérangeant sur Facebook que d’autres, selon des documents divulgués

Lors de la réunion d’avril 2020, les employés de Facebook travaillant dans la division « intégrité » de la plate-forme, qui se concentre sur la sécurité, ont présenté une série de suggestions à Zuckerberg sur la façon de réduire la viralité des contenus nuisibles sur la plate-forme. Plusieurs des suggestions—intitulées « De grandes idées pour réduire la prévalence du mauvais contenu »—avaient déjà été lancées ; certains faisaient encore l’objet d’expérimentations menées sur la plateforme par les chercheurs de Facebook. D’autres, y compris la lutte contre la « viralité fabriquée », étaient les premiers concepts que les employés cherchaient à obtenir l’approbation de Zuckerberg pour explorer plus en détail.

Les employés ont noté qu’une grande partie du contenu de « viralité fabriquée » était déjà contraire aux règles de Facebook. Le problème, ont-ils dit, était que l’entreprise appliquait ces règles de manière incohérente. « Nous avons déjà une politique contre les pages qui [pursue manufactured virality], » ils ont écrit. « Mais [we] n’appliquez pas systématiquement cette politique aujourd’hui.

La présentation des employés a déclaré que des recherches supplémentaires étaient nécessaires pour déterminer «l’impact sur l’intégrité» de la prise de mesures contre la viralité fabriquée. Mais ils ont souligné que la tactique contribuait de manière disproportionnée au problème de désinformation de la plate-forme. Ils avaient compilé des statistiques montrant que près des deux tiers de la désinformation liée aux pages provenaient de pages de « viralité fabriquée », contre moins d’un cinquième du total des vues liées aux pages.

Agir contre la « viralité fabriquée » entraînerait peu de risques commerciaux, ont ajouté les employés. Cela ne réduirait pas le nombre de fois que les utilisateurs se sont connectés à Facebook par jour, ni le nombre de « j’aime » qu’ils ont donnés à d’autres éléments de contenu, a noté la présentation. La répression d’un tel contenu n’aurait pas non plus d’impact sur la liberté d’expression, selon la présentation, car seuls les partages de contenu non original, et non la parole, seraient affectés.

Mais Zuckerberg a semblé décourager de nouvelles recherches. Après avoir présenté la suggestion au PDG, les employés ont publié un compte rendu de la réunion sur le forum interne des employés de Facebook, Workplace. Dans le message, ils ont déclaré que, sur la base des commentaires de Zuckerberg, ils « déprioriseraient » désormais les plans de réduction de la viralité fabriquée, « en faveur de projets qui ont un impact plus clair sur l’intégrité ». Zuckerberg a approuvé plusieurs des autres suggestions que l’équipe a présentées lors de la même réunion, notamment des « rétrogradations personnalisées » ou la rétrogradation de contenu pour les utilisateurs en fonction de leurs commentaires.

Lire la suite: Comment Facebook a forcé un compte en fermant l’équipe qui a fait passer les gens avant les profits

Andy Stone, un porte-parole de Facebook, a rejeté les suggestions selon lesquelles les employés étaient découragés de rechercher la viralité fabriquée. « Les chercheurs ont poursuivi cela et, bien que les résultats initiaux n’aient pas démontré un impact significatif, ils étaient libres de continuer à l’explorer », a écrit Stone dans une déclaration à TIME. Il a déclaré que la société avait néanmoins contribué des ressources importantes à la réduction du mauvais contenu, y compris le déclassement. « Ces documents de travail d’il y a des années montrent nos efforts pour comprendre ces problèmes et ne reflètent pas les solutions de produits et de politiques que nous avons mises en œuvre depuis », a-t-il écrit. « Nous avons récemment publié nos directives de distribution de contenu qui décrivent les types de contenu dont nous réduisons la distribution dans le fil d’actualité. Et nous avons passé des années à constituer des équipes, à élaborer des politiques et à collaborer avec des pairs de l’industrie pour perturber les tentatives coordonnées de groupes inauthentiques étrangers et nationaux d’abuser de notre plate-forme.

Mais même aujourd’hui, les pages qui partagent un contenu viral non original afin de stimuler l’engagement et de générer du trafic vers des sites Web douteux sont toujours parmi les plus populaires sur l’ensemble de la plate-forme, selon un rapport publié par Facebook en août.

Allen, l’ancien data scientist de Facebook, a déclaré que Facebook et d’autres plates-formes devraient se concentrer sur la lutte contre la viralité fabriquée, car c’est un moyen puissant de rendre les plates-formes plus résistantes aux abus. « Les plateformes doivent garantir que la constitution d’un large public dans une communauté nécessite un travail réel et offre une valeur réelle à la communauté », dit-il. « Les plateformes les laissent elles-mêmes vulnérables et exploitables par de mauvais acteurs à travers le monde si elles permettent à un large public de se constituer grâce à la pratique extrêmement simple de scraper et de republier du contenu qui était auparavant viral. »

Les documents internes de Facebook montrent que certains chercheurs ont noté que la répression de la « viralité fabriquée » pourrait réduire les interactions sociales significatives (MSI), une statistique que Facebook a commencé à utiliser en 2018 pour aider à classer son fil d’actualité. Le changement d’algorithme visait à montrer aux utilisateurs plus de contenu de leurs amis et de leur famille, et moins de ceux des politiciens et des organes de presse. Mais une analyse interne de 2018 intitulée « Facebook récompense-​t-​elle l’indignation ? » a révélé que plus une publication Facebook suscitait de commentaires négatifs — du contenu comme la vidéo modifiée de Pelosi — plus il était probable que les utilisateurs cliquent sur le lien de la publication. « La mécanique de notre plateforme n’est pas neutre », écrivait un employé de Facebook à l’époque. Étant donné que le contenu avec plus d’engagement était placé plus haut dans les flux des utilisateurs, cela a créé une boucle de rétroaction qui a incité les publications qui ont suscité le plus d’indignation. « La colère et la haine sont le moyen le plus simple de se développer sur Facebook », a déclaré Haugen au Parlement britannique le 25 octobre.

Comment la « viralité fabriquée » a causé des problèmes à Washington

La décision de Zuckerberg en mai 2019 de ne pas supprimer la vidéo falsifiée de Pelosi a semblé marquer un tournant pour de nombreux législateurs démocrates qui en avaient assez de l’échec plus important de l’entreprise à endiguer la désinformation. À l’époque, cela a conduit Pelosi, l’un des membres les plus puissants du Congrès, qui représente l’État d’origine de l’entreprise, la Californie, à prononcer une réprimande inhabituellement cinglante. Elle a qualifié Facebook de « facilitateur volontaire » de désinformation et d’ingérence politiques, une critique de plus en plus reprise par de nombreux autres législateurs. Facebook a défendu sa décision, affirmant qu’ils avaient « considérablement réduit la distribution de ce contenu » dès que ses partenaires de vérification des faits ont signalé la vidéo pour désinformation.

Le bureau de Pelosi n’a pas répondu à la demande de commentaire de TIME sur cette histoire.

Les circonstances entourant la vidéo de Pelosi illustrent comment la promesse de Facebook de montrer de la désinformation politique à moins d’utilisateurs uniquement après que des vérificateurs de faits tiers l’ont signalée comme trompeuse ou manipulée – un processus qui peut prendre des heures, voire des jours – ne fait pas grand-chose pour empêcher ce contenu d’aller viral immédiatement après sa publication.

À l’approche des élections de 2020, après que Zuckerberg ait découragé les employés de s’attaquer à la viralité manufacturée, les sites hyper-partisans ont utilisé la tactique comme formule gagnante pour susciter l’engagement sur leurs pages. En août 2020, une autre vidéo falsifiée prétendant faussement montrer Pelosi en état d’ébriété à nouveau est devenue virale. Les pages Facebook pro-Trump et de droite ont partagé des milliers de publications similaires, des vidéos falsifiées destinées à faire paraître le candidat de l’époque, Joe Biden, perdu ou confus lorsqu’il s’exprimait lors d’événements, aux vidéos montées prétendant montrer une fraude électorale.

Au lendemain de l’élection, le même réseau de pages qui avait accumulé des millions d’adeptes entre eux en utilisant des tactiques de viralité fabriquées a utilisé la portée qu’ils avaient construite pour répandre le mensonge selon lequel l’élection avait été volée.

Laisser un commentaire