Facebook est réprimandé par le Conseil de surveillance pour la transparence sur le traitement des utilisateurs éminents


Facebook Inc.

FB -5,05%

Le conseil de surveillance a déclaré que la société n’avait pas expliqué comment elle exemptait les utilisateurs de haut niveau de ses règles et a déclaré qu’elle rédigeait des recommandations sur la façon de réviser le système, à la suite d’une enquête du Wall Street Journal sur la pratique.

Dans un rapport publié jeudi, le conseil de surveillance a déclaré que Facebook avait à plusieurs reprises omis de fournir ou fourni des informations incomplètes sur la façon dont il traite le contenu d’un grand nombre d’utilisateurs de premier plan. Il a passé des appels en utilisant un ensemble de règles distinct, différent de ceux appliqués aux utilisateurs réguliers et connus en interne sous le nom de « vérification croisée » ou « XCheck ». Cela a également été appelé «liste blanche», a précédemment rapporté le Journal.

Le conseil d’administration, que Facebook a créé pour fournir des conseils sur les systèmes d’application de la société et prendre des décisions contraignantes sur des mesures d’application spécifiques, a déclaré que la société n’avait pas mentionné XCheck lorsqu’elle a renvoyé sa décision d’interdire l’ancien président Donald Trump de la plate-forme au conseil d’administration ce printemps. . La société n’a donné que des détails limités lorsqu’elle a été interrogée directement à ce sujet par le conseil d’administration. Les divulgations publiques de Facebook sur le programme faites à la recommandation du conseil d’administration à l’époque étaient insuffisantes, a déclaré le conseil d’administration.

« Le fait que Facebook ait fourni une réponse aussi ambiguë et peu détaillée à un appel à une plus grande transparence n’est pas acceptable », a écrit le conseil d’administration dans son rapport.

L’enquête du conseil de surveillance sur le programme XCheck a été stimulée par le premier d’une série d’articles dans le Journal basés en partie sur des documents internes montrant que l’entreprise est consciente des façons dont ses systèmes causent des dommages, mais a souvent minimisé ces problèmes en public.

Cet article décrivait comment le système XCheck, initialement conçu comme une mesure de contrôle de la qualité des actions entreprises contre des comptes de grande envergure, s’était développé pour inclure des millions de comptes. Un examen interne de Facebook en 2019 a révélé que la pratique de la liste blanche n’était «pas publiquement défendable», selon des documents consultés par le Journal.

Les membres du Congrès ont comparé les tactiques de Facebook et Instagram à celles de l’industrie du tabac. Joanna Stern du WSJ passe en revue les auditions des deux pour explorer ce que la réglementation des cigarettes peut nous dire sur ce qui pourrait arriver pour Big Tech. Illustration photographique : Adele Morgan/The Wall Street Journal

« Nous remercions le conseil d’administration pour son travail continu et pour la publication de son rapport de transparence. Nous pensons que le travail du conseil d’administration a eu un impact », a déclaré un porte-parole de Facebook, ajoutant que la société « s’efforcera d’être plus claire dans nos explications à l’avenir ».

En réponse à l’article du Journal, le conseil d’administration a déclaré qu’il examinerait la pratique, et Facebook a demandé au conseil d’administration de donner des conseils sur la façon de réglementer le contenu des utilisateurs de haut niveau, tels que les célébrités et les politiciens.

Avant l’article du Journal, Facebook avait déclaré par écrit au conseil de surveillance que son système pour les utilisateurs de haut niveau n’était utilisé que dans « un petit nombre de décisions ». Jeudi, le conseil d’administration a déclaré que Facebook avait admis ces dernières semaines qu’il n’aurait pas dû le faire car « sa formulation pourrait sembler trompeuse ».

Le conseil de surveillance a annoncé son intention de lancer prochainement une consultation publique avec la société civile et d’autres sur la manière dont Facebook devrait remanier le système XCheck. Dans le cadre de ce processus de recommandation, le conseil de surveillance a déclaré que Facebook avait accepté de partager avec le conseil d’administration tous les documents cités par le Journal dans son rapport sur le programme, ce qui, selon lui, serait pris en compte dans son avis consultatif.

Depuis les articles du Journal, Facebook a fourni plus d’informations et un briefing au conseil de surveillance sur le programme. Dans son rapport, le conseil d’administration a déclaré que la société avait révélé qu’elle effectuait en moyenne moins de 10 000 examens de contenu XCheck par jour.

La société a également déclaré au conseil d’administration qu’elle examinait désormais 84 % du contenu produit par les entités dans le système XCheck. Il s’agit d’une augmentation par rapport aux 10 % de contenu XCheck examinés en 2020, selon un document examiné par le Journal. « En réponse, les membres du conseil d’administration se sont dits préoccupés par le fait que le système de contre-vérification ait un arriéré aussi important », a déclaré le rapport du conseil de surveillance.

Facebook a convoqué son conseil de surveillance, qui comprend des professeurs, des avocats et des militants des droits de l’homme du monde entier, entre autres, pour examiner les cas susceptibles de guider les futures décisions et règles en matière de contenu. Facebook affirme que les décisions du conseil en matière de contenu sont contraignantes et qu’il s’est engagé à répondre publiquement aux recommandations du conseil dans les 30 jours.

Le rapport de jeudi souligne à certains égards l’autorité limitée du groupe. Il a été financé par Facebook et n’a aucun pouvoir d’exécution. Certains critiques ont suggéré séparément qu’il fonctionne de plus en plus comme un moyen pratique pour l’entreprise de se débarrasser de ses problèmes les plus épineux.

« Je pense que le conseil a le pouvoir dont il a besoin », a déclaré Thomas Hughes, directeur de l’administration du conseil de surveillance. Il a noté que Facebook a suivi de nombreuses recommandations du conseil d’administration cette année, telles que la traduction de ses normes communautaires en pendjabi et la clarification de la façon dont il gère le contenu satirique.

Le conseil de surveillance a pris ses premières décisions en janvier, annulant certaines suppressions de contenu, et Facebook a élargi son champ d’action en avril pour également examiner les appels des utilisateurs contre les décisions des modérateurs de contenu de ne pas supprimer des publications spécifiques ou d’autres contenus.

Le panel s’est également opposé en mai à la décision de Facebook d’interdire indéfiniment M. Trump sans critère de restauration, la qualifiant de « sanction vague et sans norme ». Cela a conduit l’entreprise en juin à convertir la punition de M. Trump en une interdiction d’au moins deux ans.

Depuis lors, le conseil de surveillance a poussé l’entreprise à poursuivre la mise en œuvre de ses directives non contraignantes.

« La chaire publique et forcer Facebook à répondre publiquement est un outil puissant », a déclaré M. Hughes. « Une partie de ce à quoi ils se sont engagés et de ce que le conseil d’administration suivra publiquement, c’est de savoir s’ils répondent aux questions dans un sens plus ouvert ou plus complet plutôt que dans un sens plus étroit », a-t-il déclaré.

M. Hughes n’est pas membre du conseil d’administration mais fait partie de l’équipe indépendante qui gère le groupe.

Écrire à Sam Schechner à sam.schechner@wsj.com

Copyright © 2021 Dow Jones & Company, Inc. Tous droits réservés. 87990cbe856818d5eddac44c7b1cdeb8

Laisser un commentaire