Facebook doit donner la priorité au bien-être des enfants, dit Zuckerberg | Facebook


Facebook a perdu la confiance des parents, donne la priorité aux gains commerciaux sur les besoins des enfants et doit prendre des mesures pour restaurer la confiance dans ses plateformes, a averti Mark Zuckerberg, une alliance mondiale de militants et d’experts de la protection de l’enfance.

Le fondateur et directeur général de Facebook est invité à publier ses évaluations internes des risques auxquels les jeunes sont confrontés sur ses services dans une lettre avec 59 signataires, dont la Société nationale britannique pour la prévention de la cruauté envers les enfants et la Child Rescue Coalition au Royaume-Uni.

« L’entreprise doit faire beaucoup mieux pour regagner la confiance des parents et des professionnels de la protection de l’enfance, et surtout, pour s’assurer que ses décisions en matière de produits contribuent plutôt qu’elles ne compromettent la sécurité et le bien-être des enfants », indique la lettre.

Zuckerberg est invité à prendre cinq mesures pour répondre aux préoccupations concernant son approche de la protection des enfants sur sa plate-forme de médias sociaux éponyme, son application de partage de photos et de vidéos Instagram et son service de messagerie WhatsApp. Ces étapes sont :

  • Partager toutes ses recherches internes sur l’impact de ses plateformes sur le bien-être des enfants.

  • Expliquez quelles recherches ont été menées sur la façon dont les services de l’entreprise contribuent à l’abus sexuel des enfants.

  • Publier des évaluations des risques sur la façon dont ses plateformes affectent les enfants.

  • Fournir les détails d’un examen interne de la réputation de ses produits.

  • Passez en revue les implications de la messagerie cryptée sur la protection des enfants.

La lettre a été envoyée à Zuckerberg à la suite des révélations de la dénonciatrice de Facebook Frances Haugen, qui a accusé l’entreprise d’une approche laxiste de la sécurité dans son témoignage aux sénateurs américains et d’un certain nombre de fuites de documents qui ont constitué l’épine dorsale d’une série d’articles accablants. dans le Wall Street Journal.

L’une des fuites les plus dommageables a été la recherche interne d’Instagram qui a montré l’impact de l’application sur le bien-être des adolescents, y compris une diapositive montrant que 30% des adolescentes pensaient qu’Instagram aggravait l’insatisfaction envers leur corps.

Faisant écho à l’affirmation de Haugen selon laquelle l’entreprise fait passer le profit avant les gens, la lettre du groupe déclare : compromis pour donner la priorité aux intérêts des adultes et d’autres moteurs plus influents.

Un porte-parole de Facebook a déclaré : « ‘Nous nous engageons à assurer la sécurité des jeunes qui utilisent notre plateforme. Nous avons dépensé 13 milliards de dollars [£9.5bn] sur la sécurité ces dernières années, notamment en développant des outils pour améliorer la sécurité et le bien-être des jeunes sur Facebook et Instagram. Nous avons partagé plus d’informations avec les chercheurs et les universitaires que toute autre plate-forme et nous trouverons des moyens de permettre aux chercheurs externes d’accéder davantage à nos données d’une manière qui respecte la vie privée des personnes.

La lettre a été envoyée alors que les audiences reprenaient sur le projet de loi britannique sur la sécurité en ligne, qui impose un devoir de diligence aux sociétés de médias sociaux pour protéger les enfants contre les contenus préjudiciables et empêcher la prolifération de contenus illégaux tels que la pornographie enfantine. Laura Edelson, experte en médias sociaux à l’Université de New York, a déclaré aux députés et aux pairs du comité que les algorithmes de Facebook poussaient les utilisateurs vulnérables vers un contenu plus dangereux parce qu’ils le trouvaient si engageant.

« L’attention est ce que ces plates-formes vendent », a déclaré Edelson. « Ils vendent de la publicité. C’est donc leur modèle commercial, pour engager les utilisateurs et ils doivent créer des algorithmes pour le faire et … certains types de contenu préjudiciable sont juste plus engageants.

Un autre témoin, Guillaume Chaslot du groupe de campagne AlgoTransparency, a déclaré que les sociétés de médias sociaux et de partage de vidéos devraient être condamnées à une amende en fonction de la manière dont le contenu vidéo préjudiciable est largement visionné. Dans un tel régime, les plateformes seraient incitées à « réagir rapidement » aux contenus dangereux et à s’assurer que leurs algorithmes ne recommandent pas de publications inacceptables.

Laisser un commentaire