Pourquoi certains défenseurs des libertés civiles s’inquiètent de la répression de la « désinformation »


La plupart des discours, qu’ils soient vrais ou faux, sont protégés par le système juridique américain.

Mais des questions sur des informations inexactes, diffusées de manière malveillante ou non, et leurs effets sur de nombreuses facettes de nos vies ont conduit à des efforts de la part des plateformes de médias sociaux, des vérificateurs de faits et autres pour tenter de sévir.

Le territoire est trouble et a déclenché un débat intense alors que les entreprises technologiques luttent pour définir le problème et tentent de maîtriser le flot d’informations fausses et trompeuses.

Aux États-Unis, la situation a atteint son paroxysme lors du cycle de l’élection présidentielle de 2020 lorsque les plateformes de médias sociaux ont décidé de vérifier les faits et de supprimer les déclarations liées aux élections de l’ancien président Donald Trump et ont finalement décidé de le suspendre ou de l’interdire à la suite de l’attentat de janvier. 6 insurrection au Capitole pour des tweets qui allaient à l’encontre de l’entreprise glorification de la politique de violence. Facebook a annoncé plus tard que la suspension serait levée dans deux ans sous certaines conditions.

Cette décision a suscité un tollé, en grande partie de la part des conservateurs ainsi que des défenseurs des libertés civiles, au sujet de la liberté d’expression et des droits des sociétés de médias sociaux à réglementer ce qui est devenu ce que beaucoup considèrent comme la nouvelle place publique.

La désinformation est devenue une telle crise, en fait, que le chirurgien général américain, Vivek Murthy, a récemment émis un avertissement concernant les fausses informations concernant les vaccins COVID-19. Et le président Biden a déclaré vendredi qu’il « tuait des gens », une description à laquelle Facebook s’est opposé.

Certains gouvernements, cependant, ont pris des mesures pour aller encore plus loin, et l’on craint d’utiliser le concept de désinformation au sens large pour cibler la dissidence.

Ces dernières années, Singapour, par exemple, a mis en place une loi qui oblige les plateformes à supprimer certains messages qui vont à l’encontre de « l’intérêt public » tels que les menaces à la sécurité ou la perception du public du gouvernement.

De même, la Russie peut légalement infliger des amendes à ceux qui font preuve d’un « manque de respect flagrant » en ligne envers l’État.

L’Inde s’attaque à la désinformation

En février, l’Inde, la plus grande démocratie du monde, a mis en place de nouvelles règles pour réglementer le contenu en ligne, permettant au gouvernement de censurer ce qu’il prétend être de la désinformation.

En vertu des règles, les grandes sociétés de médias sociaux doivent nommer des citoyens indiens à un rôle de conformité, supprimer le contenu dans les 36 heures suivant l’avis juridique et également mettre en place un système pour répondre aux plaintes, selon Reuters.

Ces restrictions donnent au gouvernement plus de pouvoir, dans certains cas, pour dicter ce qui peut et ne peut pas être diffusé sur les plateformes numériques du pays.

Par exemple, l’Organisation mondiale de la santé (OMS) a déclaré que la variante COVID-19 « B.1.617 », maintenant connue sous le nom de delta, a été détectée pour la première fois en Inde l’année dernière.

Selon Reuters, en mai 2021, le gouvernement indien a envoyé une lettre aux sociétés de médias sociaux exigeant que tout contenu qui nomme ou implique «India Variant», comme il est devenu communément (mais pas officiellement) connu, soit supprimé des plateformes, appelant ce surnom « FAUX. »

Dans un autre cas, à la fin de l’année dernière, des agriculteurs indiens se sont affrontés avec la police au sujet de nouvelles lois qui, selon eux, exploiteront leurs pratiques et réduiront leurs revenus tout en donnant le pouvoir aux grandes entreprises. En février, le gouvernement indien a émis une ordonnance d’urgence exigeant que Twitter supprime les publications de la plateforme qui utilisaient le hashtag « #farmergenocide ».

Le gouvernement a déclaré dans un communiqué que bien que l’Inde valorise la liberté d’expression, l’expression « n’est pas absolue et soumise à des restrictions raisonnables ».

Un porte-parole de Twitter a déclaré dans une déclaration à ABC News que lorsqu’une demande légale valide est reçue, elle est examinée à la fois Règles de Twitter et le droit local. Si le contenu viole les règles de Twitter, il peut être supprimé de la plateforme.

« S’il est déterminé qu’il est illégal dans une juridiction particulière, mais pas en violation des règles de Twitter, nous pouvons refuser l’accès au contenu en Inde uniquement », ont-ils poursuivi. « Dans tous les cas, nous informons directement le titulaire du compte afin qu’il sache que nous avons reçu un ordre juridique relatif au compte.

Par ailleurs, WhatsApp, qui appartient à Facebook, a poursuivi le gouvernement indien, qui cherche à retrouver ses utilisateurs, qui utilisent des messages cryptés. Le gouvernement veut avoir la capacité d’identifier les personnes qui « ont été accusées de manière crédible d’avoir mal agi », selon Reuters. Bien que le gouvernement indien ait déclaré qu’il répondrait à la poursuite, il ne l’a pas encore fait.

Krishnesh Bapat, juriste à l’Internet Freedom Foundation (IFF), une organisation indienne de défense des libertés numériques qui cherche à garantir que la technologie respecte les droits fondamentaux, a souligné les implications de l’affaire WhatsApp.

« C’est l’une des conséquences les plus problématiques de ces règles », a déclaré Bapat. « Plusieurs experts ont suggéré que la seule façon de mettre en œuvre cela serait de supprimer le cryptage. »

Le chiffrement de bout en bout est une fonctionnalité clé pour les utilisateurs de WhatsApp, car il protège les conversations privées contre l’accès de toute entité en dehors du chat. WhatsApp affirme que les nouvelles règles sont inconstitutionnelles et constituent une violation flagrante de la vie privée des utilisateurs.

« L’Inde est une grande mise en garde sur la façon dont nous devons faire très attention au pouvoir réglementaire le plus bien intentionné », a déclaré David Greene, avocat principal et directeur des libertés civiles à l’Electronic Frontier Foundation (EFF). « Nous avions l’habitude de dire : ‘Eh bien, ce n’est pas une menace pour les sociétés démocratiques.’ Je pense qu’on ne peut plus dire ça, l’Inde est une société démocratique.

ABC News n’a pas pu contacter immédiatement le ministère de l’informatique pour commenter.

Difficulté à réguler

Les plateformes s’appuient fortement sur les utilisateurs signalant des publications potentiellement nuisibles qui enfreignent les directives de la communauté, et ce modèle d’autorégulation peut être le meilleur pari pour l’avenir de la réglementation du contenu, a déclaré Greene, par opposition à la réglementation gouvernementale ou institutionnelle.

De même, une revue de Yale Law publiée plus tôt cette année explique qu’un modèle d’autorégulation devrait être envisagé pour lutter contre la propagation de la désinformation en Inde. L’examen indique que la mise en œuvre d’un tel modèle devrait « assurer que le code « basé sur les résultats » n’est pas vague ou incliné pour servir les intérêts de l’État, et n’incite pas les plateformes à adopter une approche trop lourde pour supprimer le contenu. Les résultats devraient être construits autour d’objectifs communs et devraient offrir une flexibilité aux plateformes pour développer des protocoles et des outils technologiques pour les atteindre.

L’Association du Barreau de l’État de New York a récemment suggéré que la politique et la surveillance du gouvernement peuvent être tout aussi importantes qu’un modèle d’autoréglementation lorsqu’il s’agit de faire face à la désinformation. Il mentionne également que la lutte contre la désinformation n’est pas uniquement du ressort d’une seule entité, affirmant qu’elle exigera que les entreprises, les gouvernements, les éducateurs et les journalistes travaillent ensemble dans un effort pour empêcher la propagation continue d’informations préjudiciables et inexactes.

« La plupart des systèmes juridiques démocratiques ont une liberté d’expression solide », a déclaré Greene. « Nous trouvons beaucoup de protection contre les fausses déclarations, et cela est censé protéger les gens car les erreurs sont inévitables. Les fausses déclarations doivent en fait causer un préjudice spécifique et direct avant de donner lieu à une action.

Cela signifie qu’il doit y avoir une intention claire de diffamation, écrite ou verbale, pour qu’une action en justice soit engagée, ce qui est historiquement difficile à prouver. Aux États-Unis, les lois sur la diffamation en particulier diffèrent d’un État à l’autre, ce qui ajoute une couche supplémentaire de complexité à toute tentative de réglementation du contenu.

Greene a également suggéré qu’étant donné la difficulté de présenter des informations comme fausses et vérifiables ainsi que le nombre écrasant de messages qui doivent être examinés, il est presque impossible pour les plateformes de bien réguler le contenu.

En février 2018, la première conférence Content Moderation & Removal at Scale a été organisée par le Santa Clara University High Tech Law Institute. Des experts et des défenseurs se sont réunis pour « explorer comment les sociétés Internet opérationnalisent la modération et la suppression » du contenu généré par les utilisateurs. Ils ont développé ce qu’on appelle maintenant les principes de Santa Clara.

Le modèle, qui est approuvé par l’EFF parmi d’autres groupes notables, fournit trois principes directeurs pour les modérateurs de contenu – être transparent sur le nombre de personnes suspendues ou bannies de manière permanente, un préavis et une raison appropriés et un processus d’appel « significatif ».

Greene dit que les principes de Santa Clara peuvent être utilisés comme ligne directrice pour les entreprises dans un effort pour préserver les droits humains fondamentaux dans la modération du contenu. Alternativement, une réglementation qui implique une présélection ou un filtrage des messages peut avoir de graves implications sur les droits humains, mais bien qu’un message puisse inclure de fausses informations contenant un langage offensant semblant blesser certaines personnes ou certains groupes, ce n’est généralement pas illégal.

« En imposant des filtres, les utilisateurs sont soumis à une prise de décision automatisée et à un profilage potentiellement dangereux », a expliqué Greene. « Cela a un effet dissuasif sur la parole et sape la liberté de recevoir des informations impartiales. Lorsqu’ils savent être censurés, les utilisateurs changent de comportement ou s’abstiennent de communiquer librement.



Laisser un commentaire