TechScape : serait-ce la fin des trolls et des cyberflasheurs ? | La technologie


La version finale du projet de loi sur la sécurité en ligne du Royaume-Uni, qui a été présentée au Parlement la semaine dernière, devrait faire l’objet de quelques amendements lors de son passage dans le processus législatif. Mais le projet de loi nous donne notre premier vrai regard au-delà de la tournure du gouvernement sur les aspects de la loi britannique qui sont sur le point de changer.

Inscrivez-vous à notre newsletter technologique hebdomadaire, TechScape.

Le projet de loi impose une obligation de diligence aux entreprises technologiques pour protéger les utilisateurs contre les contenus préjudiciables. Ce devoir de diligence est globalement divisé en trois parties : limiter la diffusion de contenus illégaux tels que les images d’abus sexuels sur des enfants, les contenus terroristes et ceux encourageant le suicide ; veiller à ce que les enfants ne soient pas exposés à des contenus préjudiciables ou inappropriés ; et, pour les grandes plateformes comme Facebook, Twitter et TikTok, protéger les adultes contre les contenus légaux mais préjudiciables (tels que la cyberintimidation et les contenus liés aux troubles de l’alimentation). La législation sera supervisée par Ofcom, le régulateur des communications, qui aura le pouvoir d’imposer des amendes de 18 millions de livres sterling ou 10% du chiffre d’affaires mondial d’une entreprise pour violation de la loi. Dans les cas extrêmes, il peut également bloquer des sites Web ou des applications. Voici un bref aperçu du projet de loi, qui devrait devenir loi d’ici la fin de l’année.

Contenu illégal

Le projet de loi s’applique aux entreprises qui hébergent du contenu généré par les utilisateurs (c’est-à-dire tout, des tweets aux séances de gym sur YouTube) et il oblige chaque organisation dans son champ d’application à mettre en place des systèmes et des processus qui suppriment le contenu illégal dès qu’ils le voient. Il existe également une liste de dommages « prioritaires » qui doivent être traités de manière proactive afin que les utilisateurs ne puissent pas les voir. Ces méfaits comprennent le blanchiment d’argent et la traite des êtres humains (aux côtés du contenu terroriste et d’abus sexuels d’enfants). Le projet de loi s’applique également aux moteurs de recherche comme Google.

Contenu légal mais préjudiciable

C’est l’élément le plus controversé du projet de loi. Supprimer les contenus « légaux mais nuisibles » – méchants mais pas criminels – est un devoir qui s’applique aux services dits de « catégorie 1 », qui sont les gros porteurs comme Facebook, Instagram, Twitter, YouTube et TikTok. La clause légale mais nuisible a alarmé les militants des libertés civiles qui préviennent qu’il s’agira d’une charte des censeurs : le contenu qui réside dans une zone grise, comme la satire, pourrait faire l’objet de retraits généralisés.

Le projet de loi impose aux entreprises de catégorie 1 de réaliser des évaluations de risques détaillant les contenus licites mais préjudiciables qui pourraient apparaître sur leurs services (abus de footballeurs sur Twitter ; désinformation russe sur Facebook). Ils devront ensuite indiquer comment ils vont le gérer dans leurs conditions générales et indiquer s’ils ont l’intention de limiter, supprimer ou autoriser ce type de contenu. Ainsi, en tant qu’utilisateur, vous savez ce qui vous attend lorsque vous vous connectez.

Mais les politiciens auront aussi leur mot à dire sur ce qui est inacceptable. Ce sont les catégories prioritaires de contenus légaux mais préjudiciables. Les entreprises ne décident pas si elles peuvent les maintenir. Ces catégories seront définies dans la législation secondaire et soumises à l’approbation des deux chambres du parlement. Dans son communiqué de presse annonçant le projet de loi, le gouvernement a évoqué « l’automutilation, le harcèlement et les troubles alimentaires » comme étant les types de contenus auxquels les plateformes devront s’attaquer. Nadine Dorries, la secrétaire à la culture, dit que cela enlèvera le pouvoir de censure aux dirigeants de la technologie (cela se retrouvera simplement avec le gouvernement à la place).

Protection de l’enfance

Les éléments de protection des enfants du projet de loi ont été fortement évoqués par Dorries, étayés par le devoir de diligence. Les mesures incluent l’obligation pour les sites pornographiques d’effectuer des vérifications d’âge, ce qui, selon les militants de la protection de la vie privée, pourrait créer une base de données sur les habitudes sexuelles du pays, ou même devenir une porte dérobée au système d’identification numérique pour accéder à Internet. Cependant, les partisans de la mesure soutiennent que l’impact de regarder de la pornographie sur les adolescents est tel qu’il faut agir.

Les entreprises seront également tenues de signaler à la National Crime Agency tout contenu d’exploitation et d’abus sexuels d’enfants qu’elles détectent sur leurs plateformes. Mais l’exigence de déclaration va plus loin que beaucoup ne le souhaitent : le projet de loi contient des dispositions qui pourraient être utilisées pour obliger les entreprises à surveiller activement les chats privés pour un tel contenu. Et ces dispositions ne contiennent aucune exception pour les messages, tels que ceux de WhatsApp, qui sont « cryptés de bout en bout », ce qui signifie que la plate-forme ne peut pas voir leur contenu. Les critiques craignent que les règles ne soient une interdiction effective de la technologie, mettant fin à une bataille de cinq ans du gouvernement.

Liberté de presse et d’expression

Aux termes du projet de loi, le contenu des « éditeurs de nouvelles » bénéficie de protections, tout comme le contenu « journalistique ». Les sites Web d’actualités tels que le Guardian, la BBC et MailOnline ne sont pas couverts par le projet de loi (vous n’avez donc pas à suivre ses directives), tandis que les commentaires en dessous de la ligne sont protégés, ainsi que le contenu des actualités republié sur les plateformes de médias sociaux. Le libellé du projet de loi ne donne cependant pas de laissez-passer au contenu des nouvelles. Par exemple, le projet de loi oblige les entreprises technologiques à « veiller à ce que l’importance de la libre expression du contenu d’importance démocratique soit prise en compte » lorsqu’elles prennent des décisions sur « la manière de traiter ce contenu (en particulier les décisions concernant le retrait ou la restriction des utilisateurs). ‘ y accéder) ». La même formulation est utilisée pour le contenu journalistique et implique que des suppressions de contenu pourraient toujours se produire.

Le communiqué de presse accompagnant le projet de loi semble reconnaître l’inquiétude des éditeurs d’actualités quant à l’étendue de ces protections, déclarant que : « Les ministres continueront également à réfléchir à la manière de garantir que les plateformes ne suppriment pas le contenu des médias reconnus ». Dorries a déclaré qu’elle avait l’intention d’introduire des amendements au projet de loi garantissant que les éditeurs de nouvelles et le contenu journalistique ne peuvent pas être supprimés tant qu’un appel contre une décision de suppression n’a pas eu lieu.

Charges criminelles

Le gouvernement a réduit de 22 mois à seulement deux mois le délai de grâce pour les mesures pénales à l’échelle du Royaume-Uni contre les dirigeants de la technologie (c’est-à-dire qu’il allait y avoir deux ans d’attente, à partir du moment où le projet de loi est devenu loi, avant que les infractions ne soient introduites). Les responsables techniques encourent jusqu’à deux ans s’ils : entravent une enquête de l’Ofcom en ne fournissant pas d’informations de « manière précise et opportune » ; altérer les informations recherchées par l’Ofcom ; entraver un audit ou une inspection de l’Ofcom, ou fournir de fausses informations, ou s’ils fournissent de fausses informations lors d’un entretien. Les entreprises peuvent également être poursuivies au titre des trois derniers de ceux des délits.

Il existe également des infractions pénales supplémentaires pour les utilisateurs en Angleterre et au Pays de Galles : le cyberflashing (envoi d’une image sexuelle non sollicitée) ; envoyer ou publier un message véhiculant une menace de préjudice grave ; envoyer une communication dans l’intention de causer un préjudice psychologique ou une détresse émotionnelle grave (cela couvre les empilements sur Twitter) ; et envoyer délibérément un faux message avec l’intention de causer du tort (pousser délibérément des traitements Covid nocifs et inefficaces).

Si vous souhaitez lire la version complète de la newsletter, inscrivez-vous pour recevoir TechScape dans votre boîte de réception tous les mercredis.

Laisser un commentaire