Se protéger contre les violences sexuelles liées à la technologie Deepfake


Les universitaires et les chercheurs font face aux défis changeants posés par la technologie des deepfakes.

Plus de 95 % des deepfakes sont pornographiques. Dans un exemple frappant, une image explicite et fausse de Taylor Swift a été diffusée en ligne plus tôt cette année. Cette « photo de Swift a été vue 47 millions de fois avant d'être retirée ».

À mesure que la technologie numérique évolue, les risques liés à la technologie deepfake évoluent également. Deepfake, terme dérivé de « deep learning » et de « fake », fait référence à des manipulations numériques très convaincantes dans lesquelles les visages ou les corps d'individus sont superposés à des images ou des vidéos existantes sans le consentement des individus.

Cette forme émergente d’« abus sexuels fondés sur l’image » présente des défis sans précédent. En 2021, les Nations Unies ont qualifié cette forme de violence contre les femmes et les filles de « pandémie fantôme ».

Face à l’évolution rapide de la technologie des deepfakes, les lois actuelles ont du mal à suivre le rythme. Bien que certaines juridictions aient reconnu la diffusion non consensuelle d’images intimes comme une infraction pénale, le phénomène spécifique des deepfakes reste souvent incontrôlé.

En outre, les cadres juridiques traditionnels conçus pour lutter contre les violations de la vie privée ou les violations du droit d’auteur manquent de nuances pour lutter efficacement contre les abus liés aux deepfakes. L’utilisation de la technologie deepfake porte atteinte à la vie privée et inflige de profonds préjudices psychologiques aux victimes, porte atteinte à la réputation et contribue à une culture de violence sexuelle.

Les partisans de la réforme soutiennent que la législation existante doit être élargie pour inclure explicitement les deepfakes dans le champ des « abus sexuels basés sur l’image ». Une telle réforme inclurait la reconnaissance de la création et de la distribution de deepfakes comme une forme distincte d’abus portant atteinte à l’autonomie et à la dignité sexuelles des individus. Pour lutter contre les abus liés aux deepfakes, les experts recommandent une approche à multiples facettes qui comprend l'amélioration des services d'aide aux victimes, la sensibilisation du public aux implications des deepfakes et la promotion de la collaboration entre les entreprises technologiques, les experts juridiques et les forces de l'ordre.

En outre, les partisans de la réforme exhortent les plateformes de médias sociaux et les réseaux de distribution de contenu à mettre en œuvre des procédures plus strictes pour détecter et supprimer les contenus deepfakes et à promouvoir l’alphabétisation numérique pour aider les individus à naviguer en toute sécurité dans les complexités des espaces en ligne.

Mais naviguer dans le paysage complexe de la réglementation des deepfakes présente des défis importants, nécessitant des approches nuancées qui équilibrent la protection de la vie privée et la liberté d’expression avec la nécessité de lutter contre les abus et l’exploitation en ligne. Par exemple, la nature mondiale d’Internet présente un défi crucial qui permet aux contenus deepfake de traverser les frontières nationales, compliquant ainsi les problèmes d’application. Les défenseurs des droits de l’homme ont souligné la nécessité d’une coopération internationale et de l’uniformité des lois pour protéger les victimes au-delà des frontières.

Dans cette semaine Séminaire du samedichercheurs et universitaires explorent le paysage actuel des deepfakes et de la violence sexuelle ainsi que les tentatives de réglementation de cette technologie émergente.

  • Les deepfakes non consensuels constituent une « menace imminente » à la fois pour les particuliers et les personnalités publiques, affirme le greffier judiciaire Benjamin Suslavich dans un article pour le Journal de droit d'Albany des sciences et technologies. La technologie Deepfake génère des vidéos réalistes d'un sujet avec une seule image, qui est souvent utilisée à mauvais escient pour créer du contenu pornographique non consensuel, note Suslavich. Il fait valoir que les protections juridiques actuelles sont inadéquates pour offrir des recours aux victimes. Suslavich appelle à l'adoption de cadres législatifs et réglementaires qui permettraient aux individus de récupérer leur identité sur Internet. Plus précisément, Suslavich recommande de réduire les protections légales des fournisseurs de services Internet – qui bénéficient actuellement d’une immunité totale – s’ils ne parviennent pas à supprimer rapidement les deepfakes pornographiques non consensuels identifiés.
  • Dans un article pour le Nouvelle revue de droit pénal européen, Carlotta Rigotti de l'Université de Leiden et Clare McGlynn de l'Université de Durham discutent de la proposition de la Commission européenne d'une directive « historique » pour lutter contre les « abus sexuels basés sur l'image » en criminalisant la distribution non consensuelle d'images intimes. Rigotti et McGlynn expliquent que cette forme d'abus inclut la création, la prise, le partage et la manipulation d'images ou de vidéos intimes sans consentement. Bien qu'ils trouvent la proposition de la Commission ambitieuse, ils critiquent la portée étroite de ses protections. Pour mieux protéger les femmes et les filles, Rigotti et McGlynn exhortent la Commission à réviser son approche à l'égard de la violence en ligne, en supprimant le langage restrictif de la proposition et en ajoutant des termes plus larges qui englobent l'évolution du paysage technologique.
  • La pornographie deepfake peut constituer une forme d'abus sexuel basé sur l'image, affirme la praticienne Chidera Okolie dans un article pour le Journal d'études internationales sur les femmes. Comme d’autres types d’abus sexuels légalement reconnus, la pornographie deepfake inflige des dommages psychologiques et à la réputation de ses victimes, souligne Okolie. Bien que de nombreux pays aient décidé de réglementer la pornographie deepfake, Okalie critique les lois récemment adoptées, les jugeant trop larges et englobant des contenus par ailleurs légitimes et légaux. Pour lever cette ambiguïté, Okalie suggère que les législateurs adoptent des lois qui ciblent les technologies et les pratiques spécifiques à la pornographie deepfake. Elle exhorte également les gouvernements à appliquer les lois déjà en vigueur pour protéger les victimes de violences sexuelles.
  • Un effort collectif et international est nécessaire pour lutter contre la diffusion mondiale de la pornographie deepfake, affirme le praticien Yi Yan dans un article pour le Journal de Brooklyn de droit international. Yan soutient que les efforts visant à réglementer les deepfakes à l’échelle internationale sont inefficaces en raison de leur nature fragmentée. Au lieu de cela, les nations devraient cibler la technologie des deepfakes en se concentrant sur la juridiction extraterritoriale et la coopération entre les États-nations, affirme Yan. Dans un premier temps, Yan suggère que les nations adoptent dans le droit international des dispositions qui criminalisent explicitement la pornographie de vengeance générée par l’IA, un sujet sur lequel il reste actuellement silencieux.
  • Au lieu de s'appuyer sur une mosaïque de lois étatiques, les législateurs devraient mettre en œuvre une loi fédérale punissant la publication d'abus sexuels facilités par la technologie, propose Kweilin T. Lucas de l'Université Mars Hill dans un article pour Victimes et délinquants. Même si la plupart des États ont adopté des lois pour restreindre la pornographie non consensuelle, les deepfakes sont exemptés des réglementations existantes car la nudité de la victime n'est pas affichée dans ces vidéos, explique les créateurs de deepfake pornographie. il ne s'agit pas de nuire ou de harceler la victime, note Lucas. Pour protéger les images des gens contre la manipulation, la loi fédérale devrait punir la publication de deepfakes non consensuels qui humilient ou harcèlent la victime ou facilitent la violence, suggère Lucas.
  • Dans un Journal britannique de criminologieDans cet article, Asher Flynn de l'Université Monash et plusieurs coauteurs ont interrogé des survivants de violences basées sur l'image en ligne pour déterminer si certaines populations sont la cible d'exploitation. L'équipe Flynn examine les dommages que la diffusion d'images sexuelles non consensuelles peut avoir sur certains groupes. Flynn et ses coauteurs constatent que les personnes ayant des besoins de mobilité, les membres de la communauté LGBT+ et les minorités raciales sont plus vulnérables aux abus basés sur l'image. Les victimes ont déclaré avoir subi un traumatisme grave et des changements importants dans leur vie, comme la limitation de leur engagement en ligne ou en public, note l'équipe Flynn. Les efforts de prévention de la violence sexuelle basés sur l'image devraient prendre en compte des facteurs tels que le racisme, le capacitisme et l'hétérosexisme afin de mieux protéger les groupes ciblés de manière disproportionnée, suggèrent Flynn et ses coauteurs.

Laisser un commentaire