Une menace pour les preuves en arbitrage ?


Au cours de la semaine dernière, une vidéo de Rashmika Mandanna a circulé, qui s’est avérée plus tard être une contrefaçon. La vidéo a causé une immense humiliation à l’actrice qui s’est ensuite rendue sur Instagram pour exprimer son mécontentement. Le célèbre acteur Amitabh Bachan s’est également rendu sur les réseaux sociaux pour exprimer son point de vue. Les deepfakes ont attiré l’attention du public ces derniers temps et s’avèrent désormais dangereux. Une vidéo fictive a circulé dans laquelle le président russe Vladimir Poutine prétendait annoncer une guerre à grande échelle contre l’Ukraine. La télévision russe a diffusé cette fausse vidéo, créant des malentendus et une escalade des tensions géopolitiques.[1] En pleine campagne présidentielle américaine de 2024, les réseaux sociaux sont envahis de vidéos deepfake destinées à influencer l’opinion publique. Même si les grands réseaux sociaux comme Facebook et Twitter se sont efforcés d’interdire et de supprimer ce type de contenu, l’efficacité de ces mesures reste discutable.

Dans le paysage indien également, les deepfakes ont été mis en lumière. Par exemple, lors des élections à Delhi, deux vidéos sont apparues en ligne dans lesquelles on voit un homme politique plaider auprès d’électeurs de différentes origines linguistiques tout en s’exprimant dans deux langues différentes. Après un examen plus approfondi, il est devenu évident que les vidéos étaient fausses et qu’elles avaient été réalisées dans le cadre de la « campagne positive » de son parti utilisant Deepfake. [3]

Considérez tous les différents sites pornographiques sur lesquels les visages de diverses actrices célèbres ont été falsifiés et utilisés à mauvais escient. En 2020, un étudiant de Mumbai a été arrêté pour avoir réalisé une vidéo pornographique deepfake de sa petite amie afin de la menacer. La technologie est désormais également utilisée par des fraudeurs qui se font passer pour leurs proches et amis lors d’appels vidéo demandant de l’argent lorsqu’ils en ont cruellement besoin et leur escroquant leur argent. [4]

L’utilisation de visages de personnalités publiques ou de célébrités dans des vidéos faisant quelque chose qui ne leur ressemble pas. Tout cela en fait un problème qui doit maintenant être résolu. Deepfake est une sorte de technologie d’IA qui crée des médias synthétiques tels que des images, des vidéos et de l’audio à l’aide d’algorithmes d’apprentissage automatique, en particulier de réseaux contradictoires génératifs (GAN). Le réseau générateur génère des données artificielles qui imitent les données réelles de l’ensemble d’apprentissage, comme une image synthétique. Après cela, le réseau discriminateur évalue la véracité des données synthétiques et indique au générateur comment améliorer sa sortie. Jusqu’à ce que le générateur génère des données synthétiques remarquablement réalistes et difficiles à distinguer des données réelles, ce processus est répété de nombreuses fois, au cours desquelles le discriminateur et le générateur apprennent les uns des autres.

À l’aide de ces données de formation, des deepfakes sont produits et peuvent être utilisés de diverses manières pour les images et les vidéos. (a) échange de visage : remplacement du visage d’une personne par celui de la vidéo ; (b) édition d’attributs : modification de l’apparence du sujet de la vidéo, telle que la couleur ou le style de ses cheveux ; (c) reconstitution de visage : projection des expressions faciales du sujet depuis le visage d’une personne sur le sujet dans la vidéo cible ; et (d) un matériau entièrement synthétique : bien que du matériel réel soit utilisé pour façonner l’apparence des gens, l’image finale est complètement artificielle.

Préoccupations

  1. L’utilisation de contrefaçons profondes et leur apparente montée en popularité et en popularité suscitent également désormais des inquiétudes parmi les tribunaux, les tribunaux d’arbitrage et d’autres organes de jugement en raison de leur utilisation abusive apparente au cours du processus décisionnel, en particulier au stade de la preuve. En 2019, un avocat représentant le père qui vit à Dubaï dans un litige concernant la garde au Royaume-Uni a réussi à contester des preuves audio qui semblaient montrer le père comme violent et conflictuel. Après que les médecins légistes ont eu accès aux fichiers audio, ils ont pu démontrer que l’enregistrement était un « deepfake », créé par la mère avec l’aide de forums en ligne. Comparées aux vidéos et aux photos, les preuves audio peuvent encore être falsifiées rapidement et de manière convaincante, et il existe déjà des applications grand public de haute qualité disponibles gratuitement qui peuvent être utilisées pour créer des « clones vocaux ».[5] Cela soulève la question : les preuves audio-vidéo sont-elles toujours fiables ?

L’authentification est fondamentale pour l’admissibilité des preuves. Si les tribunaux arbitraux admettent des preuves falsifiées, cela peut causer une grave injustice à l’autre partie et conduire ainsi à une violation de la justice naturelle. Pour authentifier les preuves, il faut faire appel à des experts, ce qui peut entraîner des coûts et du temps supplémentaires.

  1. Les accusés ont contesté la véracité des preuves vidéo dans un certain nombre d’affaires très médiatisées ces dernières années, comme le procès Kenosha de Kyle Rittenhouse, en affirmant que les vidéos auraient pu être manipulées par l’intelligence artificielle (IA). [6] Les médias Deepfake sont de plus en plus courants, ce qui donne aux justiciables davantage de possibilités de contester les preuves vidéo et photographiques acceptées. Les deepfakes permettent aux parties de contester plus facilement la véracité des preuves originales, qu’elles aient ou non de bonnes raisons de le faire. Cette méfiance à l’égard des preuves donnera naissance à ce que Rebecca Delfino a appelé, « La Deepfake Défense ».[7] De plus, les professeurs de droit Bobby Chesney et Danielle Citron ont qualifié ce phénomène, lorsque des individus jouent sur l’existence de deepfakes, de contester l’authenticité de médias authentiques en prétendant qu’ils sont faux, de dividende du menteur. [8]

« Les deepfakes permettront aux menteurs de nier plus facilement la vérité de différentes manières. Une personne accusée d’avoir dit ou fait quelque chose pourrait créer un doute sur l’accusation en utilisant des preuves vidéo ou audio altérées qui semblent contredire l’affirmation », indique leur journal.

De plus, les deepfakes soulèvent la possibilité que des preuves crédibles mais fabriquées soient utilisées pour étayer une conclusion injuste. Dans les procès en cours pour l’invasion du Capitole des États-Unis, cette tactique similaire est utilisée par les accusés pour saper les preuves présentées par l’accusation. Même si le tribunal fait appel à des experts pour authentifier les preuves, cela ne fait que retarder l’affaire et finit par servir l’accusé.

  1. Le troisième problème, et le plus préoccupant, concerne la collecte de témoignages oraux et la vidéoconférence. La légitimité des interactions à distance lors des arbitrages est mise à mal par les deepfakes. En usurpant l’identité d’un témoin, un modèle deepfake peut donner la fausse impression que la bonne personne témoigne alors que ce n’est pas le cas.

Le rapport sur la « justice virtuelle » du groupe de protection de la vie privée basé à New York, Surveillance Technology Oversight Project (STOP), indique que les parties à des procédures judiciaires en ligne peuvent être invitées à vérifier leur identité en fournissant des informations personnelles sensibles, des données biométriques ou des analyses faciales – dans le Dans l’État de l’Oregon, les juges se connectent à leurs systèmes judiciaires virtuels grâce à la reconnaissance faciale.[9]

Détecter les Deepfakes : une entreprise impossible ?

Pour identifier les deepfakes, plusieurs options techniques sont disponibles, telles que les suivantes : [10]

  1. Logiciel de détection de sortie AI : ce type de logiciel examine les traces numériques laissées par le matériel généré par l’intelligence artificielle pour déterminer si une image, une vidéo ou un fichier audio a été modifié.
  1. Filigrane alimenté par l’IA : cette méthode consiste à marquer une image ou un texte avec un code spécial qui indique son origine. Cela facilite le processus de suivi et de traçabilité de l’origine du contenu médiatique, contribuant ainsi à l’évaluation de sa légitimité.
  1. Provenance du contenu : cette tactique vise à identifier les sources des médias numériques, à la fois synthétiques et naturels. Garder une trace de l’histoire et des sources d’un média facilite l’identification des cas de manipulation.

Alors que nous nous dirigeons vers un arbitrage plus écologique, les craintes concernant l’utilisation de la vidéoconférence comme moyen d’enregistrer des preuves sont réelles. Mais à mesure que nous, en tant que société, intégrons de nouvelles pratiques ou de nouvelles façons de faire les choses, de nouveaux problèmes surgiront, et cela est tout à fait évident. Ce qu’il faut faire, c’est formuler des solutions pour résoudre ces nouveaux problèmes au lieu de restreindre les progrès. Actuellement en Inde, pour poursuivre les délits liés aux deepfakes, la loi informatique prévoit les dispositions suivantes.

  1. L’article 66E de la loi sur les technologies de l’information de 2000 traite de la violation de la vie privée lorsque l’image d’une personne est prise, publiée ou transmise dans les médias. Les contrevenants risquent une amende pouvant aller jusqu’à 2 lakh ₹ ou jusqu’à trois ans de prison.[11]
  2. Selon l’article 66D de la loi informatique, l’utilisation malveillante d’appareils de communication ou de ressources informatiques pour usurper l’identité de quelqu’un d’autre est passible d’une amende pouvant aller jusqu’à 1 lakh et de trois ans de prison. [12]

Cependant, ces lois ne suffisent pas et nous avons besoin d’une disposition élaborée pour lutter contre les délits de deepfake. Comme le Digital India Act 2023 est censé remplacer la loi informatique, nous devons simplement attendre de voir comment il résoudra les deepfakes. On s’attend à ce que la nouvelle loi aborde les technologies actuelles et la criminalité qui y est associée. Il est également nécessaire que les avocats soient formés à l’intelligence artificielle. Une formation adéquate peut permettre aux arbitres et aux avocats de détecter l’utilisation de la technologie deepfake dans les preuves. Il est également nécessaire de procéder à une vérification experte des preuves vidéo avant leur admission afin d’établir leur authenticité. Les protocoles et lignes directrices nécessaires doivent être établis. L’utilisation du deepfake comme preuve n’est pas encore devenue très apparente, mais elle le deviendra à l’avenir et nous, en tant que communauté, devons nous y préparer. Les préoccupations ne se limitent pas à l’arbitrage mais également aux litiges judiciaires.

L’auteur est un avocat exerçant à Goa. Les opinions sont personnelles.


[1] Basak Akmese, La dimension de l’intelligence artificielle dans la manipulation numérique de fausses vidéos : le cas des Ukrainiens et des Russes2 QUESTIONS CONTEMPORAINES DE COMMUNICATION 80, 76-85 (2023).

[2] Richard W. Peintre, Deepfake 2024 : les citoyens unis et l’intelligence artificielle détruiront-ils ensemble la démocratie représentativeJOURNAL OF NATIONAL SECURITY LAW & POLICY 25, 23-30 (2023).

[3] Nilesh Christophe, Nous venons de voir la première utilisation de Deepfakes dans la campagne électorale indienneVICE (8 novembre 2023, 11 h 15), https://www.vice.com/en/article/jgedjb/the-first-use-of-deepfakes-in-indian-election-by-bjp .

[4] Maria PawelecDeepfakes and Democracy (Theory) : Comment les médias audiovisuels synthétiques à des fins de désinformation et de discours de haine menacent les fonctions démocratiques fondamentalesJOURNAL DE LA SOCIÉTÉ NUMÉRIQUE 25, 1-37 (2022).

[5] Molly Mullen, Une nouvelle réalité : la technologie Deepfake et le monde qui nous entoure, 48 REVUE DE LA LOI MITCHELL HAMLINE 224, 211-234 (2022).

[6] Mathew Ferraro et Brent Gurney, L’autre côté dit que votre preuve est un deepfake. Maintenant quoiWILMERHALE (9 novembre 2023, 23h15), https://www.wilmerhale.com//media/files/shared_content/editorial/publications/documents/2022-12-21-the-other-side- dit-votre-preuve-est-un-deepfake-now-what.pdf.

[7] Rébecca Delfino, La défense Deepfake – Explorer les limites du droit et des normes éthiques dans la protection des procédures judiciaires contre les avocats menteurs84 DOCUMENT DE RECHERCHE SUR LES ÉTUDES JURIDIQUES DE LOS ANGELES 2023-02 50, 55-56 (2023).

[8] Robert Chesney et Danielle Keats Citron, Deep Fakes : un défi imminent pour la vie privée, la démocratie et la sécurité nationale107 CALIFORNIA LAW REVIEW 1753, 1745-1760 (2019).

[9] Albert Fox Cahn, Esq. & Melissa Giddings, Tribunaux en ligne pendant Covid 19, JUSTICE VIRTUELLE (10 novembre 2023, 10h45),https://static1.squarespace.com/static/5c1bfc7eee175995a4ceb638/t/5f1b23e97ab8874a35236b67/1595614187464/Final+white+paper+pdf.pdf

[10] Leonardo F. Souza, Arbitration Tech Toolbox : Deepfakes et déclin de la confianceBLOG D’ARBITRAGE KLUWER (10 novembre 2023, 10 h 35), https://arbitrationblog.kluwerarbitration.com/2023/10/04/arbitration-tech-toolbox-deepfakes-and-the-decline-of-trust /#:~:text=Deepfakes%20compromise%20the%20authenticité%20of,in%20fact%2C%20they%20are%20no.

[11] Loi sur les technologies de l’information, 2000, § 65 E, n° 21, lois du Parlement, 2000 (Inde).

[12] Loi sur les technologies de l’information, 2000, § 66 D, n° 21, lois du Parlement, 2000 (Inde).

Laisser un commentaire