La technologie de contrefaçon profonde une future affliction


IMAGINER si vous voulez, dans un futur lointain, que pendant que vous marchez avec désinvolture dans une rue animée du centre-ville de Kuala Lumpur, vous êtes soudainement attiré l’attention d’une foule de personnes étroitement entassées – enveloppées par des bavardages intenses et tonitruants – devant un écran de télévision situé dans une vitrine.

Une émission est diffusée, vous observez ce qui semble être le Premier ministre déclarant publiquement sa démission abrupte de ses fonctions lors d’une conférence de presse à Putrajaya, invoquant son incapacité à faire face à la pression de la fonction publique, désirant prendre une retraite permanente.

Les émotions sont vives et la foule se disperse dans la rage, quittant immédiatement la scène – criant des obscénités et des vulgarités – pendant que vous restez bouche bée.

Vous rentrez frénétiquement chez vous devant votre ordinateur, voulant découvrir les raisons de la décision du premier ministre quand vous réalisez quelque chose d’assez étrange.

Le Premier ministre n’a pas fait une telle déclaration, il était encore très à l’étranger pour assister à un sommet international.

Vous venez de découvrir que sa voix et sa stature avaient été cooptées avec précision par une technologie de contrefaçon profonde, le flux en direct frauduleux a été créé par des parties malveillantes – dans le cadre d’un stratagème politique – conspirant pour ternir la réputation du Premier ministre, semer la confusion et inciter troubles sociaux en Malaisie.

Vous êtes laissé dans l’incrédulité totale, trompé par des images quasi authentiques d’une émission télévisée qui n’a tout simplement jamais eu lieu.

Cette sombre réalité n’est pas trop loin de nous étant donné les progrès constants de cette technologie.

Les autorités devraient se pencher de toute urgence sur la question des contrefaçons profondes et sur la manière dont leur militarisation potentielle pourrait menacer la sécurité nationale et le bien-être des Malaisiens.

Les deep fakes n’ont été introduits que récemment dans le lexique culturel, gagnant en notoriété il y a quelques années.

La raison de la nature du terme lui-même est attribuée au fait que cette technologie comprend un logiciel d’intelligence artificielle qui subit le processus d ‘«apprentissage en profondeur» afin qu’il soit capable de produire des contrefaçons précises.

Le logiciel en question est programmé, grâce à un apprentissage en profondeur qui est un processus vigoureux qui consiste à exposer l’intelligence artificielle à des informations, pour analyser des ensembles de données d’un sujet particulier – qu’il s’agisse de publications Instagram, de vidéos YouTube, etc. – en recueillant des informations et en développant un profil complet .

C’est sur la base de ce profil même que le programme est capable de produire des images ou des vidéos du sujet en question, capables d’être dirigées pour dire n’importe quoi, dire complètement ou faire n’importe quoi à la ressemblance de ce sujet.

En effet, suffisamment d’informations sur le sujet ont été recueillies pour pouvoir simuler avec précision les schémas de parole et l’apparence du visage du sujet, même s’il ne dispose pas d’un modèle de travail du sujet disant quelque chose en particulier.

Il peut néanmoins être programmé pour représenter le sujet de manière réaliste.

Cela permettrait, par exemple, d’entraîner le programme à produire de fausses vidéos mettant en scène des célébrités hollywoodiennes accomplissant des actes scandaleux, des présidents américains prononçant les pires propos et des personnalités publiques prenant des positions compromettantes d’une manière totalement indiscernable de la réalité et très certainement peut-être vous trompez-vous.

Le potentiel destructeur de la technologie deep fake a presque toujours été souligné à plusieurs reprises par les critiques depuis sa création moderne.

Tout au long des années où il a été actif, les utilisateurs ont exploité la technologie pour manipuler numériquement des images existantes en superposant le visage d’une personne en particulier sur ces mêmes images.

C’était, en fait, le but qu’il servait aux débuts de la technologie.

Gagner en notoriété sur le site Web Reddit en 2017, un utilisateur anonyme a publié des vidéos pornographiques modifiées numériquement qui utilisaient les visages de célébrités éminentes sur le site Web, donnant l’impression que les célébrités en question étaient elles-mêmes dans la vidéo.

Les vidéos ont rapidement suscité l’intérêt du public et sont devenues virales.

Le tout premier cas où la technologie a été utilisée impliquait déjà la militarisation, dégradant des personnes innocentes complètement dissociées de l’industrie pornographique et ayant leurs identités impliquées avec force dans ces vidéos obscènes.

La fausse technologie profonde, en l’absence de paramètres stratégiques de sécurité, permet de faciliter sans contestation l’atteinte généralisée à la dignité humaine.

Il y a eu d’autres cas de technologie de contrefaçon profonde utilisée pour créer du contenu sexuellement explicite inspiré de personnalités Internet de premier plan.

Les streameuses sur Twitch, une plateforme de diffusion en direct en ligne, ont souffert de la circulation massive de deep fakes qui se sont appropriés leur ressemblance, provoquant un grave bouleversement dans la communauté Internet.

En raison de la sinistre combinaison des caractéristiques virales des médias en ligne et des capacités pures de la technologie de contrefaçon profonde, pratiquement aucune action n’a pu être entreprise car les vidéos étaient de plus en plus partagées et reproduites.

La démocratisation subséquente de cette technologie, qui est rendue accessible au public, a provoqué un changement important dans les médias en ligne.

Réalisant son potentiel satirique, des vidéos relativement « anodines » ont été produites par les internautes à des fins de parodie.

La technologie en était encore à ses balbutiements et aux yeux du public, il semblait très peu dangereux de faire circuler des vidéos qui pourraient être immédiatement identifiées comme frauduleuses si elles étaient au service de l’humour sur Internet.

Cependant, il deviendrait évident au fil des années que les conséquences de la technologie de contrefaçon profonde n’étaient pas anodines et avaient en effet le potentiel de provoquer des dommages aux proportions quasi épiques.

En 2022, une vidéo frauduleuse du président ukrainien Volodymyr Zelensky exigeant la reddition et l’acquiescement pur et simple des soldats ukrainiens à l’armée russe a été diffusée sur les réseaux sociaux.

Les chaînes de télévision ukrainiennes – dans ce qui semblait être une attaque géopolitique de représailles – ont été détournées et programmées pour téléviser la fausse émission dans le but de semer la confusion.

Heureusement, les autorités ukrainiennes ont retiré la vidéo de manière appropriée et ont fourni des éclaircissements au grand public.

Il est important de noter que si le deep fake à l’époque était facilement identifiable comme frauduleux puisque la vidéo présentait notamment des irrégularités et des distorsions, il a néanmoins démontré qu’elle pouvait être galvanisée pour mettre en péril l’intégrité d’un État souverain.

Elle a également constitué une menace pour les organisations et institutions internationales.

Une personne, qui a pu modifier numériquement son flux vidéo de manière à imiter l’image du maire de Kiev, a pu duper de hauts fonctionnaires de l’Union européenne pour qu’ils acceptent de mener des appels vidéo.

Cela a démontré que les contrefaçons profondes pouvaient être exploitées pour mener à bien l’espionnage du gouvernement.

Il peut donc être fermement établi que la technologie en question est effectivement une question de sécurité nationale concernant le gouvernement et ses citoyens.

Il est sur une tendance à la hausse de la trajectoire continue de l’implication technologique et si très peu est fait pour contenir stratégiquement son influence, cela pourrait très bien contribuer à l’affaiblissement de la sécurité malaisienne, affligeant la vie de nombreux Malais innocents car ils sont les plus vulnérables. pour ça.

Le potentiel de la technologie Deep Fake dans le domaine des malversations criminelles est illimité.

Une variante avancée de cette technologie pourrait inciter les institutions financières à légitimer les institutions financières, faire circuler un contenu politiquement provocateur pour inciter les tensions géopolitiques, faciliter le vol d’identité, faire chanter des individus par l’utilisation de pornographie de vengeance synthétique et lancer une campagne de désinformation et de désinformation délibérées. La liste est non exhaustive.

Malgré les inconvénients de la technologie deep fake, il ne serait pas juste d’exclure les discussions sur les avantages qu’elle pourrait conférer à la société si elle était strictement réglementée.

La technologie Deep Fake pourrait être utilisée dans les industries du cinéma et de la publicité dans le but de rendre les images réalistes plus accessibles à partir d’endroits éloignés.

Il pourrait également être intégré à l’éducation et à la recherche permettant davantage de simulations de reconstitutions historiques et d’expérimentations.

Ce qu’il faut, c’est un terrain d’entente, qui reconnaisse les effets néfastes de la technologie de contrefaçon profonde tout en tenant compte simultanément des progrès technologiques utiles.

Le gouvernement doit élaborer une stratégie globale pour contrer et combattre les technologies de contrefaçon profondes.

L’une des priorités du ministère de la Communication et du Numérique est d’envisager une législation plus stricte.

Au cours des premiers mois de 2023, l’Administration du cyberespace de Chine – sous les pouvoirs du gouvernement chinois – a institué de nouvelles mesures politiques qui interdisaient carrément la création de faux médias profonds sans le consentement explicite des utilisateurs.

Les politiques nationales peuvent également être calquées sur celles de l’Union européenne et des États-Unis, qui interdisent la diffusion de deep fakes dans des domaines qui soulèvent des préoccupations politiques et impliquent des personnes dans du matériel pornographique.

Il faut également envisager une extension de la législation actuelle qui révise la définition des données personnelles afin qu’elle englobe davantage de domaines de la condition humaine d’une manière qui empêche le mimétisme numérique des personnes.

Étant donné que la technologie en question en est encore à ses balbutiements, des efforts doivent également être déployés pour mener des campagnes nationales de sensibilisation à l’existence de la technologie et à ses effets néfastes.

Cela pourrait aider le public à identifier des formes plus sophistiquées de fausse fraude profonde.

Les investissements dans le développement de nouvelles technologies seraient essentiels dans ce domaine.

Les technologies de détection des contrefaçons profondes seraient extrêmement utiles aux autorités et au public pour pouvoir signaler immédiatement les contrefaçons nuisibles.

Il est d’une importance cruciale que la Malaisie renforce les frontières des données.

L’annonce récente par le gouvernement de la création de la commission de la cybersécurité pourrait coïncider avec de nouvelles études dans le domaine de la technologie de contrefaçon profonde.

Dès l’année dernière, l’Agence européenne de police a émis un avertissement sur les dangers du déploiement de technologies de contrefaçon profonde par des acteurs étrangers pour saper la confiance du public dans les institutions gouvernementales.

Cette relation rompue entre le public et le gouvernement pourrait provoquer une rupture et être encore empiétée d’une manière qui déstabilise les pays.

Nous devons nous considérer comme chanceux d’avoir la capacité de résoudre les problèmes potentiels que la technologie de contrefaçon profonde pourrait causer, mais il pourrait très bien y avoir un moment, si elle était laissée à elle-même, où elle serait tout simplement trop écrasante pour s’arrêter.

Cette situation doit donc être traitée de toute urgence avant qu’elle ne devienne le futur fléau du pays.

commentaires: lettres@thesundaily.com

Laisser un commentaire