Les photos de passeport volées, les fraudeurs et la technologie de fusion faciale constituent une menace pour la sécurité nationale


Par Vladimir Arlazarov, PhD, PDG de Smart Engines

Toutes les fuites de données personnelles ne sont pas aussi dangereuses. Lorsque les données des services en ligne sont compromises – par exemple, adresse e-mail, nom d’utilisateur, numéro de téléphone, adresse de livraison – c’est désagréable. Cependant, ce n’est toujours pas aussi effrayant que de divulguer une photo de passeport ou les données personnelles biométriques d’une personne.

Obtenir une photo d’identité de qualité est une chance pour un criminel. Une image animée peut être créée à partir d’une photo d’identité biométrique puis d’un deepfake. Ceci est ensuite utilisé pour créer une fausse identité. De plus, il est utilisé pour attaquer les services Internet, les banques, les agences gouvernementales.

Faire face aux deepfakes

Aujourd’hui, des attaques deepfake se produisent chaque jour dans le monde entier. Ces incidents ne sont pas rendus publics. Mais beaucoup de gens ont entendu parler de l’utilisation de deepfake dans les vidéos de célébrités. L’un des cas les plus récents et très médiatisés s’est produit en mai 2022. Les escrocs ont alors commencé à utiliser une image synthétisée d’Elon Musk pour promouvoir BitVex, une plateforme de trading de crypto-monnaie.

Les scientifiques ont été les premiers à s’intéresser au sujet de la synthèse faciale pour lutter contre la fraude. En 2017, des spécialistes de NVIDIA et de l’Université Aalto ont présenté une méthode de formation d’un réseau neuronal dans laquelle il génère des photos de plus en plus haute résolution à partir d’images basse résolution.

En 2018, des scientifiques de l’Institut de Robòtica i Informàtica Industrial et de l’Ohio State University ont créé un réseau neuronal capable de générer des photos faciales en ajoutant un sourire, des lunettes et en modifiant la rotation de la tête par rapport à l’image d’origine.

En 2018, des scientifiques du CUHK – SenseTime Joint Lab, de l’Université chinoise de Hong Kong et de l’Institut de technologie avancée de Shenzhen de l’Académie chinoise des sciences ont présenté une méthode en deux étapes pour synthétiser les visages. Dans la première étape, le réseau de neurones crée des traits du visage puis génère une image. Cette méthode s’est avérée plus efficace que la synthèse de visage en une étape.

Des chercheurs de l’Université autonome de Madrid et de l’Université de Beira Interior ont présenté une nouvelle architecture de génération de visages pour tromper les détecteurs de contrefaçon de réseaux neuronaux en 2020.

La même année, des scientifiques de l’Université de Pékin et de Microsoft Research ont proposé une méthode pour usurper de manière plus plausible les visages sur une photo. Le réseau de neurones créé par les scientifiques apprend à extraire les traits et les attributs du visage de deux images de visages différents et à générer un nouveau visage avec les traits du premier visage et les attributs du second. Il est très probable que c’est ainsi que le deepfake est fait.

En 2021, des scientifiques de l’Université de Tel-Aviv et de Penta-AI sont allés plus loin et ont proposé un réseau de neurones qui génère des visages dans un style particulier.

De plus, en juillet de cette année, une équipe de scientifiques du Samsung AI Center – Moscou, Yandex Armenia et de l’Institut des sciences et technologies de Skolkovo a dévoilé une technologie permettant de créer des avatars humains neuronaux à haute résolution – des méga-portraits. Il a donné de la dynamique à une image statique à cadre unique. Et nous voyons des avatars de l’écrivain russe Nikolai Gogol, de l’artiste mexicaine Frida Kahlo, de l’acteur Brad Pitt, de l’actrice Angelina Jolie, de la femme du tableau La Joconde de Léonard de Vinci et d’autres personnalités célèbres souriant, tournant la tête, levant les yeux, roulant leur yeux comme s’ils étaient vivants.

Si les scientifiques sont si doués pour synthétiser les visages, imaginez ce que les escrocs peuvent faire avec des photos de passeport.

Les fuites facilitent l’utilisation de deepfakes à des fins criminelles. Plus il y a de fuites d’images, mieux sont formés les réseaux de neurones qui synthétisent les visages des gens.

Le troisième n’est pas superflu

Le principal danger des fuites n’est pas que les données soient compromises, mais qu’une mer d’informations naisse dans laquelle tout peut être trouvé. Si un criminel veut changer d’identité, il lui suffit de trouver quelqu’un qui lui ressemble dans la base de données. L’auteur peut tenter de générer frauduleusement la demande de passeport perdu de cette personne afin d’obtenir une carte d’identité avec une nouvelle photo créée par morphing. L’image est faite de telle manière qu’il ne s’agit pas d’une photographie d’une des personnes concernées, mais d’une nouvelle photographie qui ressemble le plus possible à chacune des deux personnes.

Le morphing est l’une des technologies les plus dangereuses imaginées pour la contrefaçon dans le domaine de la biométrie. Il est créé uniquement par des fuites. C’est une façon de tromper les humains et les robots. Si un passeport est obtenu pour une photo transformée, les systèmes de reconnaissance faciale vous diront que cette image n’appartient pas au criminel avec la nouvelle identité, mais à quelqu’un d’autre. C’est ainsi que l’on s’approprie l’histoire de la vie de quelqu’un d’autre. L’agresseur n’a pas besoin d’une chirurgie jumelle ou plastique pour ce faire. Mais pour les fuites, il lui serait incroyablement difficile de résoudre ce problème.

Une menace pour la sécurité nationale

Dans le cas d’un tel incident, la première chose à régler est ce qui a été divulgué. Si des données biométriques, des photos de passeport, manquent, la sécurité nationale est menacée par la fuite. Parce que la biométrie est utilisée pratiquement partout, des banques aux centrales nucléaires. Si la photo est correctement transformée, les banques et les centrales nucléaires pourront atteindre les mauvaises personnes. Vous avez de la chance s’il finit par voler 5 000 $ à la banque. Mais que se passe-t-il en cas d’accident à la centrale nucléaire ?

Tout en reconnaissant que les fuites de données constituent une menace pour la sécurité, il devrait également y avoir un audit des opérateurs de données personnelles. De nouvelles exigences légales vont de l’avant.

Certains pays ont interdit aux entreprises de refuser des services aux clients si elles ne souhaitent pas fournir de données personnelles biométriques lorsque la loi ne l’exige pas. Les contrevenants s’exposent à des sanctions pécuniaires. Cela affectera probablement la pratique des services en ligne qui demandent aux utilisateurs d’enregistrer une vidéo de leur visage et de leur rotation de tête. S’ils refusent, les comptes sont bloqués. Les services affirment que l’enregistrement est nécessaire pour vérifier l’authenticité du compte, qu’une personne réelle et non un robot l’a créé. Toutefois, afin de mener à bien cette démarche, les services ne peuvent manquer de collecter et de stocker des vidéos de visages d’utilisateurs. Sont-ils convaincus que ces données biométriques sont sécurisées ?

Cela vaut la peine d’aller plus loin et de revoir les pratiques de traitement des données dans l’industrie alimentaire. Après tout, le service n’a pas besoin de connaître les détails du passeport du client ou même son nom pour livrer à domicile la nourriture commandée en ligne. Il peut envoyer au client un code QR, que ce dernier montrera au coursier pour lire et recevoir la commande. Le système de traitement des commandes foodtech peut être créé en blockchain afin d’éviter les fuites de données.

À moins que les pratiques de traitement des données personnelles ne soient revues, les services continueront de collecter autant de données personnelles que possible, pensant qu’il s’agit d’un trésor comme l’or. Mais si les entreprises pensent vraiment de cette façon, alors le trésor doit être protégé en conséquence – tout comme le font une banque ou l’État.

A propos de l’auteur

Vladimir Arlazarov est le PDG de Smart Engines.

AVIS DE NON-RESPONSABILITÉ : les aperçus de l’industrie de Biometric Update sont du contenu soumis. Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement les opinions de Biometric Update.

Sujets d’articles

données biométriques | passeport biométrique | biométrie | protection des données | faux faux | biométrie du visage | morphing du visage | sécurité nationale | Moteurs intelligents | usurpation d’identité



Laisser un commentaire