Lutte contre les deepfakes : que fait-on ? Biden Robocalls à Taylor Swift AI Images


Le monde regorge de deepfakes : des vidéos, des fichiers audio ou des images dans lesquels les gens semblent faire ou dire des choses qu'ils n'ont pas fait, ou se trouver dans un endroit où ils n'étaient pas. La plupart des deepfakes sont des vidéos et des images explicites concoctées en mappant le visage d’une célébrité sur le corps de quelqu’un d’autre. Certains sont utilisés pour arnaquer les consommateurs ou pour nuire à la réputation des hommes politiques et d’autres personnes aux yeux du public. Les progrès de l’intelligence artificielle signifient qu’il suffit de quelques pressions sur un clavier pour les évoquer. Les gouvernements alarmés cherchent des moyens de riposter.

Le 8 février, la Commission fédérale des communications des États-Unis a interdit aux entreprises d'utiliser les voix générées par l'IA dans les appels automatisés. L'interdiction est intervenue deux jours après que la FCC a émis une ordonnance de cessation et d'abstention contre la société responsable d'un deepfake audio du président. Joe Biden. Les habitants du New Hampshire ont reçu un appel automatisé avant la primaire présidentielle de l'État qui ressemblait à celui de Biden les exhortant à rester chez eux et à « garder votre vote pour les élections de novembre ». La voix a même prononcé l’une des phrases emblématiques de Biden : « Quelle bande de conneries ». Il n’existe actuellement aucune loi fédérale américaine interdisant les deepfakes. Certains États ont mis en œuvre des lois concernant la pornographie deepfake, mais leur application est incohérente à travers le pays, ce qui rend difficile pour les victimes de demander des comptes aux créateurs. Un projet de loi sur l’IA de l’Union européenne obligerait les plateformes à étiqueter les deepfakes en tant que tels.

Laisser un commentaire