Le bon, le mauvais et le laid de la technologie d’apprentissage en profondeur


L’utilisation de l’apprentissage en profondeur pour les médias sociaux et la génération de contenu en ligne a gagné autant d’attrait que de préoccupation ces dernières années. Avec une réputation de rouage dans la machine à fausses nouvelles, l’apprentissage en profondeur a été une force motrice derrière la propagande politique, les fausses informations et, pour un œil non averti, les usurpations d’identité presque indétectables de personnes réelles et influentes. Il n’est pas difficile de voir pourquoi cela pourrait être problématique, voire dangereux, dans de nombreux cas.

Cependant, avant de condamner la technologie d’apprentissage en profondeur et les organisations qui la propagent, examinons également les avantages qu’elle peut offrir. Par exemple, la traduction automatique basée sur le langage naturel a le pouvoir de rapprocher les communautés et de démocratiser la communication. Dans des pays comme l’Inde, où il existe 22 langues officielles, l’apprentissage en profondeur et la technologie du langage naturel peuvent faire tomber les barrières, par exemple dans les soins de santé où les patients peuvent présenter des dialectes régionaux avec lesquels même l’équipe la plus multilingue ne peut pas lutter.

Par exemple, Bonaventure Dossou, un étudiant chercheur canadien, tenait à améliorer les conversations téléphoniques avec sa mère, qui lui envoyait souvent des messages vocaux en fon, une langue béninoise. Bonaventure ne comprenait souvent pas certaines des phrases utilisées par sa mère, ce qui rendait la conversation difficile. En tant que langue rarement documentée (une parmi des centaines en Afrique), la traduction était difficile. Pour surmonter cela, il a créé un modèle de traduction de langage d’intelligence artificielle, alimenté par l’apprentissage en profondeur, souvent utilisé par les algorithmes modernes de PNL. Le modèle est toujours en cours de développement, mais il montre comment la traduction en temps réel peut permettre aux personnes qui parlent différentes langues de communiquer entre elles.

Côté obscur des fausses nouvelles

Il n’y a pas que la traduction où la PNL basée sur l’apprentissage en profondeur peut être utilisée efficacement. Cela peut également alléger la charge de travail des personnes dans des secteurs comme le journalisme, où des articles basés sur des faits, des « modèles » tels que des rapports financiers (que peu de journalistes aiment écrire), peuvent et, dans de nombreux cas, sont écrits automatiquement à l’aide de la technologie d’apprentissage en profondeur. Alors que les « bots » peuvent signer ces articles chronophages, les journalistes peuvent consacrer plus de temps à des travaux de recherche et d’enquête importants, en écrivant les articles les plus créatifs et les plus approfondis qui nécessitent les compétences réelles du journalisme.

Bien sûr, on ne peut pas parler de journalisme et de deep learning sans considérer le côté obscur des fake news. En mars 2021, un vote historique était prévu pour décider si le tout premier syndicat devrait être créé dans un entrepôt d’Amazon basé aux États-Unis. Avant le vote, plusieurs comptes Twitter deepfake ont été créés, utilisant des photos de profil et des publications convaincantes pour défendre les pratiques de travail d’Amazon.

Ces faux comptes ont été peu probables créés par Amazon lui-même ; mais indépendamment de la motivation ou de l’auteur, ils sont un exemple de technologie linguistique « deepfake » au travail. Outre le contenu écrit, ces récits comprenaient des images de profil qui présentaient de nombreux défauts caractéristiques des images deepfake. Dans ce cas, les tweets ont eu peu d’impact autre que de semer la confusion sur qui était responsable. Cependant, c’était un rappel inquiétant de la facilité avec laquelle un faux récit peut être créé et perpétué à l’aide de la technologie d’apprentissage en profondeur.

Ces technologies deviennent plus accessibles que jamais. Créer 8,5 millions de commentaires de 20 mots sur Twitter ne coûterait que 6 000 £ environ. Dans de nombreux cas, vous n’auriez même pas besoin de la moitié de ce nombre de tweets pour diffuser un récit convaincant et puissant. L’impact qu’une campagne bien financée pourrait avoir sur les élections, la communication en matière de santé publique et les tendances du marché est réel. Alors, comment lutter contre cela et garantir que la technologie d’apprentissage en profondeur est utilisée pour le bien plutôt que pour le mal ?

Des dangers bien réels

Des travaux ont été consacrés à la lutte contre les implications négatives de l’apprentissage en profondeur et son rôle dans la diffusion de fausses nouvelles. Par exemple, un algorithme peut détecter les faux tweets avec une précision d’environ 90 %. Une autre solution consiste à savoir si un modèle de texte peut prédire le mot suivant dans un article ou un article. Plus le contenu est prévisible, plus il est probable qu’il ait été écrit par une machine.

C’est certainement encourageant que ces solutions soient développées. Cependant, il va y avoir un jeu constant du chat et de la souris entre ceux qui génèrent de fausses nouvelles et ceux qui cherchent à y mettre un terme. Les technologies d’apprentissage en profondeur utilisées pour créer le contenu seront mises à jour pour éviter la détection, remettant fermement la balle dans le camp des fournisseurs de médias sociaux et des régulateurs pour trouver de nouvelles façons de le détecter et de le supprimer.

Mais les sociétés de médias sociaux sont-elles vraiment investies pour arrêter l’utilisation de ces technologies pour diffuser de fausses nouvelles ? Les preuves suggèrent que non – l’ancienne data scientist de Facebook devenue dénonciatrice, Frances Haugen a déclaré au congrès américain que le réseau de médias sociaux faisait passer le profit avant les pouvoirs pour lutter contre la désinformation. Dans une plainte déposée auprès des autorités fédérales, elle a allégué que les propres recherches de Facebook montrent qu’elles amplifient la haine, la désinformation et les troubles politiques.

Les technologies d’apprentissage en profondeur jouent sans aucun doute un rôle important dans cette amplification, mais il semble que même la plate-forme la plus performante et la plus puissante au monde soit loin d’être investie dans la lutte contre ses effets néfastes. Facebook a même dissous sa propre équipe de lutte contre la désinformation qui avait été formée au moment des élections américaines de 2020 dans le but de garantir que le contenu probablement généré par la Russie n’infecte pas les fils d’actualité des électeurs.

Bien que la désinformation sur Facebook soit encore principalement générée par l’homme, elle est perpétuée par de faux comptes et des robots. Les contrefaçons profondes sont encore en grande partie dans le futur, mais nous commençons à voir les dangers très réels de ce qui peut arriver avec peu ou pas de réglementation dans ce domaine.

Alors que la technologie d’apprentissage en profondeur devient encore plus accessible, il incombe aux fournisseurs de médias sociaux de trouver une solution à la propagation de fausses nouvelles et d’investir dans la recherche et les outils pour la contrer. Dans le même temps, les investissements dans des solutions qui alimentent des applications positives, telles que la PNL qui brise les barrières linguistiques, ne devraient pas être mis de côté.

Mike Loukides, vice-président des technologies émergentes, O’Reilly

Laisser un commentaire