People

Le nouveau modèle d’IA de Meta peut traduire 200 langues différentes et permettre 25 milliards de traductions


Le nouveau modèle d’IA de Meta peut traduire 200 langues différentes et permettre 25 milliards de traductions dans ses applications grâce à « l’un des supercalculateurs d’IA les plus rapides au monde », annonce le PDG Mark Zuckerberg

Le nouveau modèle d’IA de Meta peut traduire 200 langues différentes – dont de nombreuses langues à faibles ressources non prises en charge par les systèmes de traduction actuels – grâce au travail de ce que le PDG Mark Zuckerberg appelle « l’un des supercalculateurs les plus rapides au monde ».

La société nomme son effort No Language Left Behind (NLLB) et espère permettre plus de 25 milliards de traductions sur les applications de Meta chaque jour.

Bien qu’il existe aujourd’hui plus de 7 100 langues connues parlées dans le monde, beaucoup d’entre elles ne disposent pas de suffisamment d’ensembles de données pour former l’IA.

Faites défiler vers le bas pour la vidéo

« Les techniques de modélisation de l’IA que nous avons utilisées aident à faire des traductions de haute qualité pour des langues parlées par des milliards de personnes à travers le monde », a déclaré le PDG de Meta, Mark Zuckerberg, dans un communiqué.

Ces langues dites à faibles ressources comprennent l’arabe égyptien, le balinais, le sarde, le fulfulde nigérian, le pangasinan et l’umbundu – qui sont parlés par une population importante mais pas autant sur Internet lui-même.

« Les techniques de modélisation de l’IA que nous avons utilisées aident à faire des traductions de haute qualité pour des langues parlées par des milliards de personnes dans le monde », a déclaré le PDG de Meta, Mark Zuckerberg, dans un communiqué publié sur Facebook.

Le nouveau modèle peut traduire 55 langues africaines avec des « résultats de haute qualité », déclare la société.

«Pour donner une idée de l’échelle, le modèle en 200 langues compte plus de 50 milliards de paramètres, et nous l’avons formé à l’aide de notre nouveau Research SuperCluster, qui est l’un des supercalculateurs d’IA les plus rapides au monde.

« Les avancées ici permettront plus de 25 milliards de traductions chaque jour sur nos applications. »

« Cela signifie que cela peut avoir un impact sur des milliards de personnes en leur permettant de communiquer dans leur propre langue maternelle », déclare Marta R. Costa-jussa, chercheuse chez Meta AI. Sur la photo ci-dessus, le message de Zuckerberg annonçant l’effort

« La communication à travers les langues est une superpuissance fournie par l’IA, mais au fur et à mesure que nous progressons dans notre travail d’IA, cela améliore tout ce que nous faisons : de l’affichage du contenu le plus intéressant sur Facebook et Instagram, à la recommandation de publicités plus pertinentes, en passant par la sécurité de nos services pour tout le monde. .’

« Cela signifie que cela peut avoir un impact sur des milliards de personnes en leur permettant de communiquer dans leur propre langue maternelle », déclare Marta R. Costa-jussa, chercheuse chez Meta AI, dans une vidéo annonçant l’effort.

« Cela va changer la façon dont les gens vivent leur vie, la façon dont ils font des affaires, la façon dont ils sont éduqués, No Language Left Behind maintient vraiment cette mission au cœur de ce que nous faisons – ce sont les gens », déclare Al Youngblood, chercheur utilisateur chez Meta AI.

« Les avancées ici permettront plus de 25 milliards de traductions chaque jour sur nos applications », a déclaré Zuckerberg, photographié ci-dessus lors d’un événement plus tôt cette année.

Pour son projet No Language Left Behind, le géant de la technologie devait d’abord mener des entretiens exploratoires avec des locuteurs natifs des langues à faibles ressources afin de déterminer les besoins en traduction.

Ensuite, il a développé un modèle de calcul qui est formé sur les données obtenues avec des techniques d’exploration de données nouvelles et efficaces adaptées aux langages à faibles ressources.

«De manière critique, nous avons évalué les performances de plus de 40 000 directions de traduction différentes à l’aide d’une référence traduite par l’homme, Flores-200», déclare l’équipe de chercheurs dans le résumé de l’article expliquant le nouveau modèle d’IA.

Les chercheurs soulignent également les avantages plus larges d’intégrer davantage de langues à faibles ressources dans le giron comme un moyen de réduire les inégalités numériques.

«Étant donné que l’objectif principal de NLLB est de réduire les inégalités linguistiques dans un contexte mondial, de plus en plus de langues à faibles ressources seront intégrées au projet (ou à d’autres) à long terme», déclarent les chercheurs.

Tout le monde peut avoir une idée du fonctionnement du nouveau modèle sur le site de démonstration de Meta.

L'IA de Meta se concentre principalement sur 200 langues à faibles ressources, ce qui signifie qu'elles sont difficiles à couvrir pour les modèles de traduction car il n'y a pas beaucoup de données existantes pour entraîner l'IA.

L’IA de Meta se concentre principalement sur 200 langues à faibles ressources, ce qui signifie qu’elles sont difficiles à couvrir pour les modèles de traduction car il n’y a pas beaucoup de données existantes pour entraîner l’IA.

Meta a rendu tous ses critères d'évaluation pour le projet open source afin que les chercheurs puissent se plonger dans les données et qu'elles puissent être évaluées plus avant

Meta a rendu tous ses critères d’évaluation pour le projet open source afin que les chercheurs puissent se plonger dans les données et qu’elles puissent être évaluées plus avant

Laisser un commentaire