Meta a développé une peau de robot sensible au toucher parce que vous savez que Zuck veut être humain


Meta n’en a pas fait un secret, il a l’intention d’étendre son métaverse pour inclure de nouveaux projets et produits. Il semble que Mark Zuckerberg souhaite que l’une de ces nouvelles entreprises consiste à aider les robots à expérimenter et à comprendre le monde comme le font les humains en chair et en os, grâce à l’interaction tactile. Ou peut-être que Zuck est un humain. Quoi qu’il en soit, c’est une recherche intéressante.

Facebook et sa nouvelle société mère Meta ont fait la une des journaux ces derniers temps alors qu’ils continuent d’essayer de se remettre du contrecoup causé par les documents internes divulgués par un ancien employé. Alors que Meta avance dans la création de la vision de Zuckerberg du métavers, il cherche de nouvelles façons de faire progresser la technologie et l’esprit des gens au-delà de ses malheurs les plus récents. Cela inclut la suppression récente par Meta de son système de reconnaissance faciale sur Facebook.

La dernière annonce issue de Meta concerne les domaines combinés de l’intelligence artificielle (IA), de la robotique et de la détection tactile. Alors que les robots deviennent de plus en plus une réalité dans le sens où ils sont capables de communiquer et d’être capables d’une programmation plus détaillée et compliquée, Meta veut qu’ils soient également capables de communiquer comme les humains le font par le toucher. Il décrit cet effort comme ayant quatre piliers de l’écosystème de détection tactile qui incluent le développement de matériel, de simulateurs, de bibliothèques, de références et d’ensembles de données. Meta pense que ces piliers sont nécessaires pour créer des systèmes d’IA capables à la fois de comprendre et d’interagir par le toucher.

L’un des domaines inclus dans les piliers est la détection tactile. Ce champ en

la robotique recherche des moyens par lesquels les robots peuvent à la fois comprendre et reproduire le toucher au niveau humain dans le monde physique. Au fur et à mesure que cette technologie progresse, l’espoir est qu’elle puisse être une technologie autonome ainsi qu’être intégrée aux technologies audio et visuelles. Le résultat final devrait conduire à des robots plus sûrs et plus gentils, selon Meta.

Cette première étape dans l’avancement de la détection tactile consiste à développer des capteurs capables de collecter et de permettre le traitement de ces données. Meta pense que le capteur devrait être suffisamment petit pour imiter le bout du doigt d’un humain, ce qui, admet-il, est trop coûteux à financer pour la plupart de la communauté universitaire. Ensuite, ces capteurs de la taille du bout des doigts doivent être durables et capables de résister aux tâches répétées qu’il leur serait probablement demandé d’effectuer. Enfin, ils doivent être suffisamment sensibles pour collecter suffisamment de données sur la texture et les caractéristiques de la surface, la force de contact et d’autres façons dont le bout du doigt discerne exactement ce qu’il ressent.

Meta cherche à utiliser la conception open source complète de DIGIT qu’elle a publiée en 2020. Cette conception est moins chère à fabriquer et fournit des centaines de milliers de points de contact supplémentaires que les autres capteurs tactiles commerciaux disponibles actuellement sur le marché selon Meta. Meta AI s’est associé à GelSight pour fabriquer commercialement DIGIT afin de le rendre plus abordable pour les chercheurs. Meta AI a également accepté de collaborer avec Carnegie-Mellon-University pour développer ReSkin, un « skin » open source à détection tactile avec un petit facteur de forme.

TACTO est une autre technologie open source développée par Meta AI. Cette technologie est utilisée pour les capteurs tactiles basés sur la vision haute résolution afin de fournir un support à l’apprentissage automatique (ML). Les cas d’utilisation pour cela seraient lorsque le matériel n’est pas présent, ce qui crée une plate-forme qui contournerait et annulerait le besoin d’expériences dans le monde réel. Cela pourrait économiser beaucoup de temps et d’argent pour les chercheurs, car cela réduirait l’usure du matériel utilisé et garantirait l’utilisation du bon matériel.

Oier Mees, assistant de recherche doctoral en systèmes intelligents autonomes à l’Institut d’informatique de l’Université de Freiberg, déclare : « TACTO et DIGIT ont démocratisé l’accès à la détection tactile basée sur la vision en fournissant des implémentations de référence à faible coût qui m’ont permis de rapidement prototypes de politiques de manipulation de robots multimodaux. »

Dans le but de réduire le temps de déploiement et d’augmenter la réutilisation du code, Meta a créé une bibliothèque de modèles et de fonctionnalités ML appelée PyTouch. L’objectif est de pouvoir à terme intégrer à la fois des capteurs du monde réel et son simulateur de détection tactile ainsi que des capacités Sim2Real. Les chercheurs pourront utiliser PyTouch « en tant que service » et auront la possibilité de connecter leur DIGIT, de télécharger un modèle pré-entraîné et de l’utiliser comme bloc de construction dans leur propre application.

Nous ne sommes qu’au bord du précipice pour comprendre et développer l’IA dans de nombreux domaines de recherche. Les opportunités que présentent à la fois l’IA et le ML peuvent produire des sentiments d’euphorie et de peur. Les progrès de Meta dans ces domaines peuvent produire les mêmes sentiments alors que nous attendons de voir où il a l’intention de l’emmener et de l’utiliser à l’avenir. Bien que nous puissions plaisanter sur la façon dont Meta crée simplement une technologie pour rendre Mark Zuckerberg plus humain, nous devons également garder un œil vigilant rempli d’étonnement sur toutes les entreprises qui recherchent et produisent ces technologies.

Laisser un commentaire