Les scientifiques équipent les smartphones de la technologie «  Bat-sense  » pour générer des images à partir du son


L’avenir de la vidéosurveillance? Les smartphones équipés de la technologie «  bat-sense  » pourraient bientôt générer des images à partir du seul SOUND

  • Les chercheurs se sont inspirés de l’écholocation utilisée par les chauves-souris pour chasser et naviguer
  • Ils ont envoyé des bips sonores d’un haut-parleur pour rebondir dans un espace intérieur
  • Un algorithme d’apprentissage automatique multiplie le temps nécessaire au signal pour revenir
  • Ces données sont ensuite utilisées pour générer une image de l’espace et des objets qui l’entourent
  • L’équipe affirme qu’il peut fonctionner à partir de n’importe quel appareil doté d’un haut-parleur et d’un microphone

Un smartphone équipé d’une nouvelle technologie «  bat-sense  » permet aux scientifiques qui l’ont créé de générer des images à partir du son et d’avoir une idée de leur environnement.

Les experts de l’Université de Glasgow ont développé un algorithme d’apprentissage automatique pour mesurer les échos et les sons qui peuvent générer des images de l’environnement immédiat.

Il génère une image de la forme, de la taille et de la disposition autour de l’appareil, sans activer aucun appareil photo – générant des images avec le son seul.

Les chercheurs affirment que cela pourrait aider à garder les bâtiments à l’abri des intrusions sans avoir besoin de la vidéosurveillance traditionnelle, suivre les mouvements des patients vulnérables dans les maisons de soins infirmiers et même suivre la montée et la chute de la poitrine d’un patient pour rechercher des changements dans la respiration.

L’outil, similaire à une chauve-souris utilisant l’écholocation pour chasser et naviguer, pourrait être installé sur n’importe quel appareil avec microphone et haut-parleurs ou antennes radio.

Pour générer les images, un algorithme d'apprentissage automatique sophistiqué mesure le temps nécessaire aux blips sonores émis par des haut-parleurs ou des ondes radio pulsées à partir de petites antennes pour rebondir à l'intérieur d'un espace intérieur et revenir au capteur.

Pour générer les images, un algorithme d’apprentissage automatique sophistiqué mesure le temps nécessaire aux blips sonores émis par des haut-parleurs ou des ondes radio pulsées à partir de petites antennes pour rebondir à l’intérieur d’un espace intérieur et revenir au capteur.

Un smartphone équipé de la nouvelle technologie `` bat-sense '' permet aux scientifiques qui l'ont créé de générer des images à partir du son et d'avoir une idée de leur environnement

Un smartphone équipé de la nouvelle technologie «  bat-sense  » permet aux scientifiques qui l’ont créé de générer des images à partir du son et d’avoir une idée de leur environnement

Des experts de l'Université de Glasgow ont développé un algorithme d'apprentissage automatique pour mesurer les échos et les sons qui peuvent générer des images de l'environnement immédiat

Des experts de l’Université de Glasgow ont développé un algorithme d’apprentissage automatique pour mesurer les échos et les sons qui peuvent générer des images de l’environnement immédiat

COMMENT CELA FONCTIONNE: L’IA SUIVRE LE TEMPS QUE LE SON METTRE À REBOND DANS UNE PIÈCE

Pour créer une vidéo 3D de son environnement, le logiciel envoie des blips de son hors d’un haut-parleur de l’ordre du kilohertz – audible pour les humains.

La technologie fonctionne également avec des ondes sonores envoyées par une antenne de l’ordre du gigahertz.

Ces ondes sonores et ces blips rebondissent dans la pièce, frappant des objets et des personnes lorsqu’ils se déplacent.

Un algorithme d’apprentissage automatique multiplie par le temps que mettent les blips pour revenir à l’appareil qui les a émis.

Il l’utilise pour générer une image de la forme, de la taille et de la disposition de la pièce et créer un flux vidéo 3D.

Le Dr Alex Turpin, co-auteur principal, a déclaré que l’écholocation chez les animaux est une «  capacité remarquable  » et que la science a maintenant recréé cette capacité à l’aide des technologies Radar et LiDAR.

«Ce qui distingue cette recherche des autres systèmes, c’est qu’elle nécessite des données provenant d’une seule entrée – le microphone ou l’antenne – pour créer des images en trois dimensions.

«  Deuxièmement, nous pensons que l’algorithme que nous avons développé pourrait transformer n’importe quel appareil avec l’un de ces éléments de kit en un appareil d’écholocation.

« Cela signifie que le coût de ce type d’imagerie 3D pourrait être considérablement réduit, ouvrant de nombreuses nouvelles applications. »

Pour générer les images, un algorithme d’apprentissage automatique sophistiqué mesure le temps nécessaire aux blips sonores émis par des haut-parleurs ou des ondes radio pulsées à partir de petites antennes pour rebondir à l’intérieur d’un espace intérieur et revenir au capteur.

En analysant les résultats, l’algorithme peut déduire la forme, la taille et l’agencement d’une pièce, ainsi que repérer en présence d’objets ou de personnes.

Les résultats sont affichés sous forme de flux vidéo qui transforme les données d’écho en vision tridimensionnelle.

L’article décrit comment les chercheurs ont utilisé les haut-parleurs et le microphone d’un ordinateur portable pour générer et recevoir des ondes acoustiques de l’ordre du kilohertz.

L'outil, similaire à une chauve-souris utilisant l'écholocation pour chasser et naviguer, pourrait être installé potentiellement sur n'importe quel appareil avec microphone et haut-parleurs ou antennes radio.

L’outil, similaire à une chauve-souris utilisant l’écholocation pour chasser et naviguer, pourrait être installé potentiellement sur n’importe quel appareil avec microphone et haut-parleurs ou antennes radio.

Ils ont également utilisé une antenne pour faire de même avec des sons de radiofréquence dans la gamme du gigahertz – bien en dehors de la portée de l’audition humaine.

Dans chaque cas, ils ont recueilli des données sur les réflexions des vagues prises dans une pièce lorsqu’une seule personne se déplaçait.

Dans le même temps, ils ont également enregistré des données sur la pièce à l’aide d’une caméra spéciale qui utilise un processus appelé temps de vol pour mesurer les dimensions de la pièce et fournir une image à basse résolution.

En combinant les données d’écho du microphone et les données d’image de la caméra de temps de vol, l’équipe a «  entraîné  » son algorithme d’apprentissage automatique sur des centaines de répétitions pour associer des retards spécifiques dans les échos à des images.

Finalement, l’algorithme en a appris suffisamment pour générer ses propres images très précises de la pièce et de son contenu à partir des seules données d’écho.

Il génère une image de la forme, de la taille et de la disposition autour de l'appareil, sans activer aucun appareil photo - générant des images avec le son seul

Il génère une image de la forme, de la taille et de la disposition autour de l’appareil, sans activer aucun appareil photo – générant des images avec le son seul

La recherche s’appuie sur des travaux antérieurs de l’équipe, qui a formé un algorithme de réseau neuronal pour créer des images tridimensionnelles en mesurant les réflexions des éclairs de lumière à l’aide d’un détecteur à pixel unique.

Turpin a déclaré qu’il y avait de nombreux potentiels pour la technologie et qu’ils travaillaient à créer de nouvelles images et vidéos de plus haute résolution à partir du son à l’avenir.

Les résultats ont été publiés dans la revue Physical Review Letters.

COMMENT LES FUTURES CAMÉRAS POURRAIENT-ELLES VOIR DERRIÈRE LES MURS?

Les dernières recherches sur les caméras s’éloignent de l’augmentation du nombre de mégapixels pour fusionner les données de la caméra avec le traitement informatique.

Il s’agit d’une nouvelle approche radicale où les données entrantes peuvent ne pas ressembler du tout à une image.

Bientôt, nous pourrions être en mesure de faire des choses incroyables, comme voir à travers le brouillard, à l’intérieur du corps humain et même derrière les murs.

Des chercheurs de l’Université Heriot-Watt et de l’Université de Stanford développent de telles technologies, et l’Université Heriot-Watt a publié une vidéo démontrant un moyen de visualiser des objets cachés derrière les coins comme suit:

  1. Un laser est utilisé pour envoyer de courtes impulsions de lumière au sol, juste au-delà du bord du mur.
  2. Lorsque le laser touche le sol, la lumière est envoyée dans toutes les directions et se déplace comme une «grande sphère en croissance».
  3. Cette sphère de lumière se déplace derrière le mur pour atteindre un objet caché
  4. La lumière rebondit alors sur l’objet caché comme un écho et est renvoyée d’où elle vient.
  5. Une caméra très sensible (développée par des chercheurs de l’Université d’Édimbourg) capable de détecter même des photons uniques est utilisée pour enregistrer une vidéo de l’écho laser à son retour, avec une fréquence d’images de 20 milliards d’images par seconde.
  6. Avec la vidéo enregistrée dans des conditions de laboratoire et en utilisant cette caméra ultra-rapide et ultra-sensible, il est possible de localiser la position de l’objet caché.
  7. En mesurant le temps nécessaire à l’écho laser pour revenir à la caméra, les chercheurs savent à quelle distance se trouve l’objet.

Certaines des applications de la technologie comprennent:

  • Missions de sauvetage: Lorsque le terrain est dangereux, ou lorsque vous ne voulez pas entrer dans une pièce sauf si vous y êtes obligé.
  • Sécurité automobile: Le système pourrait être installé dans les voitures et utilisé pour éviter les accidents en détectant les véhicules entrants au coin de la rue.

La source: Université Heriot-Watt et Université d’Édimbourg



Laisser un commentaire