L’IA pourrait-elle un jour lire dans les pensées ? La percée japonaise suscite un débat | Actualités technologiques


Tokyo, Japon – Yu Takagi n’en croyait pas ses yeux. Assis seul à son bureau un samedi après-midi de septembre, il a observé avec admiration l’intelligence artificielle décodant l’activité cérébrale d’un sujet pour créer des images de ce qu’il voyait sur un écran.

« Je me souviens encore quand j’ai vu le premier [AI-generated] images », a déclaré Takagi, un neuroscientifique de 34 ans et professeur adjoint à l’Université d’Osaka, à Al Jazeera.

« Je suis allé dans la salle de bain et je me suis regardé dans le miroir et j’ai vu mon visage et j’ai pensé: » D’accord, c’est normal. Peut-être que je ne deviens pas fou’ ».

Takagi et son équipe ont utilisé Stable Diffusion (SD), un modèle d’IA d’apprentissage en profondeur développé en Allemagne en 2022, pour analyser les scans cérébraux de sujets de test montrant jusqu’à 10 000 images à l’intérieur d’un appareil IRM.

Après que Takagi et son partenaire de recherche Shinji Nishimoto aient construit un modèle simple pour «traduire» l’activité cérébrale dans un format lisible, Stable Diffusion a pu générer des images haute fidélité qui ressemblaient étrangement aux originaux.

L’IA pourrait le faire même si les images n’ont pas été montrées à l’avance ou formées de quelque manière que ce soit pour fabriquer les résultats.

« Nous ne nous attendions vraiment pas à ce genre de résultat », a déclaré Takagi.

Takagi a souligné que la percée ne représente pas, à ce stade, la lecture de l’esprit – l’IA ne peut produire que des images qu’une personne a vues.

« Ce n’est pas de la lecture dans les pensées », a déclaré Takagi. « Malheureusement, il y a beaucoup de malentendus dans nos recherches. »

« Nous ne pouvons pas décoder les imaginations ou les rêves ; nous pensons que c’est trop optimiste. Mais, bien sûr, il y a du potentiel dans le futur.

Mais le développement a néanmoins soulevé des inquiétudes quant à la manière dont une telle technologie pourrait être utilisée à l’avenir.

Malgré son enthousiasme, Takagi lui-même reconnaît que de telles craintes ne sont pas sans fondement, étant donné la possibilité d’abus par des personnes malintentionnées ou sans consentement.

« Pour nous, les questions de confidentialité sont la chose la plus importante. Si un gouvernement ou une institution peut lire dans les pensées des gens, c’est une question très sensible », a déclaré Takagi. « Il doit y avoir des discussions de haut niveau pour s’assurer que cela ne peut pas arriver. »

Yu Takagi et son collègue ont développé une méthode d’utilisation de l’IA pour analyser et représenter visuellement l’activité cérébrale [Yu Takagi]

Les recherches de Takagi et Nishimoto ont généré beaucoup de buzz dans la communauté technologique, qui a été électrifiée par les progrès vertigineux de l’IA, y compris la sortie de ChatGPT, qui produit un discours de type humain en réponse aux invites d’un utilisateur.

Leur article détaillant les résultats se classe dans le top 1% pour l’engagement parmi les plus de 23 millions de résultats de recherche suivis à ce jour, selon Altmetric, une société de données.

L’étude a également été acceptée à la conférence sur la vision par ordinateur et la reconnaissance de formes (CVPR), prévue pour juin 2023, une voie commune pour légitimer des percées importantes en neurosciences.

Même ainsi, Takagi et Nishimoto hésitent à se laisser emporter par leurs découvertes.

Takagi soutient qu’il existe deux principaux goulots d’étranglement à la véritable lecture de l’esprit : la technologie d’analyse du cerveau et l’IA elle-même.

Malgré les progrès des interfaces neurales – y compris les ordinateurs cérébraux d’électroencéphalographie (EEG), qui détectent les ondes cérébrales via des électrodes connectées à la tête d’un sujet, et l’IRMf, qui mesure l’activité cérébrale en détectant les changements associés au flux sanguin – les scientifiques pensent que nous pourrions être à des décennies d’être capable de décoder avec précision et fiabilité des expériences visuelles imaginées.

Yu Takagi et son collègue ont utilisé une IRM pour scanner le cerveau des sujets pour leur expérience [Yu Takagi]

Dans les recherches de Takagi et Nishimoto, les sujets devaient s’asseoir dans un scanner IRMf jusqu’à 40 heures, ce qui était coûteux et chronophage.

Dans un article de 2021, des chercheurs du Korea Advanced Institute of Science and Technology ont noté que les interfaces neurales conventionnelles « manquent de stabilité d’enregistrement chronique » en raison de la nature molle et complexe du tissu neural, qui réagit de manière inhabituelle lorsqu’il est mis en contact avec des interfaces synthétiques.

De plus, les chercheurs ont écrit : « Les techniques d’enregistrement actuelles reposent généralement sur des voies électriques pour transférer le signal, qui est sensible aux bruits électriques de l’environnement. Étant donné que les bruits électriques perturbent considérablement la sensibilité, obtenir des signaux fins de la région cible avec une sensibilité élevée n’est pas encore une tâche facile. »

Les limitations actuelles de l’IA présentent un deuxième goulot d’étranglement, bien que Takagi reconnaisse que ces capacités progressent de jour en jour.

« Je suis optimiste pour l’IA mais je ne suis pas optimiste pour la technologie du cerveau », a déclaré Takagi. « Je pense que c’est le consensus parmi les neuroscientifiques. »

Le cadre de Takagi et Nishimoto pourrait être utilisé avec des appareils de balayage du cerveau autres que l’IRM, tels que l’EEG ou des technologies hyper-invasives comme les implants cerveau-ordinateur développés par Neuralink d’Elon Musk.

Même ainsi, Takagi pense qu’il y a actuellement peu d’applications pratiques pour ses expériences d’IA.

Pour commencer, la méthode ne peut pas encore être transférée à de nouveaux sujets. Étant donné que la forme du cerveau diffère d’un individu à l’autre, vous ne pouvez pas appliquer directement un modèle créé pour une personne à une autre.

Mais Takagi voit un avenir où il pourrait être utilisé à des fins cliniques, de communication ou même de divertissement.

« Il est difficile de prédire ce que pourrait être une application clinique réussie à ce stade, car il s’agit encore d’une recherche très exploratoire », a déclaré à Al Jazeera Ricardo Silva, professeur de neurosciences computationnelles à l’University College London et chercheur à l’Institut Alan Turing.

« Cela peut s’avérer être un moyen supplémentaire de développer un marqueur pour la détection et l’évaluation de la progression de la maladie d’Alzheimer en évaluant de quelle manière on pourrait repérer des anomalies persistantes dans les images de tâches de navigation visuelle reconstruites à partir de l’activité cérébrale d’un patient. »

Certains scientifiques pensent que l’IA pourrait être utilisée à l’avenir pour détecter des maladies telles que la maladie d’Alzheimer [Yu Takagi]

Silva partage ses inquiétudes quant à l’éthique de la technologie qui pourrait un jour être utilisée pour une véritable lecture de l’esprit.

« La question la plus urgente est de savoir dans quelle mesure le collecteur de données devrait être contraint de divulguer en détail les utilisations des données collectées », a-t-il déclaré.

« C’est une chose de s’inscrire comme moyen de prendre un instantané de votre jeune moi pour, peut-être, une utilisation clinique future… C’est encore une autre chose complètement différente de l’utiliser dans des tâches secondaires telles que le marketing, ou pire, utilisé dans des affaires juridiques contre les intérêts de quelqu’un.

Pourtant, Takagi et son partenaire n’ont pas l’intention de ralentir leurs recherches. Ils planifient déjà la deuxième version de leur projet, qui se concentrera sur l’amélioration de la technologie et son application à d’autres modalités.

« Nous développons maintenant une bien meilleure [image] technique de reconstruction », a déclaré Takagi. « Et ça se passe à un rythme très rapide. »

Laisser un commentaire