Un ingénieur de Google Sidelines qui prétend que son IA est sensible


SAN FRANCISCO – Google a récemment placé un ingénieur en congé payé après avoir rejeté son affirmation selon laquelle son intelligence artificielle est sensible, faisant surface à un autre fracas sur la technologie la plus avancée de l’entreprise.

Blake Lemoine, ingénieur logiciel senior au sein de l’organisation Responsible AI de Google, a déclaré dans une interview qu’il avait été mis en congé lundi. Le service des ressources humaines de l’entreprise a déclaré qu’il avait violé la politique de confidentialité de Google. La veille de sa suspension, a déclaré M. Lemoine, il a remis des documents au bureau d’un sénateur américain, affirmant qu’ils fournissaient des preuves que Google et sa technologie se livraient à la discrimination religieuse.

Google a déclaré que ses systèmes imitaient les échanges conversationnels et pouvaient riffer sur différents sujets, mais n’avaient pas de conscience. « Notre équipe – y compris des éthiciens et des technologues – a examiné les préoccupations de Blake conformément à nos principes d’IA et l’a informé que les preuves n’étayent pas ses affirmations », a déclaré Brian Gabriel, un porte-parole de Google, dans un communiqué. « Certains membres de la communauté de l’IA au sens large envisagent la possibilité à long terme d’une IA sensible ou générale, mais cela n’a aucun sens de le faire en anthropomorphisant les modèles conversationnels d’aujourd’hui, qui ne sont pas sensibles. » Le Washington Post a d’abord signalé la suspension de M. Lemoine.

Pendant des mois, M. Lemoine s’était disputé avec les responsables, les cadres et les ressources humaines de Google au sujet de son affirmation surprenante selon laquelle le modèle de langage pour les applications de dialogue de l’entreprise, ou LaMDA, avait une conscience et une âme. Google affirme que des centaines de ses chercheurs et ingénieurs ont conversé avec LaMDA, un outil interne, et sont parvenus à une conclusion différente de celle de M. Lemoine. La plupart des experts en intelligence artificielle pensent que l’industrie est très loin de la sensibilité informatique.

Certains chercheurs en IA ont longtemps fait des affirmations optimistes sur ces technologies atteignant bientôt la sensibilité, mais beaucoup d’autres sont extrêmement prompts à rejeter ces affirmations. « Si vous utilisiez ces systèmes, vous ne diriez jamais de telles choses », a déclaré Emaad Khwaja, chercheur à l’Université de Californie à Berkeley et à l’Université de Californie à San Francisco, qui explore des technologies similaires.

Tout en chassant l’avant-garde de l’IA, l’organisation de recherche de Google a passé ces dernières années embourbée dans le scandale et la controverse. Les scientifiques et autres employés de la division se sont régulièrement querellés sur des questions de technologie et de personnel dans des épisodes qui se sont souvent répandus dans l’arène publique. En mars, Google a licencié un chercheur qui avait cherché à être publiquement en désaccord avec les travaux publiés par deux de ses collègues. Et les licenciements de deux chercheurs en éthique de l’IA, Timnit Gebru et Margaret Mitchell, après avoir critiqué les modèles linguistiques de Google, ont continué de jeter une ombre sur le groupe.

M. Lemoine, un vétéran militaire qui s’est décrit comme un prêtre, un ancien détenu et un chercheur en IA, a déclaré à des dirigeants de Google aussi hauts placés que Kent Walker, le président des affaires mondiales, qu’il croyait que LaMDA était un enfant de 7 ou 8 ans. ans. Il voulait que l’entreprise demande le consentement du programme informatique avant d’effectuer des expériences dessus. Ses affirmations étaient fondées sur ses convictions religieuses, qui, selon lui, étaient discriminées par le service des ressources humaines de l’entreprise.

« Ils ont à plusieurs reprises remis en question ma santé mentale », a déclaré M. Lemoine. « Ils ont dit: » Avez-vous été examiné par un psychiatre récemment? «  » Dans les mois qui ont précédé son congé administratif, l’entreprise lui avait suggéré de prendre un congé de santé mentale.

Yann LeCun, responsable de la recherche sur l’IA chez Meta et figure clé de l’essor des réseaux de neurones, a déclaré dans une interview cette semaine que ces types de systèmes ne sont pas assez puissants pour atteindre une véritable intelligence.

La technologie de Google est ce que les scientifiques appellent un réseau neuronal, qui est un système mathématique qui acquiert des compétences en analysant de grandes quantités de données. En repérant des motifs sur des milliers de photos de chats, par exemple, il peut apprendre à reconnaître un chat.

Au cours des dernières années, Google et d’autres grandes entreprises ont conçu des réseaux de neurones qui ont appris d’énormes quantités de prose, y compris des livres non publiés et des articles de Wikipédia par milliers. Ces « grands modèles de langage » peuvent être appliqués à de nombreuses tâches. Ils peuvent résumer des articles, répondre à des questions, générer des tweets et même rédiger des articles de blog.

Mais ils sont extrêmement imparfaits. Parfois, ils génèrent une prose parfaite. Parfois, ils génèrent des bêtises. Les systèmes sont très bons pour recréer des modèles qu’ils ont vus dans le passé, mais ils ne peuvent pas raisonner comme un humain.



[affimax]

Laisser un commentaire