Google va changer le processus de recherche après le tollé suscité par le licenciement des scientifiques | Google


Google modifiera les procédures avant juillet pour examiner les travaux de ses scientifiques, selon un enregistrement de la mairie entendu par Reuters, dans le cadre d’un effort visant à réprimer le tumulte interne sur l’intégrité de ses recherches sur l’intelligence artificielle (IA).

Dans des remarques lors d’une réunion du personnel vendredi dernier, les dirigeants de Google Research ont déclaré qu’ils travaillaient pour regagner la confiance après que la société ait évincé deux femmes de premier plan et rejeté leur travail, selon un enregistrement d’une heure, dont le contenu a été confirmé par deux sources.

Les équipes testent déjà un questionnaire qui évaluera les projets en fonction des risques et aidera les scientifiques à naviguer dans les revues, a déclaré Maggie Johnson, directrice des opérations de l’unité de recherche, lors de la réunion. Ce changement initial serait mis en œuvre d’ici la fin du deuxième trimestre, et la majorité des articles ne nécessiteraient pas de vérification supplémentaire, a-t-elle déclaré.

Reuters a rapporté en décembre que Google avait introduit un examen des «sujets sensibles» pour les études portant sur des dizaines de questions, comme la Chine ou les biais dans ses services. Des réviseurs internes avaient exigé qu’au moins trois articles sur l’IA soient modifiés pour s’abstenir de jeter un regard négatif sur la technologie Google, a rapporté Reuters.

Jeff Dean, vice-président senior de Google chargé de superviser la division, a déclaré vendredi que l’examen des «sujets sensibles» «est et était déroutant» et qu’il avait chargé un directeur de recherche principal, Zoubin Ghahramani, de clarifier les règles, selon l’enregistrement. .

Ghahramani, un professeur de l’Université de Cambridge qui a rejoint Google en septembre en provenance d’Uber, a déclaré lors de la mairie: «Nous devons être à l’aise avec cet inconfort» de la recherche autocritique.

Google a refusé de commenter la réunion de vendredi.

Un e-mail interne, consulté par Reuters, offrait de nouveaux détails sur les préoccupations des chercheurs de Google, montrant exactement comment le service juridique de Google avait modifié l’un des trois articles sur l’IA, appelé Extraction des données de formation à partir de grands modèles linguistiques.

Le courrier électronique, daté du 8 février, d’un co-auteur de l’article, Nicholas Carlini, a été adressé à des centaines de collègues, cherchant à attirer leur attention sur ce qu’il a qualifié de vérifications «profondément insidieuses» des avocats des sociétés.

«Soyons clairs ici», disait le courriel d’environ 1 200 mots. «Lorsque nous, universitaires, écrivons que nous avons une ‘inquiétude’ ou que nous trouvons quelque chose de ‘inquiétant’ et qu’un avocat de Google nous demande de le changer pour qu’il sonne mieux, c’est vraiment Big Brother qui intervient. »

Les modifications requises, selon son e-mail, incluaient des échanges «négatifs à neutres» tels que le remplacement du mot «préoccupations» par «considérations» et «dangers» par «risques». Les avocats ont également exigé la suppression des références à la technologie Google; la conclusion des auteurs selon laquelle AI a divulgué du contenu protégé par le droit d’auteur; et les mots «violation» et «sensible», indique le courriel.

Carlini n’a pas répondu aux demandes de commentaires. Google, en réponse à des questions sur l’e-mail, a contesté son affirmation selon laquelle les avocats tentaient de contrôler le ton du journal. La société a déclaré qu’elle n’avait aucun problème avec les sujets étudiés par le journal, mais elle a trouvé certains termes juridiques utilisés de manière inexacte et a effectué une révision approfondie en conséquence.

Audit d’équité raciale

La semaine dernière, Google a également nommé Marian Croak, pionnière de la technologie audio sur Internet et l’un des rares vice-présidents noirs de Google, pour consolider et gérer 10 équipes qui étudient des problèmes tels que les préjugés raciaux dans les algorithmes et la technologie pour les personnes handicapées.

Croak a déclaré lors de la réunion de vendredi qu’il faudrait du temps pour répondre aux préoccupations des chercheurs en éthique de l’IA et atténuer les dommages causés à la marque de Google. «Veuillez me tenir entièrement responsable d’essayer de renverser cette situation», a-t-elle déclaré sur l’enregistrement.

Johnson a ajouté que l’organisation d’IA faisait appel à une société de conseil pour une vaste évaluation de l’impact sur l’équité raciale. La première vérification du genre pour le ministère conduirait à des recommandations «qui vont être assez difficiles», a-t-elle déclaré.

Les tensions au sein de la division de Dean se sont intensifiées en décembre après que Google a limogé Timnit Gebru, codirigeant de son équipe de recherche sur l’IA éthique, à la suite de son refus de retirer un article sur l’IA génératrice de langage. Gebru, qui est noire, a accusé l’entreprise à l’époque de revoir son travail différemment en raison de son identité et de marginaliser des employés issus de milieux sous-représentés. Près de 2 700 employés ont signé une lettre ouverte en faveur de Gebru.

Au cours de la mairie, Dean a expliqué quelle bourse la société soutiendrait. «Nous voulons une IA responsable et des enquêtes éthiques sur l’IA», a déclaré Dean, donnant l’exemple de l’étude des coûts environnementaux de la technologie. Mais il a dit qu’il était problématique de citer des données «à peu près d’un facteur cent» tout en ignorant des statistiques plus précises ainsi que les efforts de Google pour réduire les émissions. Dean a déjà critiqué l’article de Gebru pour ne pas inclure d’importantes découvertes sur l’impact environnemental.

Gebru a défendu la citation de son article. «C’est un très mauvais regard pour Google de sortir aussi défensivement contre un article qui a été cité par tant de leurs institutions homologues», a-t-elle déclaré à Reuters.

Les employés ont continué à publier sur Twitter leurs frustrations au cours du mois dernier alors que Google enquêtait, puis renvoyait Margaret Mitchell, codirectrice de l’IA éthique, pour avoir déplacé des fichiers électroniques en dehors de l’entreprise. Mitchell a déclaré sur Twitter qu’elle avait agi « pour soulever des inquiétudes concernant l’iniquité raciale et sexuelle et dénoncer le licenciement problématique du Dr Gebru par Google ».

Mitchell avait collaboré sur le papier qui a provoqué le départ de Gebru, et une version publiée en ligne le mois dernier sans affiliation à Google nommée «Shmargaret Shmitchell» en tant que co-auteur.

Interrogé sur ses commentaires, Mitchell a exprimé par l’intermédiaire d’un avocat sa déception face à la critique du journal par Dean et a déclaré que son nom avait été retiré à la suite d’une commande de l’entreprise.

Laisser un commentaire