Notre ultime moonshot est toujours la recherche


Pour Google (GOOG, GOOGL) et le PDG d’Alphabet, Sundar Pichai, son « ultime coup de pouce » est toujours Search, le moteur de recherche emblématique et extrêmement réussi de la société.

« [For] moi, notre ultime moonshot est toujours Search. Je sais que les gens seraient surpris d’entendre cela dans 20 ans. La recherche fonctionne très bien, mais comme je travaille sur la recherche, je vois toutes les limites. Même aujourd’hui, lorsque les gens saisissent une requête complexe, nous recherchons des mots clés qui essaient de la faire correspondre. Nous avons encore un long chemin à parcourir pour comprendre réellement l’intention de l’utilisateur, le contexte, d’où il vient et donner la meilleure réponse. C’est donc toujours la lune », a déclaré Pichai à Yahoo Finance dans une interview exclusive de grande envergure.

Pichai a rejoint Google en 2004 et est rapidement devenu une étoile montante. Dix ans plus tard, il a été nommé à la tête des produits et de l’ingénierie des produits et des plates-formes de Google, notamment la recherche, Maps, Play, Android, Chrome, Gmail et G Suite. Il est devenu PDG de Google en 2015 et a rejoint le conseil d’administration d’Alphabet en 2017. Il a pris la direction de la société mère de Google, Alphabet, en décembre 2019.

Même avec toutes les exigences liées à la direction d’une entreprise à capitalisation boursière de 1,5 billion de dollars, le PDG de 48 ans est toujours très impliqué dans le processus de développement de produits. Cette semaine, la conférence des développeurs Google I / O est revenue après une interruption d’un an en raison de la pandémie avec une multitude d’annonces et de fonctionnalités de nouveaux produits. Parmi les annonces figuraient un aperçu du prochain système d’exploitation Android 12, une visioconférence en trois dimensions surnommée «Project Starline», une intelligence artificielle pour détecter les affections dermatologiques et LaMDA – un modèle de langage pour les applications de dialogue, pour n’en nommer que quelques-uns.

Le PDG de Google, Sundar Pichai, prend la parole lors de la session d'ouverture de Google I / O 2019 au Shoreline Amphitheatre de Mountain View, Californie, le 7 mai 2019 (Photo de Josh Edelson / AFP) (Photo de JOSH EDELSON / AFP via Getty Images)

Le PDG de Google, Sundar Pichai, prend la parole lors de la session d’ouverture de Google I / O 2019 au Shoreline Amphitheatre de Mountain View, Californie, le 7 mai 2019 (Photo de Josh Edelson / AFP) (Photo de JOSH EDELSON / AFP via Getty Images)

Pichai a déclaré à Yahoo Finance que la technologie comme LaMDA « est le travail que nous faisons pour progresser contre le moonshot » dans la recherche.

Bien que la technologie soit encore en recherche et développement, elle est utilisée en interne chez Google pour de nouvelles interactions. C’est un domaine ouvert et conçu pour converser sur n’importe quel sujet. Par exemple, à Google I / O, LaMDA a été démontré via des conversations avec Pluton, la planète et un avion en papier.

«J’ai eu la chance de jouer avec Pluton avec mon fils. Et j’aurais pu m’asseoir et avoir une conversation avec lui sur l’espace. Cela aurait pu marcher. Mais en le faisant, je peux voir que cela a capturé son imagination, non? Et c’est le pouvoir de tout cela, être capable de le faire d’une manière plus naturelle », a déclaré Pichai.

Lors de Google I / O, Pichai a noté que via LaMDA, « des conversations réelles sont générées, et elles ne prennent jamais le même chemin, deux fois. LaMDA est capable de mener une conversation, peu importe ce dont nous avons parlé. »

Pour être sûr, LaMDA « ne fait pas tout bien » et parfois il donne des « réponses absurdes », a noté Pichai à I / O.

Pourtant, Pichai considère que les capacités de conversation de LaMDA ont le «potentiel de rendre l’information et l’informatique radicalement plus accessibles et plus faciles à utiliser», y compris pour ajouter de meilleures fonctionnalités de conversation dans l’Assistant Google, la recherche et l’espace de travail.

Alors que LaMDA est un « énorme pas en avant » dans une conversation plus naturelle, à l’heure actuelle, il n’est formé que par le texte. Pichai a déclaré à la foule d’E / S que l’équipe devait créer des modèles multimodaux (MUM) pour permettre aux gens de poser des questions sur différents types d’informations.

« Même maintenant, assis dans cette conversation, nous absorbons tout. Ce n’est pas seulement ce que nous parlons – nous sommes dans un endroit, nous nous voyons. C’est ainsi que les humains interagissent avec le monde », a déclaré Pichai.

Il a ajouté que les modèles multimodaux pourraient aider « les ordinateurs à comprendre les images, le texte, l’audio, la vidéo de la même manière que les humains perçoivent les informations afin qu’ils puissent les aider de manière plus significative. Et c’est ce qui m’excite dans les changements que nous apportons. »

Julia La Roche est correspondante de Yahoo Finance. Suivez-la sur Twitter.



Laisser un commentaire