Google tente de sévir contre les fausses informations dans les résultats de recherche


Avez-vous déjà essayé de googler des sujets controversés comme l’élection présidentielle de 2020 ou l’efficacité des vaccins COVID-19 ? Malheureusement, Internet est inondé de théories du complot et d’autres informations erronées liées à des sujets comme ceux-ci.

Google (GOOG, GOOGL) a déclaré jeudi qu’il essayait de réduire le contenu bidon en améliorant la qualité des résultats dans ses soi-disant extraits de code et en permettant aux utilisateurs de trouver plus facilement les sources d’informations qu’ils trouvent sur Google. Pour ce faire, la société annonce qu’elle déploie un nouveau modèle d’intelligence artificielle appelé Multitask Unified Model, ou MUM.

Les extraits en vedette sont les réponses courtes que vous obtenez aux questions fréquemment posées dans vos résultats de recherche Google. Posez une question comme « Quelle est la hauteur de l’Empire State Building ? » et Google crache une réponse rapide au-dessus de la liste des résultats du site avec une réponse.

Parfois, cependant, ces extraits fourniront une réponse qui est techniquement exacte, mais qui ne correspond pas à la requête d’un utilisateur. Le vice-président de Google Search, Pandu Nayak, a déclaré qu’un exemple récent était lorsqu’un utilisateur a demandé combien de temps il a fallu à la lumière du Soleil pour atteindre la Terre, et l’extrait présenté a extrait des données d’un site sur le système solaire et combien de temps il a fallu à la lumière de Pluton pour atteindre La terre.

Le nouveau modèle d’intelligence artificielle de Google vise à empêcher ces extraits d’extraire des informations erronées. Avec cette mise à jour, Google récupère une réponse consensuelle de sites qui font preuve d’expertise, d’autorité et de fiabilité pour un sujet connexe et crache l’extrait présenté.

Nayak dit qu’un exemple de site qui démontre ces qualités serait un site de santé produit par une institution médicale.

Google s'assure que les extraits sont exacts avec un nouveau modèle d'IA.  (Image : Google)

Google s’assure que les extraits sont exacts avec un nouveau modèle d’IA. (Image : Google)

Et si les meilleurs résultats provenaient de sites fictifs ? Nayak dit que Google peut déterminer quels sites sont de mauvaise qualité ou utilisent des titres exagérés, propagent des mensonges ou prêchent la haine, et ne les utiliseront pas pour les extraits en vedette.

Pour empêcher les extraits de code d’extraire des informations alors qu’ils ne le devraient pas, a expliqué Nayak, la société s’assure que la fonctionnalité peut reconnaître les fausses prémisses. Nayak a utilisé l’exemple d’une personne recherchant l’année où Snoopy a assassiné Lincoln. Auparavant, un extrait de code fournissait la date de la mort de Lincoln, mais ne disait pas à l’utilisateur qu’un chien de dessin animé n’était pas impliqué.

Maintenant, Nayak dit qu’un extrait de code n’apparaîtra plus lorsque quelqu’un recherche quelque chose qui n’est pas vrai.

« Nous avons maintenant formé nos systèmes pour mieux détecter ces types de fausses prémisses et afficher moins d’extraits en vedette qui pourraient sembler inexacts ou inutiles », a expliqué Nayak. « Cette amélioration a réduit d’environ 40 % l’apparition d’extraits pour de telles fausses prémisses. »

En plus d’améliorer la précision de ses extraits de code, Google étend également son option d’avis de contenu. Les avis de contenu sont des notifications qui s’affichent lorsque quelqu’un recherche une actualité de dernière minute ou un élément qui implique un sujet en évolution rapide.

Dans de tels cas, Google vous fournira une note en haut de l’écran indiquant que les résultats que vous recherchez changent rapidement. L’idée est d’aider à stopper la diffusion de fausses informations liées aux grands reportages.

Désormais, la société ajoute également des alertes lorsqu’elle détecte que les seules informations disponibles sur un sujet donné proviennent de sites qui ne disposent pas d’informations fiables. Vous pouvez toujours voir les résultats de la recherche, mais l’idée est de s’assurer que les utilisateurs ne se contentent pas de cliquer sur un lien vers un site sur, par exemple, des ovnis atterrissant à New York, et de le considérer comme la vérité.

Bien sûr, comme pour tout ce qui repose sur des algorithmes, rien ne garantit que les extraits de code ou les avis de contenu de Google seront exacts à 100 % du temps. Il n’y a également aucune garantie que vous le verrez chaque fois que vous recherchez quelque chose d’inexact ou d’évolution rapide.

De plus, la mésinformation et la désinformation ne se propagent pas seulement via la recherche Google ; YouTube est également un vecteur pour une bonne quantité des deux formes de fausses informations. Google affirme qu’il se donne beaucoup de mal pour réduire ce type de contenu en faisant apparaître des vidéos de haute qualité, mais il existe encore de nombreux cas où la désinformation se propage sur la plate-forme de partage de vidéos.

Et avec 95 % des adolescents interrogés dans un récent sondage Pew Research déclarant qu’ils utilisent YouTube, il est plus important que jamais pour Google de sévir non seulement contre les fausses informations sur sa plateforme de recherche, mais aussi sur YouTube.

Inscrivez-vous à la newsletter Tech de Yahoo Finance

Plus de Dan

Vous avez un conseil ? Envoyez un courriel à Daniel Howley à dhowley@yahoofinance.com. Suivez-le sur Twitter à @DanielHowley.

Cliquez ici pour les derniers tickers boursiers tendances de la plateforme Yahoo Finance

Cliquez ici pour les dernières actualités boursières et une analyse approfondie, y compris les événements qui font bouger les actions

Lisez les dernières actualités financières et commerciales de Yahoo Finance

Téléchargez l’application Yahoo Finance pour Pomme ou Android

Suivez Yahoo Finance sur Twitter, Facebook, Instagram, Flipboard, LinkedInet Youtube



Laisser un commentaire