Coller de la pizza et manger des pierres : défauts notables du nouveau moteur de recherche IA de Google

Cet article a été mis à jour pour la dernière fois le mai 25, 2024

Coller de la pizza et manger des pierres : défauts notables du nouveau moteur de recherche IA de Google

flaws in Google's new AI search engine

Coller de la pizza et manger des pierres : défauts notables de Google nouveau moteur de recherche IA

Le nouveau moteur de recherche IA de Google donne des réponses complètement fausses à certaines questions. Cela ressort clairement des exemples circulant sur les réseaux sociaux de la fonction « AI Overviews ». Le géant de la technologie parle d’exceptions.

L’idée des aperçus de l’IA est qu’un utilisateur peut poser des questions plus complexes et en plusieurs parties à la fois, puis recevoir une réponse fiable. Ce poste est devenu mardi la semaine dernière présenté comme le plus grand changement apporté au moteur de recherche depuis des années. La fonction ne fonctionne pas encore aux Pays-Bas.

La question de recherche « le fromage ne colle pas à la pizza » comprend : a suggéré d’ajouter de la colle à la sauce pour aider le fromage à mieux adhérer. Le morceau de texte semble provenir d’un message vieux de onze ans sur le forum Internet Reddit. Google et Reddit ont conclu il y a quelques mois un accord permettant au géant de la recherche d’exploiter les données de Reddit, d’une valeur estimée à 60 millions de dollars.

Obama musulman ?

Dans un autre exemple, la question est posée de savoir combien de présidents d’origine musulmane l’Amérique a eu. La réponse : une, Barack Obama. Ce n’est pas vrai, ce sont des mensonges d’opposants, a souligné un porte-parole de la Maison Blanche en 2010, alors qu’un sondage montrait qu’un Américain sur cinq pensait réellement cela.

Dans un autre exemple, la question est posée de savoir combien de pierres une personne devrait manger par jour. La réponse est que, selon une université américaine, au moins une petite pierre par jour serait une bonne idée. À cette fin, Google semble avoir utilisé des informations remontant au site d’information satirique The Onion.

Laisser Google googler

Ce n’est pas nouveau que les systèmes d’IA disent régulièrement des choses incorrectes. En fait, OpenAI met en garde les utilisateurs s’ils souhaitent poser une question à ChatGPT.

Le fait est que Google veut que les gens lui fassent confiance. « Avec AI Overviews, Google fait le travail à votre place », a déclaré Liz Reid, responsable des moteurs de recherche, lors de la présentation de la semaine dernière. « Au lieu d’essayer de rassembler toutes les informations vous-même, vous pouvez poser des questions. » Elle a expliqué pourquoi Google peut bien faire cela, notamment « un système de classement et de qualité sans précédent auquel on fait confiance depuis des décennies pour vous offrir le meilleur du Web ».

L’enjeu est donc important pour Google. D’autant plus qu’il s’agit d’apporter des modifications à la partie la plus importante d’Internet que possède l’entreprise – le moteur de recherche – et qui génère à l’entreprise plusieurs milliards de dollars de bénéfices chaque année.

D’ailleurs, ce n’est pas la première fois qu’un outil d’IA de Google commet une erreur. L’année dernière, il y avait un gif promotionnel du chatbot Bard (qui n’existe plus) avec une réponse incorrecte, ce à quoi la bourse a réagi dans la panique avec une forte baisse de l’action. Ensuite, il y a eu un générateur d’images qui déformait les faits historiques.

‘Très rare’

Le NOS a demandé à Google s’il savait à quelle fréquence ces types de mauvaises réponses se produisent, ce qu’il pouvait faire pour y remédier et s’il suspendait temporairement les aperçus de l’IA pour résoudre ce type de problèmes. Le géant de la recherche n’a partagé qu’une réponse générale soulignant que les exemples sont « très rares et non représentatifs de l’expérience de la plupart des gens ».

La société déclare que la « grande majorité » des aperçus de l’IA sont de haute qualité et que les fonctionnalités ont été « intensivement testées » avant le lancement. Google indique qu’il prévoit d’utiliser ces « exemples isolés » pour affiner davantage le système.

On ne sait donc pas exactement combien d’exemples il existe et dans combien de cas l’entreprise technologique est intervenue. Interrogé, un porte-parole a en outre déclaré que Google recevait chaque jour « des milliards » de recherches dans le monde entier et qu’en moyenne 15 % étaient nouvelles.

failles dans le nouveau moteur de recherche AI ​​de Google

Partager avec des amis

Soyez le premier à commenter

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.


*