La fonctionnalité de recherche IA de Google soulève des préoccupations quant à l'inexactitude

La fonctionnalité de recherche IA de Google soulève des préoccupations quant à l'inexactitude

Par
Maria Santos
3 min de lecture

La fonctionnalité de résumé IA de Google critiquée pour ses inexactitudes

Google a récemment déployé une nouvelle fonctionnalité de recherche qui utilise l'IA pour fournir des résumés de certains sites web en haut de ses pages de résultats. Bien qu'elle soit accessible à plus de 250 millions d'utilisateurs mensuels aux États-Unis, cette fonctionnalité a fait l'objet de critiques concernant ses inexactitudes, y compris des cas où elle a généré des suggestions absurdes. Par exemple, une recherche sur "le fromage qui ne colle pas à la pizza" a conduit à une recommandation d'ajouter de la colle non toxique à la sauce. Ces problèmes soulignent le risque que l'IA ne comprenne pas les nuances de ses données d'entraînement et amplifie la désinformation. Anastasia Kotsiubynska, responsable du référencement chez SE Ranking, avait précédemment anticipé ces inexactitudes dans les nouveaux résultats de recherche IA. Google a également indiqué qu'il prévoyait d'expérimenter l'incorporation de publicités dans ces résumés IA.

Points clés

  • Le moteur de recherche de Google a intégré des résumés générés par IA en haut des résultats de recherche, déplaçant la liste de liens qui dominait auparavant.
  • Les résumés IA ont atteint un marché important, avec plus de 250 millions d'utilisateurs mensuels aux États-Unis.
  • Les utilisateurs ont exprimé des préoccupations concernant les inexactitudes, les qualifiant de "hallucinations", dans les résumés générés par IA.
  • L'IA s'appuie sur diverses sources, comme Reddit, ce qui soulève des questions sur la fiabilité des données d'entraînement.
  • Ces inexactitudes soulignent les risques liés à l'incapacité de l'IA à saisir les subtilités des données d'entraînement, perpetuant potentiellement de fausses informations.

Analyse

L'introduction de résumés générés par IA dans le moteur de recherche de Google, touchant une base d'utilisateurs importante, a mis en lumière la présence d'inexactitudes et les risques de désinformation qui en découlent. Ces défis découlent de la difficulté de l'IA à saisir les subtilités de ses données d'entraînement, comme l'illustre la suggestion d'utiliser de la colle non toxique pour résoudre le problème du fromage qui colle à la pizza. Les entités impliquées dans la formation des modèles IA, notamment Reddit, pourraient faire l'objet d'un examen plus approfondi. En outre, les tests publicitaires que Google prévoit d'effectuer au sein des résumés IA ont le potentiel d'aggraver la situation, suscitant des inquiétudes quant à la prolifération d'informations trompeuses. Les conséquences de ces développements pourraient s'étendre aux annonceurs, aux utilisateurs et à la dynamique du marché des moteurs de recherche, nécessitant un suivi et un raffinement continus des modèles IA.

Saviez-vous que ?

  • Résumés générés par IA : Grâce à cette fonctionnalité, le moteur de recherche de Google fournit des résumés concis en haut des résultats de recherche, remplaçant la liste traditionnelle de liens. Ces résumés sont créés par l'analyse de sites web sélectionnés par l'intelligence artificielle.
  • "Hallucinations" de l'IA : Ce terme désigne les cas où les modèles IA génèrent des informations inexactes ou absurdes. Dans le contexte de la nouvelle fonctionnalité de recherche de Google, les utilisateurs ont signalé rencontrer des "hallucinations" se manifestant par des suggestions erronées ou illogiques dans les résumés IA, comme la recommandation d'ajouter de la colle non toxique à la sauce à pizza.
  • Données d'entraînement : Pour effectuer des tâches telles que la synthèse, les modèles IA s'appuient sur des ensembles de données étendus pour l'apprentissage. Ces ensembles de données, appelés données d'entraînement, comprennent diverses sources telles que des articles textuels, des images et des vidéos. Dans le cas de l'IA de Google, elle semble tirer des informations de diverses sources, y compris Reddit et un article de l'association des anciens élèves de l'Université du Wisconsin-Madison de 2016. Cependant, si l'IA ne parvient pas à saisir les subtilités des données d'entraînement, cela peut entraîner des inexactitudes ou des "hallucinations" dans les résumés générés.

Vous aimerez peut-être aussi

Cet article est soumis par notre utilisateur en vertu des Règles et directives de soumission de nouvelles. La photo de couverture est une œuvre d'art générée par ordinateur à des fins illustratives uniquement; ne reflète pas le contenu factuel. Si vous pensez que cet article viole les droits d'auteur, n'hésitez pas à le signaler en nous envoyant un e-mail. Votre vigilance et votre coopération sont inestimables pour nous aider à maintenir une communauté respectueuse et juridiquement conforme.

Abonnez-vous à notre bulletin d'information

Obtenez les dernières nouvelles de l'entreprise et de la technologie avec des aperçus exclusifs de nos nouvelles offres