La présentation de l'IA de Google fait l'objet de critiques pour des réponses inexactes
La nouvelle fonctionnalité d'IA de Google, "Présentation de l'IA", récemment introduite dans Google Search, a été vivement critiquée pour avoir fourni des réponses inexactes et controversées aux requêtes de recherche. Cet outil vise à offrir des résumés rapides d'informations en haut des résultats de recherche, mais on a constaté qu'il donnait des réponses incorrectes, comme suggérer d'ajouter de la colle à la sauce à pizza pour empêcher le fromage de coller. Il a également attribué des informations inexactes à des professionnels de la santé et des scientifiques. Google prend des mesures pour résoudre ce problème, mais cet incident met en lumière les défis liés au déploiement de la technologie IA et l'importance de tests approfondis avant la mise en service. Google a rencontré des problèmes similaires avec son outil de génération d'images, qui a été mis en pause en raison d'inexactitudes historiques et de réponses discutables. Malgré ces défis, l'entreprise s'efforce de surmonter ces obstacles dans le développement et la mise en œuvre de la technologie IA.
Principaux points à retenir
- La Présentation de l'IA de Google dans la recherche a fait l'objet de critiques pour avoir fourni des résultats inexacts et controversés.
- La Présentation de l'IA offre des résumés rapides des réponses aux questions de recherche, mais les utilisateurs des réseaux sociaux ont partagé des exemples de réponses absurdes ou nuisibles.
- Google, Microsoft, OpenAI et d'autres sont engagés dans une course aux armements de l'IA générative, le marché étant prévu pour dépasser 1 billion de dollars dans une décennie.
- La Présentation de l'IA a eu des difficultés avec l'attribution, citant des informations inexactes à des professionnels de la santé ou des scientifiques.
- Google a précédemment mis en pause son outil de génération d'images, Gemini, après que les utilisateurs aient découvert des inexactitudes historiques et des réponses discutables.
- Les outils d'IA de Google ont été critiqués pour être "trop woke" ou manquer d'investissement dans l'éthique de l'IA, à la suite de problèmes avec Gemini et Bard.
- Google travaille encore sur la réouverture d'une version améliorée de l'outil de génération d'images Gemini après l'avoir mis en pause en février.
Analyse
Les critiques envers la Présentation de l'IA de Google soulignent les risques liés à la mise en service hâtive de la technologie IA sans tests approfondis. Les informations inexactes et les réponses discutables peuvent potentiellement nuire aux utilisateurs et ternir la réputation de Google. Cet incident met l'accent sur l'importance de l'attribution et de la vérification des faits dans le contenu généré par l'IA.
Les organisations engagées dans la course à l'IA générative, comme Microsoft et OpenAI, peuvent rencontrer des obstacles similaires. Les pays investissant dans l'IA, notamment les États-Unis et la Chine, devraient accorder la priorité au développement et aux tests éthiques de l'IA.
À court terme, le cours de l'action de Google peut être affecté et la confiance des utilisateurs dans son moteur de recherche pourrait vaciller. À long terme, cela pourrait entraver l'adoption et l'innovation de l'IA, car l'examen public et réglementaire s'intensifie. Cet incident est un rappel pour l'industrie technologique d'équilibrer l'innovation et la responsabilité, ainsi que la sécurité des utilisateurs.