Pour quiconque compte sur l'IA pour rechercher des informations, que ce soit pour une utilisation personnelle ou professionnelle, sachez que l'IA peut halluciner. Cela signifie que parfois les informations que cela vous donnent pourraient être fausses ou tout simplement composées. C'est aussi pourquoi il est important de revérifier avant de prendre ce que l'IA dit en tant que Gospel. Malheureusement, tout le monde ne le fait pas, c'est pourquoi les restaurants appellent Google IA sur de fausses offres de restaurants.
Google AI donnant de fausses offres de restaurants
Nous sommes sûrs que certains d'entre vous ont rencontré des publications sur Facebook, Instagram, Threads ou X / Twitter de soi-disant «experts rapides». Ces messages affirment souvent que l'utilisation d'outils d'IA comme Chatgpt les a permis de «des milliers de dollars» sur les vols, les hôtels et plus encore. Cela est censé être fait en utilisant l'IA pour parcourir le Web pour les offres.
C'est pourquoi certains propriétaires d'entreprise appellent désormais Google et son IA pour fournir de fausses informations aux clients sur les offres de restaurants et les offres spéciales. La pizzeria de Stefanina à Wentzville a publié un article sur les réseaux sociaux pour souligner le problème.
Selon le poste, « Veuillez ne pas utiliser Google AI pour découvrir nos offres spéciales. Veuillez aller sur notre page Facebook ou notre site Web. Google AI n'est pas exact et dit aux gens des spécialités qui n'existent pas, ce qui fait crier les clients en colère à nos employés. Nous ne pouvons pas contrôler ce que Google publie ou dit, et nous n'honorerons pas les spéciaux Google AI. »
S'adressant à KMOV, Jonathan Hanahan, un professeur de l'Université de Washington qui utilise et enseigne l'intelligence artificielle, dit que parfois ces inexactitudes apparaissent à la suite de l'invite. Cela peut entraîner des informations biaisées ou qui présentent un biais de confirmation.
Pas la première fois que cela se produit
Les commentaires de Hanahan sont en fait sur le point. Il s'aligne également sur une récente étude d'Oxford, qui a révélé que les outils d'IA sont en fait excellents pour fournir des diagnostics médicaux. Cependant, lorsqu'il est associé à des utilisateurs humains, cette précision baisse considérablement. Il passe de 94,9% à 34,5% inquiétant. Il s'avère que cela a à voir avec la façon dont les humains invitent et interagissent avec le modèle d'IA.
Les modèles d'IA peuvent en fait fournir un diagnostic précis, mais parce que les utilisateurs humains laissent parfois de côté des informations, cela ne donne pas à l'AI une image complète, conduisant à un diagnostic inexact. Cela pourrait être l'un des problèmes auxquels les utilisateurs sont confrontés lorsqu'ils comptent sur des outils d'IA comme l'aperçu de l'IA de Google.
Dans tous les cas, cela permet de ne pas être trop dépendants de l'IA, ainsi que toujours de revérifier les informations avant de supposer quoi que ce soit.
