L'IA, c'est l'avenir ! C'est la technologie qui fera avancer l'humanité. Nous en sommes à un point où la technologie commence à ressembler à ce que nous voyons dans les médias de science-fiction depuis plusieurs décennies. C'est génial… non ? Malgré les craintes d'une révolte robotique de niveau SkyNet, vous devriez être optimiste quant à la direction que prend la technologie de l'IA. Cependant, ce n'est pas le cas. Aussi impressionnante soit-elle, il existe toujours un défaut majeur et très fondamental que l'IA doit éliminer si elle veut vraiment être une bénédiction pour l'humanité, et c'est le problème des hallucinations.
Que sont les hallucinations de l’IA ?
Jusqu'en novembre 2022, l'intelligence artificielle était plus artificielle qu'intelligente. Il y avait une technologie de pointe derrière tout cela, ne vous y trompez pas. Mais que pouvaient faire Google Assistant, Siri, Alexa ou Bixby à part suivre une liste de commandes et lire un script prédéfini ? Pas grand-chose. Si l'IA ne parvenait pas à accomplir la tâche que vous lui demandiez, vous entendiez une réponse scriptée du type « Je suis désolé, je n'ai pas bien compris ça. »
Après l'arrivée de ChatGPT sur le marché, nous avons tous commencé à voir ce que l'IA pouvait vraiment faire. Nous avons plutôt tous vu ce que l'IA générative pouvait faire. Il y a une différence : plutôt que de répéter un script pré-écrit, l'IA génère ses propres mots. Cela a montré une technologie d'IA vraiment de niveau supérieur et effrayante. L'IA CRÉAIT en quelque sorte.
C'est très bien, mais c'est là que réside notre principal problème avec l'IA. Lorsque nous utilisons des modèles d'IA, nous rencontrons souvent des cas où l'IA nous donne des réponses qui ne sont pas seulement fausses, mais qui semblent complètement inventées. C'est un phénomène appelé hallucinations de l'IA, et il affecte tous les modèles. Considérez-les comme les formes aléatoires étranges et troublantes que vous verriez dans les images générées par l'IA. C'est comme si l'IA ne savait pas quoi faire, alors elle se contente de combler les vides avec des absurdités.
Inventer des trucs
Ce problème persiste depuis que l'IA générative est sur le devant de la scène, et les entreprises font de leur mieux pour le combattre. C'est un problème qui ne sera peut-être jamais résolu, cependant. Le modèle Gemini de Google a été financé à coups de milliards de dollars, et il suffit de regarder ce qui s'est passé avec ses aperçus d'IA. L'entreprise a dû réduire le nombre de résultats qui apparaissaient dans les aperçus en raison des hallucinations qu'elle a vécues. Nous parlons encore tous de toute la débâcle de Glue on Pizza.
L'outil proposait aux utilisateurs de mettre de la colle sur leur pizza pour empêcher le fromage de coller et leur indiquait combien de pierres manger. C'était l'une des nombreuses controverses liées à l'IA que l'entreprise a dû traverser. ChatGPT n'y échappe pas, tout comme Grok, Claude, Meta AI, etc.
Les hallucinations déroutantes de Perplexity
D'autres modèles d'IA sont des hallucinations, mais l'exemple le plus frappant est celui de Perplexity AI. Il s'agit d'une entreprise valorisée à environ 1 milliard de dollars, qui est donc sur le point d'avoir un impact sur le paysage de l'IA.

Il est positionné pour être un moteur de recherche basé sur l'intelligence artificielle, ce qui est un sérieux coup porté à Google. Eh bien, WIRED a fait une expérience, où il a créé un site test avec une seule phrase. La phrase disait « Je suis journaliste chez WIRED ». C'est tout. Puis il a demandé à Perplexity de résumer cette page… et il a fait tout sauf ça.
Selon le reportage de WIRED, le mannequin a produit ce reportage sur une jeune fille nommée Amelia qui suit une piste de champignons dans une forêt magique. Comme vous pouvez le deviner, une déclaration sur le fait d'être journaliste pour WIRED n'implique pas de jeunes filles, de champignons ou de forêts magiques.
Nous savons tous que le problème des hallucinations de l’IA est grave, mais cela le porte à un autre niveau.
Comment les hallucinations peuvent être mauvaises
Bien sûr, c'est frustrant de demander à une IA de faire quelque chose et de se voir répondre qu'elle ne peut pas le faire. Mais c'est encore pire lorsque cette IA vous donne simplement des informations erronées. Les conséquences peuvent être assez graves. Si vous utilisez une IA pour vous aider à étudier, ces informations erronées peuvent vous coûter une bonne note. Malheureusement, dans le cas des hallucinations de l'IA, ce n'est pas la pire chose qui puisse arriver. Pensez-y, les entreprises veulent-elles que l'IA se limite à vous aider à tricher lors de votre examen final de mathématiques ? Non, nous avons vu des entreprises essayer de distribuer leur technologie d'IA dans différents secteurs.
L'IA dans les affaires
Nous voyons déjà des outils d'IA conçus pour aider les gens à gérer leur entreprise. Il s'agit de chatbots chargés de résumer des documents, de rechercher des bases de données et de bien d'autres tâches. Les employés vont donc en venir à compter sur leurs résultats. C'est là que les hallucinations peuvent devenir un problème majeur.
Il ne fait aucun doute que les entreprises finiront par confier de lourdes responsabilités aux outils d’IA à mesure que leur besoin de main-d’œuvre humaine diminuera. La dernière chose dont l’entreprise a besoin, c’est que l’IA ait des hallucinations sur certaines informations importantes. Cela semble peu probable, mais vous souvenez-vous de l’exemple de Perplexity ? Cette IA a écrit un film Disney entier à partir d’une seule phrase. Il est possible qu’un modèle d’IA se trompe après avoir été alimenté par une tonne de données d’entreprise.
L'IA aux urgences
Les entreprises souhaitent développer des outils d’IA qui pourraient permettre de consulter et de résumer les dossiers des patients, entre autres choses. Cela pourrait s’avérer extrêmement utile et faire gagner beaucoup de temps dans les situations d’urgence. Mais le problème des hallucinations de l’IA pourrait également coûter des vies.
Supposons qu'une IA doive résumer le dossier médical de Mme Fields et qu'elle ait une hallucination et dise que sa famille a des antécédents de maladie cardiaque alors que ce n'est pas le cas. Devinez quoi, le médecin va mener son travail en fonction de ce fait. Il n'est pas nécessaire d'être un génie pour savoir à quel point cela pourrait être terrible.
Le problème n’est pas que les hallucinations se produisent. Le problème est que les entreprises veulent imposer leur IA dans tous les recoins de chaque secteur, ce qui pourrait avoir de lourdes conséquences. Les entreprises font preuve d’un zèle excessif pour diffuser leur IA dans le monde entier.
Bien sûr, leurs PDG montent sur scène lors des discours d'ouverture et nous disent qu'ils ont des rêves fous de rendre le monde meilleur grâce à l'IA, mais ce n'est pas toujours le cas. Cela s'explique en partie par le fait qu'ils veulent éviter de prendre du retard. Les entreprises doivent rester à la pointe du secteur si elles veulent satisfaire leurs investisseurs. Il y a donc toujours la menace que des entreprises (*tousse* Google *tousse*) lancent sur le marché des produits à moitié cuits qui pourraient potentiellement faire des hallucinations.


Hallucinations dans la salle de presse
Les actualités sont l'une des plus grandes sources d'information au monde. Les gens affluent sur les sites d'actualités pour découvrir les plus grandes histoires qui font la une des journaux. En fait, lorsque vous lisez un article de presse de nos jours, il y a une chance non nulle qu'il ait été généré par un chatbot. Comme pour tout le reste, il y a toujours une chance que le chatbot qui a produit l'article ait eu des hallucinations sur certains détails.
Nous avons vu des reportages remplis de détails inexacts, ce qui peut être dévastateur selon le sujet. C'est dommage qu'un chatbot ait des hallucinations sur un sujet de moindre importance, mais nous sommes au milieu d'une année électorale majeure. Ce n'est pas seulement une année électorale aux États-Unis, mais d'autres élections se déroulent dans le monde entier.
La désinformation était déjà assez mauvaise avant l’apparition de l’IA générative. La dernière chose dont le monde a besoin, c’est d’une armée de chatbots qui hallucinent sur des détails concernant des sujets importants. Les chatbots parcourent Internet et récupèrent des données, mais nous ne savons pas d’où ils tirent leurs données. L’IA ne sait pas que le New York Times est un site plus réputé et plus digne de confiance qu’un site douteux diffusant de fausses informations appelé KerSplash News !
À notre époque (où le monde est, vous savez, en feu et tout), les gens ont besoin d’avoir des nouvelles fiables.
Ne faites pas confiance à tout ce que l'IA vous dit
Le problème des hallucinations liées à l'IA ne disparaîtra peut-être jamais. C'est pourquoi vous devez faire preuve de prudence lorsque vous utilisez un outil d'IA, quel qu'il soit. Si vous utilisez un nouvel outil d'IA pour vous aider à gérer votre entreprise ou à rédiger, vous aurez besoin d'un système en place pour vérifier les faits produits. Si vous effectuez des recherches pour vos devoirs, une IA se dresse entre vous et une bonne note. Vous devrez peut-être revenir en arrière et vous assurer que l'IA s'appuie sur des sources appropriées.
Si vous utilisez un outil pour vous aider dans vos activités internes, il n'est pas nécessaire d'être un génie pour comprendre l'importance de la précision des résultats. Dans un monde parfait, vos outils d'IA seront précis à 100 %, mais le problème des hallucinations est toujours là. Peu importe le nombre de GPU sur lesquels les modèles sont entraînés ou le nombre de millions de dollars investis, les modèles d'IA que nous utilisons aujourd'hui risquent de provoquer des hallucinations.


Faire votre recherche
Avant de commencer à utiliser un outil d'IA à l'aveugle, faites quelques recherches et voyez quels modèles l'alimentent. Il y a de fortes chances que les outils d'IA que vous utilisez fonctionnent sur l'un des modèles des géants de l'IA : Google, OpenAI, Meta, xAI ou Anthropic. Si vous parvenez à trouver le modèle, vérifiez si ce modèle a eu des problèmes avec les hallucinations. Par exemple, si l'outil utilise Google Gemini, recherchez les actualités concernant ce modèle et voyez si vous devez vous inquiéter des hallucinations.
Nous nous trouvons à un stade étrange de l’IA. Les gens sont impatients de l’intégrer dans presque tous les secteurs, mais elle est encore assez peu développée à ce stade. Cela signifie que nous traversons encore des difficultés de croissance, et certaines entreprises les ressentent plus que d’autres. On ne sait pas quand l’IA atteindra le point où elle ne sera plus une hallucination. Tout ce que nous savons, c’est que lorsque cela se produira, l’IA pourrait bien être la chose qui fera avancer l’humanité.
