ChatGPT a récemment connu un dysfonctionnement majeur lorsque le modèle d’IA a commencé à parler en charabia à plusieurs utilisateurs. Divers rapports ont commencé à apparaître, notamment sur Reddit, faisant état de ChatGPT se livrant à des divagations complètement absurdes. Il a également été signalé que l’IA restait coincée dans des boucles ou mélangeait des langues pour créer des hybrides étranges. OpenAI en a pris note et a identifié le problème plus tard, le faisant résoudre quelques heures plus tard.

ChatGPT fonctionne mal, reste coincé dans des boucles et jaillit du charabia

Un rapport sur Reddit a montré que ChatGPT avait soudainement commencé à parler de manière incohérente. Des mots aléatoires, des extraits de données d’entraînement spécifiques et même des langues différentes étaient tous lâchés par l’IA. Un autre rapport de dysfonctionnement a demandé à un utilisateur de partager plusieurs captures d’écran de ChatGPT, oscillant entre hallucination et lucidité. Après avoir dit des bêtises, il est resté coincé dans une boucle avant de mettre fin à sa réponse. Une fois que l’utilisateur lui a fait remarquer, il s’est excusé, avant de reparler en charabia. Cela s’est répété une autre fois, à ce moment-là, les captures d’écran ont été prises.

Un autre article très intéressant montrait ChatGPT coincé à nouveau dans une boucle. Cette fois, cependant, la boucle s’est autocorrigée. Une fois invité à nommer la plus grande ville du monde commençant par la lettre « A », ChatGPT a pris une tangente très étrange. Il nommerait une ville, puis dirait que ce n’était pas la bonne réponse et réessayerait, à l’infini. Les personnes dans les commentaires ont essayé cela avec leurs propres discussions et ont partagé des résultats similaires. Un autre article de Reddit sur GPT-4, le modèle premium basé sur un abonnement d’OpenAI, montrait ChatGPT hallucinant. Encore une fois, plusieurs utilisateurs dans les commentaires ont partagé des résultats similaires.

OpenAI explique pourquoi cela s’est produit

OpenAI a pris note du dysfonctionnement en développement et a rapidement identifié le problème. En quelques heures, la société a signalé que ChatGPT fonctionnait normalement sur sa page d’état. Le lendemain, la société a publié une explication de ce qui n’allait pas.

Apparemment, une optimisation récemment introduite a gâché les choses. OpenAI a expliqué, en termes très simples, comment fonctionne ChatGPT et ce qui n’allait pas.

«LLM [Large Language Models] générer des réponses en échantillonnant des mots de manière aléatoire en fonction en partie de probabilités. Leur « langage » est constitué de nombres qui correspondent à des jetons. Dans ce cas, le bug résidait dans l’étape où le modèle choisit ces numéros. Semblable à une perte de traduction, le modèle a choisi des nombres légèrement erronés, ce qui a produit des séquences de mots qui n’avaient aucun sens.

En bref, ChatGPT recherchait les mauvais mots et affichait un charabia abject. Pensez-y comme si vous jetiez des fléchettes sur un grand dictionnaire et construisiez une phrase à partir des mots sur lesquels les fléchettes ont atterri.

A lire également