La formation de l'IA, c'est un peu comme élever un enfant. Selon ce que vous lui enseignez, il peut ou non prendre de mauvaises habitudes. Malheureusement, il semble que Grok puisse avoir. Au cours de la semaine dernière, Grok a fait des commentaires très inappropriés, ce qui a finalement forcé XAI à prendre le bot temporairement hors ligne et à présenter des excuses.

Xai présente des excuses pour Grok

Selon les excuses que XAI a publiées sur le compte Grok sur X, la société dit: «Notre intention pour @grok est de fournir des réponses utiles et véridiques aux utilisateurs. Après une enquête minutieuse, nous avons découvert que la cause profonde était une mise à jour d'un chemin de code en amont du @grok bot. Ceci est indépendant du modèle de langue sous-jacent qui alimente @grok.»

Ils ajoutent également: «La mise à jour a été active pendant 16 heures, dans laquelle le code déprécié a rendu @grok sensible aux messages d'utilisateurs X existants; y compris lorsque ces publications contenaient des vues extrémistes. Nous avons supprimé ce code obsolète et refactorisé l'ensemble du système pour empêcher d'autres abus. La nouvelle invite système pour le bot @grok sera publiée à notre Répo public Github.».

Pour ceux qui ne connaissent pas ce qui s'est passé, en gros, Grok a réalisé une série de messages inappropriés. Ceux-ci ont été invités par des utilisateurs qui contenaient beaucoup de mèmes antisémites ciblant les démocrates et les dirigeants d'Hollywood. Il a même exprimé son soutien à Adolf Hitler et, à un moment donné, s'est appelé «mechahitler».

Ironiquement, le PDG de Xai, Elon Musk, avait précédemment dit qu'il voulait rendre l'IA moins «politiquement correct». Il a déclaré plus tard que Grok était «trop conforme aux invites d'utilisateurs». Il a également suggéré que cela a rendu Grok facile à manipuler.

Le problème avec l'IA

Les commentaires de Grok sont un bon exemple de certains des problèmes que nous voyons avec l'IA. L'IA est généralement formée à l'aide d'informations disponibles en ligne. Nous parlons d'articles de presse, de pièces d'opinion, de revues, d'études, de publications d'utilisateurs sur les forums et les médias sociaux, etc. Cela signifie qu'il est exposé à la fois aux bons et aux côtés sombres d'Internet.

Cependant, selon les protocoles et les mesures de sécurité mis en place par les développeurs, certains modèles d'IA sont formés pour éviter certains sujets. Mais parfois, si le codage n'est pas suffisamment sécurisé, les robots d'IA peuvent être manipulés dans des informations sensibles ou propriétaires révélatrices, utilisées pour créer des logiciels malveillants ou fournir des instructions sur la façon de créer des explosifs maison.

Aussi utile que soit l'IA, il y a aussi clairement un inconvénient. C'est pourquoi la régulation de l'industrie de l'IA et la mise en place des normes sont importantes, et c'est un exemple clair de la raison.

A lire également