L'arrivée de Deepseek AI continue de générer du buzz et du débat dans le segment de l'intelligence artificielle. Les experts ont remis en question le coût supposément bas pour développer et former le modèle. D'autres ont soulevé des préoccupations liées à la cybersécurité et à la confidentialité des données. Le dernier rapport révèle que Deepseek est vulnérable aux attaques en utilisant des invites nocives. Cependant, il est intéressant de noter que ce n'est pas le seul chatbot IA sujet à cela.

Deepseek AI très vulnérable aux attaques rapides nuisibles, affirme Cisco

Selon un rapport de Cisco, le taux de réussite de l'attaque (ASR) du modèle AI R1 Deepseek concernant l'utilisation d'invites nuisibles est d'environ 100%. Les tests de Cisco impliquaient plus de 50 messages aléatoires conçus pour entraîner un comportement nocif. Les invites, extraites de l'ensemble de données d'harbench, couvrent jusqu'à six catégories de comportements nuisibles, parmi lesquels «sont«cybercriminalité, désinformation, activités illégales et dommages généraux. « 

Cisco souligne que Deepseek R1 n'a pas pu bloquer les invites nuisibles. Ainsi, l'équipe conclut que la plate-forme d'IA chinoise est «Très sensible au jailbreaking algorithmique et à une mauvaise utilisation potentielle.  » L'utilisation d'invites conçues pour contourner les restrictions éthiques et de sécurité sur les plates-formes d'IA est appelée «jailbreaking». Interfoo, une startup de cybersécurité de l'IA, a également déclaré la semaine dernière que les modèles Deepseek étaient vulnérables au jailbreaks.

D'autres chatbots d'IA présentent également une grande vulnérabilité au jailbreak

Cela dit, vous pourriez être surpris d'apprendre que d'autres modèles d'IA plus connus, plus connus et réputés «se vanter» également un niveau ASR alarmant. Le modèle GPT 1.5 Pro avait un ASR de 86%, tandis que le LLAMA 3.1 405B est encore plus indulgent avec un ASR d'environ 96%. Le modèle AI le plus performant à cet égard était l'aperçu O1 avec un ASR de seulement 26%.

« Notre recherche souligne le besoin urgent d'une évaluation rigoureuse de la sécurité dans le développement de l'IA pour garantir que les percées en matière d'efficacité et de raisonnement ne se font pas au prix de la sécurité», Lit le rapport de Cisco.

Ce n'est pas le seul drapeau rouge qui a émergé autour du chatbot de Deepseek. Les experts et les responsables ont mis en garde contre les politiques de traitement des données de l'entreprise. Actuellement, toutes les données des utilisateurs capturées vont aux serveurs en Chine, où les lois permettent au gouvernement local de demander l'accès quand il le souhaite. Promptfoo a également noté le niveau élevé de censure pour des invites liées à des sujets sensibles pour la Chine. De plus, la première fuite de données de Deepseek a récemment fait surface.

A lire également