Deepseek est la plus grande histoire de l'IA depuis que Chatgpt a frappé le marché. Il est apparu à partir du bleu et a battu les meilleurs modèles d'IA sur le marché à une fraction du coût. Cependant, il est surtout connu pour les controverses qui s'accumulent. Ajoutant une autre controverse à la pile, il semble que Microsoft enquête sur Deepseek.

En quelques jours seulement, Deepseek est passé d'une étoile croissante à une question de sécurité et de sécurité croissante. Selon un récent rapport, Deepseek R1 est un modèle assez dangereux, car il est facile de tromper dans la production de contenu nocif. Les gens peuvent le faire pour leur dire comment construire certaines armes, préparer des substances toxiques, développer des logiciels malveillants, etc.

Parallèlement à cela, sa présence a provoqué un accident massif de près de milliards de dollars en bourse pour les sociétés d'IA. Nvidia à elle seule a presque perdu 600 milliards de dollars en une seule journée. Il y a d'autres controverses et informations sur ce chatbot. Assurez-vous de consulter notre article sur tout ce que vous devez savoir sur Deepseek.

Microsoft enquête sur Deepseek

Ce n'était qu'une question de temps avant que d'autres sociétés d'IA ne prennent note de Deepseek. Microsoft a une raison d'être un peu contrarié par ce nouveau venu. C'était l'une des 10 meilleures sociétés à perdre de la valeur en bourse en raison de l'accident. Il a perdu 72,2 milliards de dollars en bourse.

Cependant, ce n'est pas la raison pour laquelle Microsoft enquête sur Deepseek. Selon le rapport, Microsoft a remarqué une grande extraction des données des systèmes d'Openai. En y regardant plus profondément, la société a souligné qu'un groupe avait peut-être volé une tonne des données de l'entreprise via l'API d'Openai. Microsoft a conclu que les personnes responsables de cela sont peut-être liées à Deepseek.

Prétendument, le groupe a distillé les données de Chatgpt dans le modèle de Deepseek. Ce processus, appelé distillation, est lorsque quelqu'un prend la sortie d'un modèle AI et l'utilise pour en former un autre. Il semble donc que ce groupe ait pris les sorties de Chatgpt pour former Deepseek R1. Ce processus semble assez ombragé, et il supplie des problèmes, car le modèle est nourri de données qui sont peut-être inexactes.

À ce stade, il y a encore une tonne d'informations que nous ne connaissons pas. Aucune entreprise impliquée (Microsoft, Openai, Deepseek, High-Flyer) n'a encore commenté l'épreuve. Cependant, s'il s'avère que Deepseek a volé les données, alors cela pourrait être difficile à avancer.

A lire également