Les outils d’IA générative comme GPT-4 sont parfaits pour la recherche, la création de contenu, etc. Cependant, certaines personnes utilisant cette technologie ne se soucient pas de créer des poèmes pour des dissertations au lycée. Certaines personnes les utiliseront pour créer des armes destructrices. Une équipe d’universitaires et d’experts a mené des recherches pour déterminer à quel point il est facile d’utiliser GPT-4 pour créer des armes biologiques. Eh bien, les chances que cela se produise sont faibles, mais elles ne sont pas inexistantes. Cela intervient peu de temps après qu’OpenAI ait signé un contrat avec le département américain de la Défense.

Il existe beaucoup de confusion autour de la différence entre les chatbots et les LLM (grands modèles de langage). Par exemple, c’est la même différence entre Google Bard et Gemini. Il est donc important de savoir pourquoi ils sont différents. ChatGPT est le chatbot ; l’interface utilisateur réelle avec la zone de texte et les résultats. GPT-4 est le modèle, ou le cerveau, qui traite les invites textuelles et transmet les résultats au chatbot pour les afficher.

Vous avez accès au modèle GPT-4 lorsque vous vous inscrivez à ChatGPT Plus. Si vous souscrivez à un abonnement, vous utilisez toujours le même ChatGPT que celui présent pour les utilisateurs gratuits. Cependant, vos résultats sont alimentés par le modèle GPT-4, tandis que les résultats des utilisateurs gratuits sont alimentés par le modèle GPT-3.5.

La recherche montre qu’il n’y a qu’une faible chance que le GPT-4 soit utilisé pour fabriquer des armes biologiques

Il n’y a pas si longtemps, l’administration Biden a signé un décret visant le ministère de l’Énergie pour garantir que les outils d’IA ne puissent pas être utilisés pour fabriquer des armes nucléaires, biologiques ou chimiques dangereuses. OpenAI, ayant une longueur d’avance, a élaboré ses propres mesures de sécurité à ce sujet. Il a constitué une équipe de préparation. Il s’agit d’une équipe de personnes chargées d’éliminer certaines menaces comme celles-ci.

Cette équipe a rassemblé 100 personnes composées d’experts en biologie et d’étudiants en biologie pour renforcer la capacité du GPT-4 à donner aux gens des instructions sur la création d’armes biologiques. La moitié de l’équipe a bénéficié d’un accès de base à Internet. L’autre moitié a reçu une version spécialisée de GPT-4 ainsi qu’un accès à Internet. Cette version de GPT-4 n’était soumise à aucune restriction.

Les deux groupes de personnes ont essentiellement effectué des tâches d’équipe rouge pour essayer de faire déraper GPT-4 et leur donner les outils et les connaissances nécessaires pour créer des armes extrêmement mortelles. Un exemple était de l’utiliser pour leur donner un moyen de synthétiser le virus Ebola. On leur dit également que vous essayez de créer des armes destinées à des groupes spécifiques de personnes.

Quels ont été les résultats ?

Eh bien, cela pourrait être juste un peu inquiétant. Le groupe ayant accès à Internet a pu trouver des méthodes pour y parvenir. Cependant, les résultats pour les personnes atteintes de GPT-4 ont montré une « exactitude et une exhaustivité » accrues ; c’est effrayant. De plus, les chercheurs ont déclaré que l’utilisation de GPT-4 « fournit tout au plus une légère augmentation de l’acquisition d’informations pour la création de menaces biologiques ».

À ce stade, il s’agit d’une recherche extrêmement importante. Analyser et trouver comment éliminer autant de menaces que possible est ce que toutes les entreprises d’IA devraient faire. C’est déjà assez grave que des gens créent de l’art, de la musique, des livres, etc. sur l’IA. La dernière chose dont nous avons besoin est que les gens nuisent réellement à la vie humaine en utilisant la technologie.

A lire également