La révolution de l'intelligence artificielle a apporté de nombreux services et outils qui facilitent votre vie quotidienne dans plusieurs domaines, que ce soit le travail, l'éducation ou le divertissement. Il a également motivé le développement de l'industrie technologique à pas de géant en peu de temps. Cependant, certains, comme Eric Schmidt, craignent les pires scénarios si l'IA tombe entre de mauvaises mains.
L'incursion de Deepseek dans l'industrie de l'IA a non seulement provoqué un impact grave sur Wall Street, en écrasant les actions de Nvidia et d'autres grands noms. Au fil des semaines, davantage d'experts et de responsables américains ont mis en garde contre les risques potentiels de la plate-forme. Ils ont principalement mentionné les menaces contre la confidentialité des données des utilisateurs et la sécurité nationale. Cela dit, les préoccupations de l'ancien PDG de Google vont beaucoup plus loin.
Eric Schmidt révèle sa plus grande peur concernant l'IA utilisée par les mauvais acteurs
Eric Schmidt a partagé son point de vue sur un sujet que beaucoup négligent souvent. « Les vraies craintes que je n'ai pas ne sont pas celles dont la plupart des gens parlent de l'IA – je parle d'un risque extrême», A-t-il dit à la BBC. La plupart des personnes qui ont exprimé des inquiétudes concernant l'utilisation de l'IA ont fait référence au risque d'utiliser des plateformes chinoises. Cependant, Schmidt envisage même le cas extrême de l'intelligence artificielle facilitant les attaques terroristes.
Il a mentionné que des pays comme «Corée du Nord, ou Iran, ou même la Russie»Pourrait profiter de la technologie de la pire façon possible. Schmidt mentionne la possibilité de «Une mauvaise attaque biologique d'une personne maléfique.»Par cela, il fait référence au développement potentiel d'armes biologiques aidées par l'intelligence artificielle. « Je suis toujours inquiet du scénario «Oussama ben Laden», où vous avez une personne vraiment mauvaise qui prend le contrôle de notre vie moderne et l'utilise pour nuire aux personnes innocentes», A-t-il ajouté.
Les plates-formes d'IA sont toujours inefficaces pour bloquer les invites nocives
Les principales plates-formes d'IA ont établi des «barrières» contre les invites nocives, notamment le blocage des sorties potentiellement dangereuses. Cependant, des tests récents de Anthropic et Cisco ont montré que les boucliers actuels sont très inefficaces. La pire plate-forme d'IA à cet égard était Deepseek, qui a marqué un taux de réussite d'attaque (ASR) de 100%. Autrement dit, il n'était pas en mesure de bloquer même les invites liées à la préoccupation de Schmidt: les armes biologiques. Plus inquiétant, des modèles comme GPT 1.5 Pro et Llama 3.1 405B ont également obtenu des taux ASR assez élevés (86% et 96%, respectivement).
L'ancien PDG de Google a déclaré qu'il prenait en charge les réglementations sur les sociétés d'IA. Cependant, il a également averti qu'une réglementation excessive pourrait affecter l'innovation dans le segment. Ainsi, il exhorte à trouver un équilibre entre le développement et la sécurité. Il a également soutenu les contrôles des exportations sur le matériel d'IA vers d'autres pays. L'ancien président Joe Biden a mis en œuvre la mesure avant de quitter ses fonctions pour essayer de ralentir les progrès des concurrents dans le domaine de l'IA. Cependant, il est toujours possible que Donald Trump puisse inverser cet ordre pour empêcher les sociétés d'IA étrangères de rechercher d'autres fournisseurs.
Pendant ce temps, Google a récemment changé le cours sur sa vision de l'IA. L'entreprise a mis à jour ses politiques en ouvrant la porte à offrir à sa technologie d'IA pour le développement d'armes et de surveillance.