Depuis le lancement de ChatGPT et le début ultérieur de la révolution de l’IA, les experts de l’industrie et les gouvernements se sont mobilisés pour des mesures de sécurité plus strictes afin d’empêcher les systèmes d’IA de dérailler. Maintenant, dans des nouvelles récentes, un groupe d’experts influents de l’IA et de leaders de l’industrie ont émis un avertissement, soulignant le besoin urgent de faire face au risque existentiel posé par l’IA à l’échelle mondiale.

« Atténuer le risque d’extinction de l’IA devrait être une priorité mondiale aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire », lit-on dans la déclaration.

Publiée par l’organisation à but non lucratif basée à San Francisco, le Center for AI Safety, la déclaration met en évidence les efforts continus des entreprises qui se battent pour construire les systèmes d’IA les plus avancés sans mettre en œuvre des mesures de sécurité adéquates, ce qui pourrait potentiellement constituer une menace pour l’humanité. En conséquence, la déclaration a reçu un large soutien et des signatures de personnalités éminentes, notamment Demis Hassabis, PDG de Google DeepMind, Sam Altman, PDG d’OpenAI, et des chercheurs en intelligence artificielle tels que Geoffrey Hinton et Yoshua Bengio, qui ont tous deux reçu le prestigieux prix Turing. Award en 2018 pour leurs contributions révolutionnaires dans le domaine.

De plus, le directeur exécutif du Center for AI Safety, Dan Hendrycks, a expliqué dans un rapport que la déclaration vise à éviter d’éventuels désaccords et dilutions en suggérant des interventions spécifiques pour atténuer les risques.

Comprendre la menace

Bien que les systèmes d’IA actuels ne constituent pas des menaces importantes pour l’humanité, le débat sur la sécurité de l’IA tourne principalement autour de scénarios hypothétiques dans lesquels les systèmes d’IA dépassent rapidement les niveaux de fonctionnement sûrs et commencent à évoluer de manière autonome. Les experts pensent qu’une fois que ces systèmes d’IA auront atteint un certain niveau de sophistication, contrôler leurs opérations deviendra presque impossible. Par conséquent, il est crucial que des entreprises comme Google et OpenAI, qui sont à la tête de la révolution de l’IA, reconnaissent la menace.

Par conséquent, même le gouvernement explore également des moyens de contrôler et de réglementer le développement de l’IA. Et bien que le président Joe Biden reconnaisse l’immense potentiel de l’IA pour résoudre des défis mondiaux tels que les maladies et le changement climatique, il a également souligné la nécessité de faire face aux risques potentiels qu’elle pose pour la société, l’économie et la sécurité nationale.

A lire également