Les dirigeants de plusieurs grandes entreprises technologiques rejoignent le Conseil de sûreté et de sécurité de l'intelligence artificielle du gouvernement américain. Sam Altman, PDG d'OpenAI, Satya Nadella, PDG de Microsoft, et Sundar Pichai, PDG d'Alphabet, font partie de ces leaders technologiques. Le conseil consultatif fédéral nouvellement créé se concentrera sur l’utilisation sécurisée de l’IA au sein des infrastructures critiques des États-Unis.
Le conseil d'administration de l'IA conseillera le gouvernement sur la manière de déployer l'IA en toute sécurité dans les infrastructures critiques.
Le conseil fédéral de l’IA nouvellement créé travaillera avec et conseillera le ministère de la Sécurité intérieure. Leur objectif principal sera le déploiement sûr de l’intelligence artificielle au sein des infrastructures critiques du pays. Ils créeront des systèmes de sécurité pour protéger l’économie, les soins médicaux et d’autres industries majeures de toute menace posée par l’IA. En outre, le conseil empêchera les dommages potentiels liés à l’utilisation de l’intelligence artificielle dans le réseau électrique et les transports.
Le PDG de NVIDIA, Jensen Huang, est également l'un des deux douzaines de dirigeants technologiques et commerciaux qui rejoignent le conseil fédéral de sécurité de l'IA. Le directeur général de Delta Air Line, Ed Bastian, et Kathy Warden de Northrop Grumman sont également confirmés comme faisant partie du conseil d'administration. Le Wall Street Journal rapporte que le conseil fédéral de l’IA comprendra également des universitaires et des leaders des droits civiques.
La création d’un comité fédéral de sécurité de l’IA a été annoncée par l’administration Biden l’année dernière.
La création du Conseil de sûreté et de sécurité de l’intelligence artificielle ou AISSB a été annoncée par l’administration Biden l’année dernière. Cela fait partie des efforts du gouvernement visant à protéger divers aspects des infrastructures critiques contre les menaces de l'IA. Cela oblige les créateurs des systèmes d’IA les plus puissants comme OpenAI à partager leurs résultats en matière de sécurité, outre d’autres informations critiques.
Ces entreprises sont tenues de fournir ces résultats avant que le modèle d’IA ne soit mis à la disposition du public. Cela permet de réduire la vitesse à laquelle les créateurs publient des produits d’apprentissage automatique mal préparés et potentiellement problématiques. Le journal de Wall Street ajoute que les membres du comité fédéral de sécurité de l'intelligence artificielle tiendront leur première réunion en mai. En outre, ils devraient tenir des réunions tous les trimestres de l'année.
