Au fil du temps, l’IA s’intègre de plus en plus dans notre vie quotidienne. Que ce soit directement ou indirectement, vous bénéficiez probablement déjà de services basés sur l’IA, même si vous ne le savez pas. Les LLM ne sont pas seulement utiles aux entreprises technologiques. Tout type d’organisation peut tirer parti de cette technologie, y compris les gouvernements. Dans cette optique, le Département de la sécurité intérieure des États-Unis (DHS) exhorte le gouvernement à accélérer le développement des outils d’IA.
Le chef du DHS souhaite que le gouvernement développe des outils d'IA à égalité avec les entreprises d'IA
Les organisations gouvernementales ont déjà fait appel à l’intelligence artificielle. Les LLM sont parfaits pour rationaliser des processus qui prendraient beaucoup de temps avec des acteurs humains. Par exemple, l’État du Nevada s’appuiera sur une IA de Google pour évaluer des milliers de demandes d’allocations chômage en attente. De plus, de grandes entreprises comme OpenAI et Anthropic collaborent avec le gouvernement américain pour développer des outils d’IA. Cependant, pour Alejandro N. Mayorkas, secrétaire américain de la Sécurité intérieure, cela ne suffit pas. Il souhaite que le gouvernement rattrape les entreprises axées sur l’IA.
Marc Benioff, PDG de Salesforce, a interrogé Mayorkas sur les risques liés à l’IA. La technologie « peut évoluer dans des directions que nous ne souhaitons pas », a déclaré Benioff. Cependant, Mayorkas a une vision qui implique la création de cadres de gouvernance pour soutenir le développement continu et responsable de l’IA. Bien que le mot « responsable » puisse sembler être une restriction potentielle qui pourrait entraver l’innovation, Mayorkas affirme que ce n’est pas le cas.
Le Conseil de sécurité et de sûreté de l'IA du DHS sera la clé
Mayorkas a déclaré : « Notre objectif est de créer les conditions nécessaires à la réalisation de [AI] Le représentant souhaite établir des cadres sous l'aile du Conseil de sécurité et de sûreté de l'IA du DHS. L'objectif du conseil de l'IA est de créer une approche de développement dans laquelle chaque partie de l'écosystème de l'IA participe activement. Cela englobe non seulement les développeurs de modèles, mais aussi « le cloud computing, les entités d'infrastructure qui intégreront l'IA dans leurs opérations ».
Mayorkas ajoute que le conseil d'administration de l'IA du DHS souhaite « capturer l'ensemble de l'écosystème et lui parler avec un cadre qui définit les rôles et les responsabilités, où chacun a un rôle à jouer et chacun a des responsabilités à assumer ». Cette approche permettrait non seulement d'améliorer le développement continu des outils d'IA à l'usage du public et du gouvernement. Elle empêcherait également le développement de l'IA de « dérailler », comme Benioff l'avait initialement mis en doute.
En fin de compte, les actions du conseil de l'IA devraient « démontrer que le gouvernement peut évoluer au rythme des entreprises, que nous pouvons exploiter l'IA pour faire avancer notre mission, tout en protégeant la sûreté et la sécurité des infrastructures critiques de notre nation », a déclaré Mayorkas.
