L’élaboration de lois sensées régissant l’IA est l’un des défis les plus difficiles auxquels le gouvernement doit faire face. C’est une question à laquelle les organismes gouvernementaux réfléchissent encore. Eh bien, aujourd’hui, nous avons appris que l’administration Biden vient de faire un nouveau pas en avant dans cette entreprise. Le gouvernement américain a dévoilé des exigences de sécurité strictes régissant les agences fédérales utilisant des outils et des systèmes d'IA.

À l’heure actuelle, l’intelligence artificielle est l’un des sujets technologiques les plus sensibles et les plus controversés. Nous avons eu notre premier aperçu de l’IA générative en novembre 2022, et plusieurs gouvernements se sont efforcés de construire une législature autour de celle-ci. Cependant, cela a été un long processus.

Récemment, l’UE a franchi la première étape majeure en élaborant des lois couvrant l’IA, ce qui en fait le premier organisme gouvernemental à le faire. Les entreprises et les pays de l’UE doivent adopter ces lois dans les prochaines années sans subir de répercussions.

En outre, l'Office américain des brevets vient de publier une mise à jour informant le public qu'il publiera des lois solides régissant le droit d'auteur et l'IA au cours de l'année 2024. Il prévoit de publier ces lois d'ici la fin de l'année.

Le gouvernement américain a publié des exigences pour les agences fédérales utilisant l'IA

À l’heure actuelle, il est encore assez tôt pour que ces nouveaux garde-fous soient mis en place, nous nous demandons donc tous encore à quelles sortes de ramifications s’attendre. Comme pour toute réglementation gouvernementale, les agences fédérales disposent de plusieurs mois pour mettre les rouages ​​en marche. Ainsi, cet article sera mis à jour si le gouvernement américain présente d’autres exigences en matière d’IA.

Première exigence : la sécurité

Premièrement, les agences fédérales utilisant des outils d’IA doivent s’assurer que ces outils n’ont pas d’impact négatif sur les droits ou la sécurité des citoyens américains. Ainsi, l’outil ne peut pas supprimer les droits constitutionnels des citoyens américains ni potentiellement entraîner des blessures ou la mort d’un citoyen.

Quel impact un système d’IA peut-il avoir sur les droits des utilisateurs ?

Un exemple majeur en est l’utilisation de systèmes d’IA pour compromettre la vie privée de quiconque. Les agences ne sont pas autorisées à utiliser des outils d’IA pour, par exemple, collecter et vérifier des données biométriques ou faciales sur des personnes.

Un autre bon exemple serait d’éloigner les systèmes d’IA de tout ce qui concerne le vote. Nous sommes actuellement en 2024 et l’élection présidentielle américaine va bientôt démarrer. Ainsi, les agences ne peuvent pas utiliser les outils d’IA pour compter, collecter ou affecter les votes lors des scrutins.

Comment un système d’IA peut-il affecter la sécurité ?

Lorsqu'il s'agit d'impacter la sécurité, il existe des outils qui ne peuvent être utilisés dans aucune application réelle susceptible d'affecter la sécurité ou la vie des personnes. Ainsi, les agences contrôlant les réseaux électriques, les systèmes d’urgence, l’eau, les transports, les médicaments, etc. ne sont pas autorisées à utiliser les outils d’IA à des fins critiques.

À l’heure actuelle, l’IA générative est encore en développement, il existe donc de fortes chances que les systèmes d’IA échouent. Par exemple, si un système d'IA contrôlant l'approvisionnement en eau d'une ville échoue, cela pourrait avoir des effets dévastateurs sur cette ville et ses habitants.

Il y a une exception

Si une agence ou une entité souhaite utiliser des systèmes d’IA pour ces fonctions, elle devra alors mettre en place des garanties concrètes pour garantir qu’il n’y aura pas d’impact négatif. Si l’agence peut justifier correctement l’utilisation de l’outil, elle peut l’utiliser.

Quelles que soient les garanties utilisées par les agences fédérales, cela dépendra d’elles, la balle est donc dans leur camp. Cependant, ils auront jusqu’en décembre pour s’assurer que tout est en place pour que les systèmes qu’ils utilisent n’aient pas d’impact sur la sécurité ou les droits humains.

Deuxième exigence : la transparence

La deuxième de ces exigences touche à quelque chose qui inquiète le gouvernement américain et les citoyens en ce qui concerne l’IA ; transparence. Les agences concernées ne peuvent pas dissimuler des informations critiques sur les systèmes qu'elles utilisent ou sur leur impact potentiel sur les citoyens américains.

Chaque année, les agences fédérales devront « publier en ligne une liste de leurs systèmes d'IA, une évaluation des risques que ces systèmes pourraient poser et la manière dont ces risques sont gérés », a déclaré la vice-présidente américaine Kamala Harris. Cela garantira non seulement que le gouvernement sache ce que chaque entreprise utilise, mais également que les citoyens américains sachent ce que les agences utilisent.

Il existe un problème majeur avec les entreprises et les agences qui gardent leurs activités à huis clos. Les personnes dont les données entraînent les modèles d’IA doivent savoir ce que ces entités font de leurs données. Les agences devront donc être totalement transparentes sur leurs outils d’IA.

Il existe cependant une exception. Si la publication des informations met en danger la vie privée ou la sécurité d'un citoyen, l'agence n'aura pas à publier un rapport complet. Cependant, il devra quand même publier des métriques.

La troisième exigence : la compréhension de l’IA

La dernière des exigences américaines pousse les agences fédérales à avoir une connaissance et une vision appropriées de l’IA. Ainsi, chaque département devra nommer un responsable de l’IA pour superviser exactement la manière dont ces agences utilisent l’IA. Les responsables de l’IA auront une connaissance approfondie et professionnelle de l’intelligence artificielle. Cela pourrait aider le gouvernement à mieux comprendre et à atténuer les risques potentiels.

Parallèlement à cela, plusieurs agences devront également disposer de conseils de gouvernance de l’IA. Ils devront les avoir d'ici le 27 mai.

S'agit-il de lois officielles ?

Techniquement, non. Il y a quelque temps, le président des États-Unis a signé un décret pour s’adresser aux grandes entreprises et à leur utilisation de l’IA. Ces exigences développent davantage le décret et décrivent plus de détails. Toutefois, ce ne sont pas des lois officielles.

Si les agences ou entités ne respectent pas les garde-fous décrits, il reste à voir quel type de sanction elles recevront, voire pas du tout. Bien qu’il ne s’agisse pas de lois officielles, il s’agit néanmoins d’exigences émanant de la plus haute autorité du gouvernement des États-Unis, ces agences devront donc s’y conformer quoi qu’il arrive.

A lire également