Réglementation, réglementation, réglementation! C’est le mot qui circule depuis des mois autour du sujet de l’IA, et nous attendons toujours que le gouvernement se manifeste et commence à établir des règles. Eh bien, selon un nouveau rapport, la Maison Blanche commence à sévir contre l’IA et à jeter les bases d’une réglementation.

À l’heure actuelle, les grandes sociétés d’IA détiennent entre leurs mains un pouvoir considérable, car elles développent des technologies qui peuvent avoir un impact important sur l’industrie technologique. Depuis l’explosion de l’IA générative, les organismes gouvernementaux tentent de trouver des moyens de garantir la sécurité de l’IA. Même si nous aimons Google, Microsoft et d’autres sociétés, nous ne faisons pas confiance à ces entreprises à but lucratif pour être véritablement responsables en matière d’IA. C’est pourquoi la réglementation est désormais la clé du jeu.

La Maison Blanche introduit des règles pour réglementer l’IA

Lundi, l’administration Biden a dévoilé un nouveau décret visant à réglementer les sociétés d’IA développant la prochaine génération d’IA. Ce décret « défend les consommateurs et les travailleurs, promeut l’innovation et la concurrence, fait progresser le leadership américain dans le monde et, comme tous les décrets, celui-ci a force de loi », a déclaré un haut responsable de l’administration.

Le fait est que l’IA pourrait avoir un impact majeur sur les consommateurs, la sécurité nationale ainsi que la santé et le bien-être de millions, voire de milliards de personnes. Cet ordre constituera le premier ensemble de règles et de lignes directrices pour garantir que l’IA ne devienne pas incontrôlable. Celles-ci sont un peu vagues, car nous avons tous encore une idée de ce que l’IA peut faire et des types de précautions que nous devrions mettre en place.

Qu’est-ce que l’EO attend des entreprises ?

Voyons donc ce que cette ordonnance obligera ces entreprises à faire.

Rapport au gouvernement fédéral

Ainsi, pour ces grandes entreprises, si leurs modèles ont le potentiel d’avoir un impact sur la sécurité nationale, la sécurité économique nationale ou la sécurité et la santé publiques nationales (ce qui est très probablement le cas), elles doivent en informer le gouvernement fédéral avant de les former. Cela donne au gouvernement une idée de ce que fait l’entreprise.

Partager les données de l’équipe rouge

Ensuite, ils doivent partager tous leurs résultats de tests avec l’équipe rouge. Si vous ne savez pas ce que sont les équipes rouges, il s’agit essentiellement d’équipes de personnes chargées de faire dire aux chatbots IA des choses nuisibles ou offensantes. Ils obligent les chatbots à dire ces choses afin qu’ils sachent où s’améliorer.

Le gouvernement fédéral voudra garder un œil sur les types de réponses nuisibles que ces chatbots peuvent donner. De cette façon, nous pouvons avoir une meilleure idée de la gravité de leurs réponses.

Partager des séances d’entraînement

En outre, les entreprises devraient partager les formations pour leurs LLM. Cela donnera au gouvernement fédéral un calendrier montrant la progression des tests au fil du temps. Le déroulement de la formation donnera aux responsables gouvernementaux une idée de la manière dont la formation a progressé.

Comme vous pouvez l’imaginer, si le gouvernement n’aime pas les résultats ou ce sur quoi il forme son IA, alors il prendra des mesures. Tout cela est nécessaire avant que l’entreprise ne mette le modèle d’IA à la disposition du public. Si le modèle d’IA présente un potentiel dangereux et qu’il est rendu public, il n’y a pas de retour en arrière possible.

Quelles sont les exceptions ?

Ce décret vise un large spectre de technologies d’IA, mais il a des limites. Il pointe vers majeur Entreprises d’IA ; les entreprises dont les modèles d’IA ont le potentiel d’avoir un impact sur la sécurité nationale ou la sécurité économique. Nous parlons de modèles valant plusieurs millions ou plusieurs milliards de dollars et ayant la plus grande portée.

Il s’agit notamment de produits comme OpenAI, Google, Meta, Anthropic, etc. Les petits modèles et les start-ups sont pour le moment exemptés de la commande. « Cela ne permettra pas d’attraper les systèmes d’IA formés par des étudiants diplômés, ni même par des professeurs », a déclaré un responsable de l’administration. Donc, si vous commencez dès maintenant à faire un LLM dans votre sous-sol, vous ne serez pas soumis aux règles.

De plus, elles ne s’étendent pas aux produits actuellement sur le marché. Cela signifie que les principaux produits comme Bing AI, ChatGPT, Bard (le jury est sur Gemini), Snapchat My AI et d’autres ne sont pas soumis aux règles. Cependant, les futurs modèles d’IA d’une capacité de 10 ^ 26 pétaflops sont soumis aux règles.

L’EO ne cible pas seulement les entreprises d’IA

Ce décret vise à ne rien laisser au hasard. L’ordre est adressé au ministère de l’Énergie et de la Sécurité intérieure. Ce département est incité à faire face aux menaces potentielles pesant sur « les infrastructures critiques, ainsi que les risques chimiques, biologiques, radiologiques, nucléaires et de cybersécurité ». Cela montre à quel point l’influence de l’IA pourrait aller.

Nous ne savons pas comment le ministère compte gérer ces risques, mais il est extrêmement important qu’il le fasse. L’IA est utilisée pour des applications commerciales et il ne fait aucun doute qu’elle pourrait être utilisée dans les industries gouvernementales dans un avenir proche. Nous devons nous assurer que cela ne posera pas de problèmes majeurs.

La cyber-sécurité

En ce qui concerne la cybersécurité, l’ordonnance vise à créer un programme de cybersécurité qui utilisera l’IA pour détecter et éliminer de manière autonome les menaces de cybersécurité.

Cela pourrait constituer un atout majeur pour la cybersécurité, mais les résultats potentiels restent à voir. Ceci exprime seulement l’intention de réaliser le programme. Nous ne savons pas quand le programme verra le jour ni qui y participera. Cet EO est encore nouveau, donc rien n’est vraiment gravé dans le marbre.

Filigrane

Ce prochain sujet touche un front plus personnel. Il est de plus en plus difficile de savoir si le contenu que vous voyez sur Internet est créé par l’homme ou généré par l’IA. Aux débuts de DALL-E, c’était aussi simple que les nez étranges sur les visages générés par l’IA. Maintenant, cela devient impossible à distinguer.

Il est assez facile pour les gens de créer du contenu falsifié et trompeur et de tromper les masses. Cela atteint son paroxysme en période électorale.

C’est pourquoi l’EO s’intéresse à la création d’un système de filigrane afin que les gens sachent que le contenu généré par l’IA est bien généré par l’IA.

Bien que ce soit le cas, l’ordonnance n’indiquait aucun plan ou méthode spécifique pour créer le système. En gros, il dit simplement que c’est une préoccupation du gouvernement. Nous devrons attendre plus d’informations à ce sujet.

Droits civiques

Un autre sujet brûlant de l’IA concerne la discrimination. C’est un problème majeur avec l’IA. Aussi intelligents que soient les LLM, ils n’ont pas de boussole morale. Ils sont formés aux informations diffusées sur Internet et à toutes les informations biaisées qui les accompagnent. Cela signifie que les modèles d’IA pourraient, par inadvertance, être biaisés au détriment de certains groupes de personnes. Si tel est le cas, ce biais se traduira par toutes les applications pour lesquelles l’IA est utilisée.

L’EO vise à lutter contre cela en s’étendant aux « propriétaires, aux programmes de prestations fédéraux et aux entrepreneurs fédéraux ». Ce sont tous des domaines dans lesquels la discrimination raciale et autres formes de discrimination ont une influence majeure. Supposons que vous soyez propriétaire et que vous utilisez l’IA pour examiner les candidatures de locataires prometteurs. Eh bien, si l’IA est formée sur des informations biaisées concernant les Afro-Américains, elle rejettera automatiquement les personnes de couleur et les laissera de côté, même si elles sont parfaitement qualifiées.

Cela inclut également « l’utilisation de l’IA dans la détermination de la peine, la libération conditionnelle et la probation, la libération conditionnelle et la détention provisoire, l’évaluation des risques, la surveillance, la prévision de la criminalité et la police prédictive, ainsi que l’analyse médico-légale ». Ce sont des domaines qui nécessitent une influence humaine et non des données alimentées par des algorithmes. Cette initiative garantira que l’IA n’entraînera pas de poursuites illégales ou de discrimination.

Confidentialité

L’EO a également abordé le sujet très important de la vie privée. Celui-ci est également assez vague, car il en est encore à ses débuts. Ce que nous savons, c’est que cela nécessitera de donner la priorité aux méthodes de collecte de données qui ne mettent pas en danger les informations des utilisateurs. Les LLM ne sont que des réservoirs d’informations monumentaux qui ne demandent qu’à être divulgués.

Cette ordonnance s’efforcera d’assurer une meilleure sécurité des données personnelles. Il n’existe aucun plan solide accessible au public. Tout comme les autres parties de cette ordonnance, nous n’avons que des informations sur l’intention. Ce que nous savons, c’est que les solutions peuvent inclure « des outils cryptographiques qui préservent la vie privée des individus ».

Droits des travailleurs

C’est le domaine de l’IA qui nous touche le plus. Nous connaissons depuis longtemps la peur d’être licenciés de notre emploi lorsque la technologie nous rend obsolètes. Bien. L’IA s’est avérée extrêmement capable de remplacer l’être humain dans plusieurs tâches.

C’est un problème auquel l’EO entend s’attaquer. Cela apportera «l’élaboration de principes et de meilleures pratiques pour les employeurs qui atténuent les méfaits et maximisent les avantages de l’IA pour les travailleurs,» raconte un responsable administratif. Ces lignes directrices viseront à empêcher les emplois dans différents secteurs de licencier une grande partie de leur personnel au lieu de la technologie de l’IA. Cela contribuera également à protéger les postes de niveau supérieur et de direction contre l’automatisation grâce à l’IA.

Ce n’est que la première étape

À l’heure actuelle, ces mesures ne peuvent pas être considérées comme des réglementations ou des lois. Même aujourd’hui, près d’un an après l’arrivée de ChatGPT sur le marché, nous commençons tout juste à réaliser le potentiel de la technologie de l’IA, qu’il soit bon ou mauvais. Il est donc difficile de vraiment dire ce que les entreprises d’IA peuvent et ne peuvent pas faire.

Cependant, cet EO constitue la première étape vers la création d’un règlement que les entreprises doivent suivre. Au fil du temps, de nouvelles règles et réglementations seront publiées. Il ne nous reste plus qu’à attendre.

A lire également