L'Amérique est confrontée à une crise dans la réglementation de l'IA. L'IA n'a pas glissé tranquillement dans nos vies – elle a éclaté par la porte. Lorsque le Chatgpt d'Openai est devenu public, il a ouvert les vannes. Soudain, des dizaines d'outils d'IA puissants étaient disponibles pour toute personne ayant une connexion Internet. Vous pouvez les utiliser pour écrire, coder, générer de l'art ou tourner de fausses vidéos qui sont presque indiscernables de la réalité.
Mais avec ce pouvoir est venu le chaos. Deepfakes en erreur en erreur le public, tandis que les utilisations bien intentionnées de l'IA peuvent se retourner contre les conséquences réelles. En 2023, les étudiants de Texas A&M University-Commerce ont été menacés de notes défaillantes. C'était après qu'un instructeur ait utilisé Chatgpt pour «détecter» la tricherie, pour se faire tort lorsque les étudiants ont produit des horodatages Google Docs comme preuve.
Alon Yamin, le PDG de Copyleaks, le comprend trop bien. «Lorsque les détecteurs d'IA sont utilisés dans l'éducation sans explication ou contexte approprié, cela peut entraîner de fausses accusations et un stress excessif pour les étudiants.»
Alors que l'IA se dirige vers les salles de classe, les lieux de travail et tous les coins de la vie quotidienne, la réglementation est plus importante que jamais. Cependant, l'Amérique est maintenant au bord d'une interdiction de dix ans sur les règles de l'IA au niveau de l'État. Certains experts avertissent que cette décision pourrait laisser des millions de personnes non protégées pendant que la technologie se déroule à venir.
Moratoire de réglementation de l'IA américaine
La régulation de la nouvelle technologie n'est pas un nouveau défi. Prenez des drones, par exemple. Avant que les drones de catégorie de consommation ne décollaient, il n'y avait pratiquement aucune règle sur l'endroit ou comment ils pouvaient être volés. Mais à mesure que les incidents montaient – les gens volant dans l'espace aérien restreint ou l'espionnage des voisins – la FAA est intervenue. L'organisation gouvernementale nécessite désormais un enregistrement de drones tout en fixant des limites claires. C'est un excellent exemple de la façon dont les gouvernements réagissent à la technologie rapide.
Avec l'IA, le rythme est plus rapide que jamais, mais la réglementation a eu du mal à suivre. Même lorsque les systèmes d'IA se rendent dans nos vies, la réponse du gouvernement a pris du retard. Maintenant, au lieu de courir pour rattraper son retard, les législateurs peuvent se freiner.
Enterré dans le balayage du président Donald Trump, «Big and Beautiful Bill» est une disposition qui interdirait aux États et aux gouvernements locaux de promulguer ou d'appliquer des réglementations sur l'IA pendant une décennie complète. S'il est adopté, cela congelerait les efforts dirigés par l'État pour lutter contre les risques de l'IA et remettre tout pouvoir réglementaire à Washington. Les règles de l'État sur tout, des Fabrières profondes dans les élections à l'IA, dans l'embauche, le logement et l'éducation, seraient mis en veilleuse.
Les partisans du moratoire comprennent certains des plus grands noms de la Silicon Valley. Ils soutiennent qu'un «patchwork» de lois des États créerait des maux de tête pour les entreprises technologiques. Ils soutiennent également que cela pourrait ralentir l'innovation et menacer l'exemple de l'Amérique sur les rivaux mondiaux comme la Chine.
Le sénateur Bernie Moreno, un républicain de l'Ohio, a déclaré au Congrès, « L'IA ne comprend pas les frontières de l'État, il est donc extrêmement important que le gouvernement fédéral soit celui qui établit le commerce interétatique. Vous ne pouvez pas avoir un patchwork de 50 États. » Le président de Microsoft, Brad Smith, a également fait écho à la nécessité de «donner le temps du pays» pour permettre aux législateurs fédéraux de définir les règles.
Pourquoi le moratoire pourrait être un problème
Les critiques de l'interdiction avertissent que cette approche est dangereuse. Plus de 260 législateurs de l'État des 50 États ont signé une lettre s'opposant à l'interdiction, faisant valoir qu'elle se lierait les mains. Ils soulignent que les États ont souvent agi plus rapidement et plus agile que le Congrès. De plus, de nombreuses lois existantes, comme l'étiquetage DeepFake avant les élections ou les exigences de confidentialité des données, pourraient être anéanties.
Le procureur général de Caroline du Sud, Alan Wilson, ne conteste pas le pouvoir et le potentiel de l'IA. Cependant, il n'est pas fan de l'interdiction des États de faire leur propre réglementation sur l'IA. «L'IA apporte une vraie promesse, mais aussi un vrai danger, et la Caroline du Sud a fait le travail acharné pour protéger nos citoyens. Maintenant, au lieu de se présenter à de vraies solutions, le Congrès veut nous attacher les mains et pousser un mandat unique de Washington.
Dario Amodei, PDG d'Anthropic, écrit dans un article d'opinion du New York Times qui, «L'IA avance trop rapidement la tête. Je crois que ces systèmes pourraient changer le monde, fondamentalement, dans les deux ans; dans 10 ans, tous les paris sont désactivés. Sans un plan clair pour une réponse fédérale, un moratoire nous donnerait le pire des deux mondes – aucune capacité pour les États d'agir, et aucune politique nationale en arrière.»
Les risques d'attendre la réglementation fédérale sur l'IA
Les débats sur la réglementation de l'IA en Amérique peuvent se sentir abstraits, mais pour beaucoup de gens, l'attente n'est pas une option. L'affaire Texas A&M n'est pas le seul exemple où les utilisations bien intentionnées de l'IA se sont retournées avec des conséquences réelles.
Considérez l'expérience d'Amazon avec un outil de recrutement propulsé par l'IA en 2018. La société espérait accélérer l'embauche. Cependant, le système «a appris» d'une décennie de curriculum vitae pour la plupart masculins, il a donc appris à pénaliser les demandes qui mentionnaient les collèges féminins ou les réalisations comme «Women's Chess Club Captain». Au lieu de fixer le biais, l'IA l'a silencieusement amplifié. Amazon a annulé le projet, mais seulement après de vraies préjudices.
Les risques vont au-delà de l'embauche. Lorsque Detroit a déployé la reconnaissance faciale alimentée par AI, la technologie a conduit à plusieurs fausses arrestations, y compris des cas où des innocents ont été emprisonnés en fonction uniquement du match d'une machine.
Comme le dit le PDG de Copyleaks, «Ma plus grande préoccupation est la normalisation des systèmes d'IA opaques et incontrôlés qui prennent des décisions qui ont un impact sur la vie des gens, en particulier dans l'éducation, l'emploi et l'accès aux services. Si nous ne privilégions pas la transparence, l'équité et la surveillance maintenant, nous risquons d'intégrer les préjugés systémiques et la désinformation dans les outils qui évoluent à l'échelle mondiale.»
Qu'est-ce qui est en jeu si les États ne peuvent pas agir seuls?
Les États ne se sont pas contentés de s'asseoir sur leurs mains pendant que l'IA se précipitait. Partout au pays, les législateurs locaux sont intervenus pour combler le vide réglementaire, adoptant certaines des premières lois au monde pour lutter contre les nouveaux risques de l'IA.
Dans le Dakota du Sud, les législateurs ont récemment adopté un projet de loi exigeant des étiquettes sur les profondeurs politiques à l'approche des élections. Il aide à protéger les électeurs contre les induits en erreur en convaincant de fausses vidéos et des clips audio.
La loi sur la vie privée de la Californie, la CCPA, établit des normes nationales sur la façon dont les entreprises collectent et utilisent des données personnelles, y compris les données utilisées pour former des systèmes d'IA. À New York, les nouvelles règles nécessitent la transparence des entreprises qui utilisent l'IA pour filtrer les candidats à l'emploi. L'objectif est d'éliminer les préjugés et de donner aux candidats rejeté un coup de feu équitable aux réponses.
Ces efforts peuvent ne pas être parfaits, mais ils montrent comment les États peuvent se déplacer plus rapidement et plus flexiblement que le Congrès. Comme l'a dit la sénatrice de l'État du Dakota du Sud, Liz Larson, «Je pouvais comprendre un moratoire, potentiellement, s'il y avait une meilleure alternative qui était offerte au niveau fédéral. Mais il n'y en a pas. C'est irritant. Et s'ils ne le feront pas, alors nous devons le faire.»
Le PDG de Copyleaks pense qu'une approche intermédiaire pourrait être la meilleure. «Une approche hybride, où le gouvernement fédéral établit une solide référence et que les États ont de la place pour s'adapter ou diriger dans des domaines spécifiques, permettrait à la fois l'innovation et la responsabilité.»
Conclusion
L'Amérique se tient à un carrefour à l'ère de l'intelligence artificielle. Le débat sur qui devrait rédiger les règles – Washington ou les États – n'est pas seulement une lutte contre les technicités légales. Il s'agit de la rapidité avec laquelle nous pouvons répondre à la technologie qui façonne déjà des vies et des emplois.
Si le moratoire de dix ans sur la réglementation de l'IA au niveau de l'État devient de la loi, ce ne sera pas seulement un retard – ce sera un pari que l'action fédérale arrivera dans le temps et aura suffisamment d'impact pour faire la différence. Comme nous l'avons vu avec Deepfakes, des algorithmes d'embauche biaisés et des arrestations injustifiées, attendre une solution unique peut laisser de vraies personnes exposées à un vrai mal.
Nous ne devrions pas avoir à compter sur des promesses volontaires ou à attendre que le Congrès se rattrape alors que le rythme de l'IA accélère. L'Amérique a besoin d'une approche plus intelligente et plus agile en ce qui concerne la réglementation de l'IA. Celui qui permet aux États de continuer à innover et à protéger leurs résidents, tout en travaillant vers des normes nationales fortes et claires.
