Depuis l’essor de l’IA en 2022, les législateurs et les décideurs politiques se sont efforcés de trouver un moyen de réglementer cette technologie et les entreprises qui la développent. Après des années de travail, l’UE a officiellement établi le premier ensemble de lois régissant réellement l’IA.
Il s'agit de la loi européenne sur l'IA, qui est en cours d'élaboration depuis un certain temps. En fait, elle est en cours d'élaboration depuis 2020. Il s'agit d'un texte législatif historique, car il pourrait donner le ton à la manière dont le reste du monde régit les entreprises d'IA.
La loi européenne sur l'IA est désormais officiellement en vigueur
Il n’est pas surprenant que l’UE soit la première à adopter de véritables lois sur l’IA. Il y a quelques mois, nous avons appris que cette loi allait entrer en vigueur. C’était un avertissement aux entreprises de se méfier des réglementations à venir. Maintenant que ces lois sont en vigueur, les entreprises qui les enfreignent pourraient faire face à des conséquences telles que de lourdes amendes.
Quelles entreprises seront concernées ?
Il n’est pas surprenant que les entreprises basées dans l’UE soient touchées. Les entreprises chargées de développer ou de former des modèles d’IA seront soumises à une surveillance rigoureuse de la part du gouvernement. Ces lois ne viseront pas seulement les entreprises technologiques, mais aussi celles qui se contentent de les déployer ou de les utiliser. Si l’IA a un impact significatif sur l’entreprise ou son produit, l’UE s’en occupera.
La portée de ces lois ne se limite pas aux entreprises opérant dans l'UE. Le fait est que les entreprises qui contrôlent le plus le secteur de l'IA sont basées aux États-Unis. Il s'agit de Google, OpenAI, Microsoft, Amazon, Meta et Apple. La loi s'intéressera particulièrement à ces entreprises, car elles sont susceptibles d'avoir le plus grand impact sur le secteur de l'IA.
« … la loi sur l’IA s’appliquera probablement à vous, peu importe où vous vous trouvez », a déclaré Charlie Thompson, vice-président senior EMEA et LATAM de la société de logiciels d’entreprise Appian. Si une entreprise est susceptible d’avoir un impact majeur sur le monde, ou si elle a des activités dans l’UE, elle sera alors scrutée.
Comment seront gouvernées les entreprises d’IA ?
L’UE va évaluer les entreprises sur la base d’un système basé sur les risques. Elles seront jugées sur la manière dont leurs produits représentent pour la société. Une petite entreprise qui crée un outil d’IA simple pour organiser votre boîte de réception sera jugée différemment d’une grande entreprise qui fournit des outils d’IA utilisés pour suivre les ouragans.
Les applications d’IA considérées comme « à haut risque » seront soumises à des réglementations beaucoup plus strictes. Les applications à haut risque comprennent les outils d’IA utilisés en médecine, dans les voitures autonomes, dans les systèmes de décision de prêt, dans l’identification biométrique à distance et dans les systèmes éducatifs, selon CNBC. Si un outil d’IA perturbe l’une de ces applications, les conséquences seraient dévastatrices pour d’innombrables personnes.
Certaines applications sont aussi tellement risquées qu'elles sont considérées comme « inacceptables » par le gouvernement. Les technologies de notation sociale, de police prédictive et de reconnaissance émotionnelle en sont un bon exemple, comme l'a indiqué CNBC.
Les applications comme celles-ci sont interdites et toute entreprise surprise à enfreindre cette interdiction devra faire face à des conséquences.
Les entreprises qui développent des applications d'IA à haut risque auront également davantage d'obligations envers l'UE. Elles devront notamment enregistrer en permanence leurs activités afin que le gouvernement ne soit pas laissé dans l'ignorance. De plus, ces entreprises devront utiliser des ensembles de données de meilleure qualité afin de réduire le risque de partialité. Les entreprises à haut risque sont également tenues de partager une documentation détaillée sur les modèles d'IA avec les autorités compétentes.
Même si l'entreprise n'est pas basée dans l'UE, elle est néanmoins tenue de respecter la législation européenne sur le droit d'auteur et de mettre en œuvre les mesures de cybersécurité appropriées. Elle devra également informer le gouvernement de la manière dont ses modèles d'IA sont formés.
L'exception pour les modèles open source
Les entreprises comme Google, OpenAI et d'autres qui développent des modèles à code source fermé seront soumises à des réglementations strictes. En revanche, les entreprises comme Meta, Stability AI et Mistral qui développent des modèles à code source ouvert ne seront pas soumises à des restrictions aussi strictes.
Les entreprises peuvent bénéficier d'exceptions à certaines règles, mais pour cela, leurs modèles devront être véritablement ouverts et transparents. Ainsi, les informations sur les modèles, comme l'architecture, les pondérations et l'utilisation des modèles, doivent être accessibles au public. Nous ne savons pas si les meilleurs modèles open source du marché respectent ces exigences.
Conséquences de la violation de la loi européenne sur l'IA
Si une entreprise enfreint ces lois, elle peut s'attendre à de lourdes amendes. Le montant de l'amende varie en fonction de la taille de l'entreprise et de l'importance de l'infraction. Si une entreprise enfreint la loi, elle peut se voir infliger une amende comprise entre 7,5 et 35 millions d'euros, soit entre 1,5 et 7 % du chiffre d'affaires mondial de l'entreprise. Ces amendes sont assez lourdes. Les petites entreprises se verront infliger des amendes moins élevées et les grandes entreprises pourraient se voir infliger l'amende complète.
Bien que ces lois aient été mises en place pour garantir que l'IA soit gérée et réglementée en toute sécurité, nous sommes convaincus que certaines de ces entreprises se heurteront à ces lois. Il faudra simplement voir si elles respecteront la loi afin que nous puissions tous avoir un avenir plus sûr pour l'IA.
L'article La loi européenne sur l'IA est désormais officielle ! est apparu en premier sur Android Headlines.
