Depuis que ChatGPT a été lancé pour la première fois sur le marché, les organismes gouvernementaux et les législateurs se demandent comment maîtriser la technologie de l’IA. Après plus d’un an de développement dans ce domaine, l’UE est la première entité à imposer un ensemble de règles strictes régissant la technologie de l’IA. Ces règles relèvent toutes du Loi de l’UE sur l’IA. Qu’est-ce que cette loi et qu’est-ce que cela signifie pour l’avenir de la technologie de l’IA ? Voici ce que vous devez savoir sur cet acte.
Au moment de la rédaction de cet article, la loi européenne sur l’IA venait tout juste de sortir de l’imprimerie, il reste donc encore beaucoup d’informations à découvrir. En tant que tel, cet article sera mis à jour au fur et à mesure que de plus amples informations seront publiées. Assurez-vous de revenir de temps en temps. Si vous vivez en Europe, ces lois et réglementations pourraient avoir un effet sur la façon dont vous utiliserez la technologie de l’IA à l’avenir.
Qu’est-ce que la loi européenne sur l’IA ?
Même si la loi européenne sur l’IA régira bientôt l’utilisation de l’IA générative en Europe, elle a en réalité été élaborée avant l’engouement pour l’IA générative. La loi a été conçue pour la première fois en 2021. Cette loi prendra les différents systèmes d’IA et les divisera en groupes en fonction de leur risque potentiel pour l’humanité. Par exemple, une IA conçue pour des tâches banales comme générer des cartes de rétablissement serait considérée comme présentant un risque faible. Si cette IA rencontre une erreur, les effets potentiels sont minimes. Cependant, une IA conçue pour être utilisée par de grandes entités gouvernementales serait considérée comme présentant un risque élevé. Si quelque chose ne va pas avec cette dernière IA, cela pourrait constituer une menace majeure pour des millions de personnes.
La loi interdira également certains types d’IA si elles présentent un « risque évident pour les droits fondamentaux ». Par exemple, une IA conçue pour collecter et traiter des informations biométriques serait interdite. Chaque niveau de risque aura un ensemble de règles différent. Comme vous pouvez l’imaginer, plus le niveau de risque est élevé, plus les règles sont strictes.
Les entreprises développant et formant ces systèmes devront se conformer à des obligations spécifiques de transparence envers le gouvernement. Ceci est similaire à une exigence fixée par le décret du président américain Joe Biden. L’ordonnance oblige les entreprises créant de grands modèles d’IA à signaler leurs conclusions importantes au gouvernement. L’UE pourrait avoir une approche similaire. De cette façon, le gouvernement sait ce qui se passe avec ces modèles et s’ils constituent une menace imminente pour les citoyens européens.
Quels types d’IA seront concernés ?
Au 11 mars 2024, cette législation était encore en cours de finalisation, nous ne connaissons donc pas encore toutes les informations. Cependant, d’après ce que nous savons, ces lois régiront l’utilisation des grands systèmes généraux d’IA. Cela inclura des modèles d’IA d’entreprises comme Google, xAI, Anthropic, OpenAI, Meta, ETC. Outre les modèles, il existe également des dispositions relatives aux applications et services utilisant ces modèles tels que Gemini, ChatGPT, MidJourney, etc.
Les systèmes d’IA classés comme « à haut risque » seraient utilisés dans les infrastructures critiques, l’éducation, les soins de santé, l’application de la loi, la gestion des frontières ou les élections, selon la BBC. Ce sont les domaines qui connaîtront les réglementations les plus strictes.
Donc, si vous êtes en Europe, la plupart des outils d’IA que vous utilisez seront soumis à une sorte de réglementation qui les maintiendra en conformité.
Quelles sont les conséquences d’une infraction aux lois ?
Ce type d’informations n’est peut-être pas gravé dans le marbre, mais les entreprises pourraient se voir imposer de lourdes amendes si elles enfreignent les lois. Selon le niveau de l’infraction, les grandes entreprises pourraient se voir infliger des amendes comprises entre 7,5 et 35 millions d’euros. Si l’entreprise ne parvient pas à mobiliser des millions d’euros, elle pourrait alors payer entre 1,5 % et 7 % de son chiffre d’affaires global.
Certaines entreprises bénéficieront-elles d’un traitement privilégié ?
Dans l’état actuel des choses, il semble que ce projet de loi traitera chaque entreprise et chaque modèle d’IA de la même manière. Il ne semble pas y avoir d’exception à cette règle.
Ces lois s’appliquent-elles au droit d’auteur ?
Le droit d’auteur est l’une des questions les plus pertinentes soulevées lorsqu’on parle de droit d’auteur. Plusieurs poursuites ont été lancées, alléguant que l’utilisation de données extraites d’œuvres protégées par le droit d’auteur constitue une violation du droit d’auteur. Au moment de la rédaction de cet article, le New York Times poursuit OpenAI et Microsoft pour l’utilisation de ses œuvres protégées par le droit d’auteur. Ce n’est qu’un exemple.
À l’heure actuelle, la réglementation ne semble pas aborder la question du droit d’auteur. Comme le souligne la BBC, cette loi doit encore franchir plusieurs étapes avant de devenir une loi officielle. Nous sommes donc certains que le sujet du droit d’auteur sera abordé ultérieurement.
Quand ces lois entreront-elles en vigueur ?
Au 11 mars 2024, ces lois attendent toujours d’être finalisées. Les entreprises ne sont donc pas encore liées par ces règles. Ces lois, si elles sont mises en œuvre, entreront en vigueur par étapes. Lorsqu’ils seront officiellement finalisés, ils entreront officiellement dans la législation à partir de mai de cette année, au plus tard en juin. Cependant, même si la loi sera officielle à ce moment-là, les entreprises ne seront concernées qu’au début de 2025. Les entreprises d’IA auront donc tout le temps de se préparer à la réglementation.
Lorsque les lois entreront en vigueur, il appartiendra aux pays de les faire appliquer. Ils auront six mois pour interdire les systèmes d’IA qui doivent l’être. En outre, ils auront 12 mois pour commencer à réglementer les outils d’IA à usage général comme les chatbots. De plus, ils disposeront de 36 mois complets pour réglementer les systèmes désignés comme à haut risque, selon The Verge.
Ainsi, au plus tard, nous commencerons à constater des impacts majeurs dans le paysage de l’IA au cours des prochaines années. La seule question reste de savoir si la technologie de l’IA aurait trop progressé avant ce point.
Quel impact cela aura-t-il sur l’IA dans le monde ?
Cela reste à voir. Pour l’instant, cela n’affectera que les systèmes d’IA utilisés en Europe. Espérons que d’autres entreprises suivront les traces de l’UE afin que nous ayons une sorte d’unité sur la réglementation de l’IA. Il semble toutefois que ces mesures ne concerneront que les pays de l’UE.
Comment cela affectera-t-il mon utilisation de l’IA ?
À ce stade, il ne semble pas y avoir d’effet immédiat sur votre utilisation de l’IA. Vous pourrez toujours vous connecter à ChatGPT ou Gemini et l’utiliser normalement. Alors que le gouvernement commence à s’attaquer aux entreprises d’IA, il pourrait apparemment y avoir des changements, mais nous ne nous attendons pas à ce que vous ressentiez le moindre changement.