L'IA est en cours de développement à un rythme effréné. Chaque nouveau modèle publié est un sauts et des limites plus intelligents et plus puissants que la version précédente. À un moment donné, nous devons nous demander, développons-nous une technologie que nous ne comprenons pas pleinement pour le progrès? C'est là que le règlement entre en jeu et où Google a étonnamment convenu de signer le code de pratique de l'IA de l'UE.

Google accepte de signer, mais exprime l'inquiétude

Dans un article de blog de Kent Walker, président des affaires mondiales de Google, il dit que Google rejoindra d'autres sociétés dans la signature du code de pratique de l'IA. Cependant, malgré son accord, Walker a également exprimé sa préoccupation quant à ce que ce code signifie et son impact sur le développement de l'IA.

Selon Walker, «Nous restons préoccupés par le fait que la loi sur l'IA et le risque de ralentissement du développement et du déploiement de l'IA par l'Europe en particulier, les écarts de la loi sur les droits d'auteur de l'UE, les étapes qui ralentissent les approbations ou les exigences qui exposent les secrets commerciaux pourraient refroidir le développement et le déploiement des modèles européens, nuisant à la compétitivité de l'Europe.»

Les préoccupations de Walker ne sont pas nouvelles. Il y en a qui ne sont pas en faveur de la réglementation de l'IA, faisant valoir que cela pourrait étouffer les progrès. Certains craignent que la réglementation puisse entraîner une prise de retard sur certains pays ou régions. Cependant, certains sont naturellement préoccupés par la vitesse du développement.

Par exemple, l'augmentation des Forts profonds, les coûts énergétiques de la gestion des centres de données d'IA, et aussi comment, malgré ses progrès, l'IA se trompe toujours.

Quel est le code de pratique de l'IA?

Le code de pratique de l'IA de l'UE souhaite combler l'écart entre les entreprises opérant dans les règles de l'UE et de l'IA. Il veut encourager la transparence, où les entreprises d'IA doivent documenter leurs processus de formation. Il oblige également les entreprises à adopter des politiques qui garantissent que les données de formation proviennent légalement. Il s'agit d'éviter la violation du droit d'auteur, où, dans le passé, les entreprises et les particuliers ont trouvé leur travail utilisé dans les modèles de formation d'IA à leur insu ni à leur autorisation.

Enfin, il souhaite également appliquer la sécurité et la sécurité. Les entreprises d'IA doivent évaluer, documenter et atténuer les dommages potentiels.

Google n'est pas le seul à signer le code de pratique. D'autres sociétés d'IA, comme anthropic, ont également convenu d'être des signataires.

A lire également