Résumé: YouTube a annoncé son soutien à la «loi No Fakes». Il s'agit d'une poussée pour une législation qui apportera des règles pour l'utilisation de la ressemblance générée par les personnes en ligne. Cet acte a été introduit en 2023 et 2024, mais a repris.
Il y a un très gros problème qui se prépare dans le monde de l'IA en ce moment. L'explosion de l'IA a rendu les fesses profondes beaucoup plus efficaces et accessibles. Cela signifie qu'il est assez facile de créer une vidéo de quelqu'un qui fait et dit quelque chose qu'il n'a pas fait. Ainsi, la fraude et la désinformation peuvent être répandues,
Nous en avons déjà vu quelques exemples. Eh bien, deux sénateurs, Chris Coons et Marsha Blackburn, ont conçu le Nourrir les originaux, favoriser l'art et garder le divertissement en sécurité (Pas de faux) Act. Initialement proposé en 2023, cet acte vise à faire ce que son nom (à la fois abrégé et non abrégé) suggère. Ils veulent favoriser l'art et la créativité dans notre monde d'IA.
Le projet de loi a fait face à une certaine opposition au fil des ans. Cependant, cela n'empêche pas d'autres entités de le soutenir, comme SAG-Aftra et la Recording Industry Association.
YouTube a annoncé son soutien à la loi No Fakes
YouTube est la plus grande plate-forme de partage vidéo longue du monde. En tant que tel, le dicton «Avec un grand pouvoir vient une grande responsabilité«Entre en jeu. Les plateformes peuvent accueillir des vidéos DeepFake, et il faut une vidéo virale pour mettre fin à la carrière de quelqu'un.
Ainsi, la responsabilité de contenir cela tombe entre les mains de l'entreprise. C'est pourquoi il est génial de savoir qu'il soutient le projet de loi. Dans son annonce, a déclaré la société, «Alors que l'IA continue d'évoluer, nous nous engageons à nous assurer qu'il est utilisé de manière responsable, surtout lorsqu'il s'agit de protéger les créateurs et les téléspectateurs.»
Selon une révision de l'acte de l'année dernière, une plate-forme qui stocke du matériel profond (comme YouTube et d'autres plates-formes de partage de vidéos) ne sera pas jugée responsable si elle supprime du matériel profond à la demande. Donc, si quelqu'un génère une vidéo de vous donnant un coup de pied à un pingouin, YouTube ne sera probablement pas tenu responsable à moins qu'il ne rejette votre demande de le faire retirer.
Parmi la déclaration de YouTube, la société a également annoncé qu'elle élargit le pilote de sa «technologie de gestion de la ressemblance». Il s'agit d'un programme qui permettra aux créateurs de détecter quand quelqu'un en fait unfake Deep et le fera retirer. Le programme compte désormais de nouveaux membres, dont MRBEast, Mark Rober, Marques Brownlee (MKBHD) et plus encore.
