Google est définitivement une force principale dans le boom de l'intelligence artificielle. Cela a conduit l'entreprise à faire face à des critiques liées aux aspects les plus controversés du segment. Parmi les accusations les plus récentes contre Google, les manifestants affirment que le géant de la technologie est en deçà de ses engagements de sécurité de l'IA. Des démonstrations ont eu lieu dans les bureaux de Google à Mountain View, à Londres et à New York, avec des militants appelant à une surveillance et une responsabilité plus fortes dans le développement de l'IA.
Les manifestants contre Google allèguent la sécurité des promesses de sécurité
Le cœur du message des manifestants était clair: ils croient que Google et son bras de recherche sur l'IA, Deepmind, ne maintiennent pas leurs promesses publiquement énoncées concernant le développement responsable de l'IA. Une citation frappante soulignée lors des manifestations a résumé leur frustration: «Les sociétés d'IA sont moins réglementées que les sandwichs. » Cette comparaison vive souligne une préoccupation significative concernant les progrès rapides et largement incontrôlés des puissantes technologies d'IA.
Les militants exhortent Google à hiérarchiser la sécurité sur la vitesse et le profit. Ils soutiennent que si Google s'est engagé publiquement dans les principes d'IA éthiques, ses actions ou leur absence créent une déconnexion potentielle. Les manifestants exigent plus de transparence de Google sur ses modèles d'IA. Ils souhaitent également l'établissement de mécanismes de surveillance indépendants pour garantir des directives éthiques. Fondamentalement, ils ne cherchent pas seulement des mots, mais une action efficace.
Mois après que Google a ouvert la porte à l'utilisation de l'IA pour les armes
Il y a des mois, Google a changé ses principes concernant le développement de l'IA. Maintenant, l'entreprise est disposée à travailler sur le développement d'outils qui peuvent causer des dommages: Lire: les armes. À l'époque, la société a affirmé qu'il s'agissait d'une décision nécessaire. De telles décisions ont probablement conduit aux manifestations actuelles.
Cette récente vague de protestations ne se produit pas dans le vide. Il reflète un débat mondial croissant sur la gouvernance de l'IA, la confidentialité des données et l'impact sociétal potentiel d'une puissante intelligence artificielle. Au fur et à mesure que les systèmes d'IA deviennent plus intégrés dans la vie quotidienne, les préoccupations concernant les biais, la mauvaise utilisation et les conséquences involontaires augmentent.
Google s'est historiquement positionné comme un leader dans une IA responsable. Ils partagent souvent des directives et des principes éthiques pour leur travail dans le domaine. Cependant, ces protestations suggèrent que pour un segment vocal du public et des défenseurs de l'éthique de l'IA, les déclarations publiques ne suffisent plus. Ils veulent voir des actions concrètes, vérifiables et des cadres réglementaires robustes qui tiennent les entreprises technologiques responsables de la sécurité et des implications éthiques de leurs innovations sur l'IA. La pression se construit clairement pour un examen plus approfondi sur la façon dont l'IA est développée et déployée.
