Google est l'un des principaux noms dans le domaine de l'intelligence artificielle. La division DeepMind de l'entreprise produit des dizaines de développements et de technologies qui finissent par trouver leur chemin dans les produits et services de base de Google. Récemment, Google Deepmind a partagé un papier de sécurité qui a mis en garde contre l'ère AGI. Cependant, des voix s'opposent aux conclusions du document.

Openai a inventé le terme AGI (Intelligence générale artificielle) il y a quelque temps. Il se réfère à des systèmes d'intelligence artificielle capables d'effectuer pratiquement toutes les tâches qu'un humain pourrait faire. Il existe des opinions très différentes entre les experts dans le domaine sur le moment où Agis arrivera. Certains sont optimistes, tandis que d'autres le sont moins.

Le papier de sécurité révèle la vision de Google Deepmind sur AGI

Selon Google Deepmind, True Agis pourrait arriver dès 2030. « [We anticipate] Le développement d'un AGI exceptionnel avant la fin de la décennie en cours », indique le document.« Un AGI exceptionnel est un système qui a une capacité correspondant au moins au 99e centile d'adultes qualifiés sur un large éventail de tâches non physiques, y compris des tâches métacognitives comme l'apprentissage de nouvelles compétences. « 

Cependant, l'entreprise ne dépeint pas cette réalité potentielle comme entièrement positive. Le document prévient que ces systèmes pourraient provoquer «dommage grave.  » Il indique également que l'arrivée de la technologie pourrait entraîner «Risques existentiels » que « détruire en permanence l'humanité. « 

L'équipe DeepMind met en évidence les différences clés entre leur approche «AGI Risk Attracte» et celle des autres. La branche de Google dit que anthropique met moins l'accent sur « Formation, surveillance et sécurité robustes.  » D'un autre côté, Openai est trop optimiste sur «automatisation«La recherche sur l'alignement, selon DeepMind. La recherche sur l'alignement est une méthode de recherche sur la sécurité de l'IA.

La superintelligence de l'IA n'est pas viable, croit l'entreprise

Les chercheurs DeepMind ont également des doutes quant à la viabilité de la «superintelligence» de l'IA, quelque chose qu'Openai a également fait référence. Le journal dit qu'il n'y a actuellement aucun «Innovation architecturale importante«Cela pointe dans cette direction. Cependant, ils voient la possibilité de«Amélioration récursive d'IA«Avec la technologie existante. C'est-à-dire une IA qui peut créer des IA plus avancées par la recherche. Cependant, DeepMind prévient que ce serait très dangereux.

« La nature transformatrice de l'AGI a le potentiel à la fois pour des avantages incroyables ainsi que de graves dommages,« Le document se lit. »En conséquence, pour construire AGI de manière responsable, il est essentiel que les développeurs d'IA frontaliers prévoient de manière proactive d'atténuer les dommages graves. « 

Il y a des experts qui ne sont pas d'accord avec DeepMind

Il y a des voix dans l'industrie qui ne sont pas d'accord avec les conclusions du rapport DeepMind. Heidy Khlaaf, scientifique en chef de l'IA de l'Institut à but non lucratif AI Now, affirme qu'il est encore trop tôt pour s'attendre à ce que le concept AGI soit «rigoureusement évalué scientifiquement.  » Matthew Guzdial, professeur adjoint à l'Université de l'Alberta, dit que l'amélioration de l'IA récursive mentionnée par Deepmind est également irréaliste.Nous n'avons jamais vu aucune preuve qu'il fonctionne», A-t-il déclaré.

Sandra Wachter – un chercheur étudiant la technologie et la réglementation à Oxford – soupçonne que la vraie préoccupation est la formation des futurs IA avec «sorties inexactes.  » Elle semble se référer à l'utilisation croissante des données synthétiques dans l'industrie.

« Avec la prolifération des sorties d'IA génératrices sur Internet et le remplacement progressif de données authentiques, les modèles apprennent maintenant de leurs propres sorties qui sont criblées de mauvais problèmes ou d'hallucinations», A-t-elle déclaré.À ce stade, les chatbots sont principalement utilisés à des fins de recherche et de vérité. Cela signifie que nous risquons constamment d'être nourris et de les croire parce qu'ils sont présentés de manière très convaincante. « 

A lire également