Nous avons entendu parler de la façon dont l'IA pourrait potentiellement remplacer nos emplois un jour. Nous voyons déjà comment l'IA a remplacé les rôles des écrivains et des graphistes. Mais que se passe-t-il si l'IA pouvait remplacer les chasseurs de bogues? Il s'avère que cela peut. Selon Google, son Hunter Big Sleep AI Big Sleep a signalé ses premières vulnérabilités.

Google AI Bugter Hunter trouve des vulnérabilités

C'est selon Heather Adkins, le vice-président de la sécurité de Google, qui a partagé les nouvelles dans un article sur X. Pour ces Big Sleep inconnus, Big Sleep est un chasseur de bogues AI basé sur Google LLM. Il a été développé par le département DeepMind de Google ainsi que les pirates de projets Zero, une autre division de Google dédiée à la recherche de défauts de sécurité et de vulnérabilités.

Cela étant dit, nous ne savons pas à quel point ces vulnérabilités ont une importance ou à quel point elles sont graves. En effet, les vulnérabilités n'ont pas encore été corrigées. C'est une pratique standard, même chez Project Zero, où Google offre aux entreprises une période de grâce pour résoudre les problèmes avant de le signaler publiquement.

Cependant, le point à retenir ici est le fait que l'IA a réussi à trouver ces vulnérabilités. S'adressant à TechCrunch, le porte-parole de Google, Kimberly Samra, a déclaré: «Pour assurer des rapports de haute qualité et exploitables, nous avons un expert humain dans la boucle avant de signaler, mais chaque vulnérabilité a été trouvée et reproduite par l'agent d'IA sans intervention humaine.»

Prendre le bien avec le mal

Il est évident qu'avoir une IA capable de découvrir des défauts et des vulnérabilités de sécurité est une bonne chose. L'IA ne dort pas, contrairement aux humains. Cela signifie qu'il peut constamment être à la recherche de défauts avant de devenir un problème. Cela étant dit, le grand sommeil de Google n'est pas le premier du genre. Il existe d'autres outils d'IA comme Runsybil et XBow.

En fait, XBow a fait la une des journaux lorsqu'il a atteint le sommet des classements américains au programme Boug Bounty Hackerone. Mais avant de nous exciter trop, il y a encore beaucoup de plis qui doivent être élaborés. Il y a eu plusieurs rapports où l'IA a signalé des bogues qui se sont avérés être des hallucinations.

Les hallucinations sont un problème d'IA connu, où l'IA invente simplement quelque chose. Nous l'avons vu se produire lorsque vous lui demandez de fournir des informations et qu'il tire quelque chose de complètement fait de l'air mince. Selon Vlad Ionescu, co-fondateur et directeur de la technologie chez Rainsybil, il a déclaré à TechCrunch: « C'est le problème que les gens rencontrent, c'est que nous obtenons beaucoup de choses qui ressemblent à de l'or, mais c'est en fait juste de la merde. »

A lire également