OpenAI affirme travailler dur pour rendre son navigateur Atlas AI plus sûr, alors que les experts mettent en garde contre les attaques par injection rapide. Le pire, c’est qu’il est très difficile d’arrêter de telles attaques. Ils cachent des instructions nuisibles dans des e-mails ou des pages Web et incitent les agents IA à faire la mauvaise chose. Le géant de la technologie affirme que le problème ne disparaîtra pas complètement.
Les navigateurs IA risquent d’être victimes d’attaques par injection rapide
OpenAI a lancé son nouveau navigateur d’IA, le ChatGPT Atlas, en octobre de cette année. Cependant, peu après le lancement, des chercheurs en sécurité ont montré comment quelques mots cachés dans un document ou un courrier électronique pouvaient modifier le comportement du navigateur. OpenAI a également admis que le mode agent du navigateur pourrait augmenter les risques de sécurité. Cela est principalement dû au fait que l’IA peut contrôler le système au nom de l’utilisateur.
D’autres entreprises à travers le monde ont convenu que ce n’était pas uniquement le problème d’OpenAI. Brave, l’un des navigateurs les plus populaires, a également averti qu’une injection rapide pourrait affecter de nombreux navigateurs IA. D’autres géants de la technologie, comme Anthropic et Google, affirment que ces attaques constituent des problèmes à long terme. Pire encore, le Centre national de cybersécurité du Royaume-Uni affirme que les attaques par injection rapide ne pourront jamais être totalement évitées.
Le contrôle des dégâts est la seule solution à l’attaque
Le centre de recherche britannique conseille en outre aux entreprises de se concentrer sur la limitation des dégâts plutôt que d’essayer d’arrêter complètement les injections rapides. OpenAI affirme que son bouclier contre de telles attaques réside dans des tests et des mises à jour plus rapides.
Pour résoudre davantage le problème, l’entreprise a développé un modèle d’IA entraîné par apprentissage par renforcement pour agir comme un pirate informatique. Il recherche en permanence des moyens de tromper les agents IA et teste les attaques dans des simulations. Cela aide l’entreprise à corriger ou à empêcher l’attaque avant qu’un véritable attaquant puisse l’utiliser. OpenAI affirme en outre que le système a déjà signalé de nouvelles méthodes d’attaque que les testeurs humains ont manquées.
De plus, il ne s’agit pas uniquement des navigateurs et des entreprises technologiques. Le comportement des utilisateurs compte également beaucoup. Rami McCarthy, chercheur chez Wiz, explique que le risque de telles attaques augmentera encore lorsque l’IA aura plus de liberté et d’accès aux données sensibles des utilisateurs.
