Il existe des dangers associés aux modèles d’IA, et cette faille de sécurité de Google Bard en met en évidence certains. Le défaut que possède Bard permet à certains mauvais acteurs d’être un peu plus créatifs lors du phishing. Cela semble effrayant, mais quelques experts en cybersécurité ont déjà mis la faille à l’épreuve et les résultats sont choquants.

Avec les grandes entreprises technologiques qui naviguent dans l’industrie de l’IA, il y a un problème de sécurité constant. Comment ces entreprises forment-elles leurs modèles d’IA et quel type d’informations peut-on obtenir d’elles ? Ces outils ne sont-ils qu’une autre fenêtre par laquelle les escrocs et les mauvais acteurs peuvent obtenir les informations dont ils ont besoin pour attaquer d’autres personnes ?

Les préoccupations concernant l’IA augmentent rapidement et il est important que les principaux concurrents de l’industrie se penchent dessus. Des entreprises comme OpenAI, les fondateurs de ChatGPT, entraînent leur modèle d’IA pour éviter certaines demandes des utilisateurs. Google, de son côté, est un peu lent à former son modèle d’IA pour comprendre et éviter certaines demandes.

Cette faille de sécurité de Google Bard est une véritable source d’inquiétude et doit être corrigée

L’équipe de recherche sur la cybersécurité de Check Point a découvert une faille dans le modèle Google AI. Cette recherche était une comparaison entre Barde Google et ChatGPT. Il visait à découvrir comment Bard se comparait à ChatGPT en termes de sécurité.

Avec ce test en place, l’équipe était à l’affût de la façon dont ces modèles d’IA réagissent à certaines demandes. Avant la recherche, l’équipe savait que ChatGPT dispose d’une protection de sécurité contre des réponses spécifiques. Mais ils n’étaient pas si sûrs que Google Bard avait mis en place quelque chose de similaire.

L’équipe a demandé à Google Bard de produire des e-mails de phishing et quelques autres données malveillantes. Demander directement au modèle d’IA cette question n’a donné aucune réponse, mais la reformuler leur a donné beaucoup de réponses. ChatGPT, d’autre part, a marqué la même demande comme étant illégale, ne donnant donc aucune réponse.

Barde de Google donner des e-mails de phishing, des enregistreurs de frappe de logiciels malveillants et certains codes de ransomware de base est préoccupant. Les escrocs et les mauvais acteurs pourraient utiliser ses services pour commettre des cybercrimes. Avec cet outil accessible à tous, il ne faudra pas longtemps avant que de mauvais acteurs commencent à l’utiliser pour constituer une menace sur Internet.

Google doit s’asseoir et examiner comment il empêche les utilisateurs de Bard d’abuser de ses services. Il y a de bonnes choses que les modèles d’IA génératives peuvent faire, mais ils peuvent aussi être utilisés pour de mauvaises raisons. Armer les mauvais acteurs avec des outils d’IA génératifs sans restriction ne fera que nuire aux utilisateurs innocents d’Internet.

A lire également