Résumé: Google a ajouté de nouveaux agents d'IA dans le système de sécurité unifié de son cloud pour les entreprises qui maintiennent les pirates et les menaces potentielles à distance. Google a conçu ces agents pour compléter les experts en cybersécurité, pour ne pas prendre leur place. Les agents peuvent générer des rapports sur les alertes de sécurité potentielles et même déterminer si un code est sécurisé ou dangereux.

Google a récemment organisé son prochain événement Cloud 25, au cours de laquelle il a dévoilé ses progrès et ses nouvelles solutions pour les entreprises. Comme prévu, l'intelligence artificielle est présente dans chaque nouveau produit de l'entreprise. Google a élargi son portefeuille d '«agents d'IA» pour les entreprises, en se concentrant cette fois sur l'offre d'un système de sécurité unifié pour répondre aux menaces potentielles.

Les cybercriminels ciblent constamment les entreprises, en particulier les grandes entreprises. La violation des données de ces organisations peut entraîner de grosses sommes d'argent. Il peut également présenter un risque grave pour la vie privée des employés, des utilisateurs ou des clients de l'entreprise compromis. C'est pourquoi le secteur de la cybersécurité est en plein essor. À l'ère de l'IA, il est naturel que cette technologie aide les experts à travailler plus efficacement pour détecter et prévenir les menaces potentielles.

Le système de sécurité unifié de Google Cloud obtient de nouveaux agents d'IA

C'est ce que Google propose avec ses derniers agents d'IA. Ils ne sont pas destinés à remplacer les analystes actuels de cybersécurité. L'approche de Google implique un travail collaboratif entre eux et les agents de l'IA. Les experts peuvent déléguer des tâches à ces «êtres numériques», ce qui permet de gagner du temps et de leur permettre de se concentrer sur des tâches plus complexes.

Par exemple, il existe un agent toujours sur une analyse de contexte pour chaque alerte de sécurité. L'agent est en mesure de recueillir toutes les informations pertinentes liées à la menace. Il peut également rendre un verdict sur la nature de la menace potentielle. Les analystes recevront le rapport et prendront la décision finale sur la façon d'agir. Cela facilite considérablement un processus où les experts humains devaient auparavant mener des enquêtes, les classer et les analyser. Lorsqu'il y a des dizaines (ou des centaines) d'alertes par jour, le flux de travail peut être assez lent. Cependant, cet agent d'IA promet d'accélérer considérablement les choses.

Il existe également un agent d'analyse de logiciels malveillants. La société l'offre dans le cadre de sa suite Google Threat Intelligence. Il est capable d'analyser et de déterminer si un code est sûr ou potentiellement nocif. Il peut même créer et exécuter automatiquement les scripts de désobfuscation. Les attaquants utilisent souvent une technique appelée «obscurcissement» lors du développement de logiciels malveillants. Le terme fait référence à l'ajout de «obscurité intentionnelle» au code pour éviter de le rendre moins compréhensible et donc d'empêcher les systèmes de sécurité de le détecter comme malveillant. Cet agent d'IA peut également générer des rapports et émettre des verdicts sur la sécurité du code.

A lire également