Dans un monde où les fonctionnalités basées sur l’intelligence artificielle ne cessent de croître, on peut facilement se laisser tromper par de fausses photos et vidéos créées par des outils d’IA. Certains de ces outils les plus populaires incluent ChatGPT-4.0 ou GPT-4o d'OpenAI et Gemini de Google. La version ChatGPT-4.0 est l'un des outils les plus populaires parmi ceux-ci. Il peut facilement générer des vidéos truquées d’une personne réelle. Aujourd'hui, des chercheurs suggèrent que le GPT-4o d'OpenAI peut facilement être piraté pour lancer des escroqueries vocales afin que les gens puissent mal interpréter.

La version GPT-4o d'OpenAI peut être piratée par des escroqueries vocales, suggère un nouveau rapport

Selon un rapport de BleepingComputer, la version ChatGPT-4o peut être piratée pour lancer des escroqueries vocales. Les chercheurs ont montré qu'il est possible que l'API vocale en temps réel d'OpenAI pour ChatGPT-40 soit piratée pour créer des escroqueries. Ceux-ci peuvent avoir des taux de réussite faibles à modérés, suggère le rapport. Il convient de noter que les escroqueries piratées de ChatGPT-40 sont principalement basées sur une fausse voix.

Les escroqueries piratées de la version GPT-40 peuvent déjà constituer un « problème de plusieurs millions de dollars », suggère la source. Ils peuvent utiliser la technologie deepfake et les outils de synthèse vocale basés sur l'IA de ChatGPT pour aggraver les choses. En outre, la source suggère que ces outils peuvent être utilisés pour effectuer et créer des opérations frauduleuses à grande échelle sans effort humain.

S'adressant à BleepingComputer, OpenAI a expliqué que son dernier modèle, qui est actuellement en avant-première, prend en charge le « raisonnement avancé » et a été conçu pour mieux détecter ce type d'abus : « Nous améliorons constamment ChatGPT pour arrêter les tentatives délibérées de le tromper, sans perdre. son utilité ou sa créativité », a déclaré le porte-parole de l'entreprise à la publication.

Le dernier modèle d'OpenAI comprend un agent IA à commande vocale et peut être utilisé pour créer des escroqueries

Notamment, le dernier modèle d'OpenAI, qui propose un agent d'IA vocal, peut être utilisé pour créer des escroqueries à l'aide de cette technologie. Notamment, la dernière version de ChatGPT dispose de certaines garanties contre toute utilisation abusive de ses outils. De plus, certains pirates ont réussi à le pirater pour créer des outils de vulnérabilité, suggère la source. Notamment, le taux de réussite de ces escroqueries varie d’une application à l’autre, comme le vol d’informations d’identification sur Gmail.

A lire également