Comme l'eau et l'huile, certaines choses ne se mélangent pas. L'IA et la confidentialité en font partie. Il existe plusieurs outils et fonctionnalités d'IA qui sont tout simplement un cauchemar en matière de confidentialité. C'était le cas d'une application populaire qui venait d'arriver sur le marché. L'application ChatGPT pour macOS stockait les conversations en texte brut.

Si cela vous semble familier, Microsoft vient d'être mis à rude épreuve pour un problème similaire. Son impressionnante et plutôt effrayante fonction Recall a été découverte en train de stocker des informations sur les ordinateurs des utilisateurs dans un document texte facile à lire. Cela signifie que, si quelqu'un accède à l'ordinateur de cet utilisateur, il peut alors extraire ce document et obtenir un compte rendu de TOUT ce qu'il a fait. Microsoft a fait marche arrière sur cette fonctionnalité et l'a depuis mise en pause pour une durée indéterminée.

L'application macOS ChatGPT stockait les conversations en texte brut

L'IA destinée aux consommateurs s'éloigne peu à peu des centres de données pour s'étendre aux appareils. On ne peut pas nier le confort d'avoir une IA puissante sur son téléphone ou son ordinateur sans avoir besoin de se connecter à Internet. C'est pourquoi l'IA sur appareil fait l'objet d'une telle attention.

Cependant, les entreprises qui font la promotion de ces technologies ne sont pas honnêtes et transparentes sur ce qu'elles doivent faire pour conserver les données sur l'appareil. La décision de Microsoft était imprudente, et il semble qu'OpenAI n'ait pas tiré les leçons de l'erreur de son bienfaiteur. Pedro José Pereira Vieito a publié un article sur Threads montrant l'application macOS ChatGPT stockant les conversations en texte brut sur l'ordinateur.

Pereira a conçu une application qui pouvait accéder à ces conversations et les faire apparaître. Jay Peters de The Verge a pu le démontrer et confirmer que c'était vrai. Après que The Verge a contacté OpenAI, l'entreprise a pu apporter quelques modifications et bloquer l'application.

Alors, problème résolu… n’est-ce pas ?

D'accord, OpenAI a résolu le problème et sauvé la mise. Super, mais le problème fondamental n'a pas été résolu. Microsoft et OpenAI ont tous deux été pris en flagrant délit de négligence totale avec les données de leurs utilisateurs, et nous ne le découvrons que lorsque des entités tierces examinent leurs systèmes et les signalent. Ces entreprises étaient donc tout à fait heureuses de laisser ces problèmes de sécurité exister sur nos appareils.

Nous pouvons simplement dire que nous avons de la chance que les personnes qui ont découvert ces vulnérabilités soient de bons samaritains et non des pirates informatiques. Pereira a conçu une application capable d'extraire ces données. Qu'est-ce qui empêche quelqu'un de développer une application capable d'extraire ces données et de les leur envoyer en secret ? Ce genre de choses arrive.

Le problème principal est que les grandes entreprises continuent de lancer des produits présentant des problèmes de sécurité flagrants et n'agissent pas tant que ces problèmes ne sont pas découverts. Ne s'agit-il pas des entreprises qui se vantent d'avoir une sécurité de pointe lors de leurs discours d'ouverture ? Nous leur faisons implicitement confiance parce que c'est Microsoft, Google ou Apple. Ces entreprises pèsent plusieurs milliards de dollars et, apparemment, elles savent une chose ou deux sur la protection de nos données. Pourtant, elles continuent de prouver qu'elles n'en savent rien.

Les utilisateurs lambda ne devraient pas être confrontés à ces failles de sécurité, ni aux journaux de conversations stockés en texte brut. Tant que les grandes entreprises ne cesseront pas de se montrer si imprudentes avec nos données grâce à ces outils d'IA tape-à-l'œil et sophistiqués, le problème ne sera jamais vraiment résolu.

A lire également