Apple a annoncé son intention de traiter les données de l'IA dans une « boîte noire du cloud ». Ce nouveau système vise à améliorer considérablement la confidentialité des utilisateurs en rendant les données inaccessibles même aux employés d'Apple.

La « boîte noire cloud » d'Apple pour améliorer la confidentialité

Traditionnellement, le développement de l’IA implique la formation de modèles sur de grands ensembles de données stockés dans le cloud. Bien que ces ensembles de données soient souvent anonymisés, ils peuvent contenir des informations résiduelles qui, combinées à d’autres points de données, pourraient révéler l’identité des utilisateurs. Par exemple, les données de localisation et les préférences musicales d'un utilisateur pourraient lui être retracées.

La solution de « boîte noire » proposée par Apple consiste à créer une enclave sécurisée dans le cloud spécifiquement pour le traitement des données d'IA. Le Secure Enclave, un composant matériel et logiciel déjà présent dans les appareils Apple comme les iPhones et les iPads, agit comme une zone sécurisée au sein du processeur de l'appareil, conçue pour isoler les données sensibles telles que les empreintes digitales, les données de reconnaissance faciale et les clés de cryptage.

Cette enclave pour le traitement cloud serait probablement un composant matériel dédié au sein du centre de données. Physiquement séparé du reste de l’infrastructure cloud. Les données nécessaires à la formation des modèles d’IA résideraient exclusivement dans cette enclave sécurisée, garantissant que les pirates informatiques, ou quiconque, ne puissent pas accéder aux informations brutes des utilisateurs.

Les experts en matière de confidentialité divisés sur la boîte noire IA d'Apple

Même si la proposition de boîte noire cloud d'Apple pourrait changer la donne en matière d'IA préservant la confidentialité, il existe également certains défis à prendre en compte. L’une des préoccupations concerne l’impact potentiel sur l’efficacité du traitement de l’IA. Les processus de chiffrement et de déchiffrement peuvent ajouter des frais généraux, ralentissant potentiellement la formation et l’exécution des modèles d’IA.

Un autre défi consiste à assurer la sécurité des clés de chiffrement. Si ces clés sont compromises, cela pourrait rendre l’ensemble du système inefficace. De plus, certains affirment qu’un système entièrement crypté empêche l’identification et la correction des failles de sécurité au sein des modèles d’IA. Apple doit répondre à toutes ces préoccupations pour garantir un système de données d'IA véritablement sécurisé.

A lire également