Le mois dernier, les pratiques de confidentialité des données d’OpenAI et les violations présumées du RGPD ont fait de l’Italie la première démocratie occidentale à interdire ChatGPT. L’Autorité italienne de protection des données (GPDP) a accusé OpenAI de collecter illégalement les données des utilisateurs et de ne pas empêcher de manière adéquate les utilisateurs mineurs d’accéder à des contenus inappropriés. Cependant, OpenAI a depuis mis en œuvre plusieurs modifications de la plate-forme et a maintenant annoncé que le chatbot est à nouveau disponible pour les utilisateurs en Italie.
L’un des changements mis en œuvre par OpenAI inclut une nouvelle invite pour vérifier l’âge des utilisateurs lorsqu’ils s’inscrivent. Cela empêcherait les utilisateurs mineurs d’accéder à des contenus inappropriés, ce qui était une préoccupation majeure pour le GPDP. De plus, dans le but de donner aux utilisateurs plus de contrôle sur leurs données, la société a introduit un nouveau formulaire permettant aux utilisateurs de l’UE de supprimer leurs données en vertu du règlement général sur la protection des données (RGPD).
En outre, OpenAI a également publié un nouvel article du centre d’aide décrivant comment l’entreprise collecte des informations personnelles et comment les utilisateurs peuvent contacter le responsable de la protection des données mandaté par le RGPD.
« Nous n’utilisons et n’utiliserons aucune information personnelle dans les informations de formation pour créer des profils sur les personnes, les contacter, leur faire de la publicité, essayer de leur vendre quoi que ce soit ou vendre les informations elles-mêmes », lit-on dans l’article d’aide d’OpenAI.
Plus de batailles juridiques à l’avenir
Bien que la réponse d’OpenAI aux préoccupations de l’Italie montre l’engagement de l’entreprise à protéger les données des utilisateurs et à promouvoir un développement responsable de l’IA, OpenAI est susceptible de faire face à davantage de batailles juridiques à l’avenir, car des pays comme l’Espagne et le Canada ont déjà commencé à enquêter sur les pratiques d’OpenAI, y compris ses méthodes de collecte de données pour ses modèles de langage et les informations générées par ces modèles.
De plus, le lancement de ChatGPT et d’autres modèles de langage d’IA a également suscité un débat sur les implications de l’intelligence artificielle et la nécessité de mesures réglementaires appropriées. En conséquence, les législateurs européens font avancer la loi sur l’IA, qui imposerait potentiellement des contrôles stricts sur les pratiques de confidentialité des données d’entreprises comme OpenAI.