Le Comité européen de la protection des données trouve qu'OpenAI enfreint les lois sur la protection des données
Le Comité européen de la protection des données (CEPD) a publié un rapport préliminaire sur ChatGPT, révélant les pratiques problématiques de traitement des données d'OpenAI. Le rapport identifie l'agrégation par OpenAI de vastes quantités de données personnelles provenant de sources publiques sans consentement approprié. De plus, le CEPD s'inquiète du traitement de catégories spéciales de données personnelles, telles que les informations sur la santé et l'orientation sexuelle, et souligne la nécessité de mesures de filtrage pour exclure ces données. La revendication d'OpenAI d'avoir un "intérêt légitime" à utiliser les saisies des utilisateurs pour former des modèles de langage est remise en question, ce qui conduit à des demandes de plus grande transparence. Le CEPD souligne que les difficultés techniques ne peuvent justifier le non-respect du RGPD, affirmant qu'OpenAI doit s'assurer que les utilisateurs puissent facilement exercer leurs droits d'accès, d'effacement et de rectification. Les enquêtes des autorités de surveillance nationales sont en cours, et OpenAI fait face à une tâche substantielle pour se conformer aux exigences du RGPD.
Principales conclusions
- Les pratiques de traitement des données d'OpenAI pour ChatGPT ont été signalées par le Comité européen de la protection des données.
- Des mesures plus strictes et plus de transparence sont nécessaires pour la gestion des catégories spéciales de données personnelles.
- La revendication d'"intérêt légitime" dans l'utilisation des saisies des utilisateurs pour former des modèles de langage est remise en question.
- OpenAI doit assurer la conformité au RGPD même lorsque les utilisateurs fournissent des données personnelles à des chatbots accessibles au public.
- Les défis techniques ne peuvent excuser le non-respect des exigences du RGPD.