Le géant de l’IA, OpenAI, est confronté à une nouvelle polémique en Europe : une violation présumée du RGPD
La plainte de noyb contre OpenAI : un défi pour le RGPD
OpenAI, la société de renommée mondiale en intelligence artificielle, est de nouveau sous le feu des critiques. L’association noyb (None Of Your Business), spécialisée dans la protection des données personnelles, a récemment déposé une plainte contre OpenAI auprès de l’autorité autrichienne de protection des données. Au cœur de ce conflit juridique se trouve ChatGPT, le chatbot d’OpenAI, accusé de diffuser des informations inexactes concernant des particuliers.
Le déclencheur de cette plainte a été un incident impliquant un plaignant anonyme, une personnalité publique dont le chatbot a généré une date de naissance incorrecte. Face à ce problème, OpenAI a refusé de corriger l’information, proposant à la place d’instaurer un filtre bloquant sur le nom de l’individu concerné. noyb considère cette réaction comme une violation de trois articles spécifiques du Règlement Général sur la Protection des Données (RGPD).
Les points de non-conformité d’OpenAI avec le RGPD
Selon noyb, OpenAI enfreint les dispositions suivantes du RGPD :
- L’article 5, qui stipule que toute donnée personnelle diffusée doit être exacte.
- L’article 15, qui impose aux entreprises de pouvoir fournir aux individus les informations qu’elles détiennent à leur sujet.
- L’article 16, qui accorde aux individus un droit de rectification sur les données les concernant.
En réponse à ces allégations, OpenAI a affirmé que sa technologie actuelle est incapable de corriger les données générées, ce qui expliquerait la persistance du problème.
Les implications pour l’avenir de l’IA et du RGPD
Maartje de Graaf, avocate spécialisée dans la protection des données chez noyb, voit cette affaire comme une preuve que les chatbots, par leur nature même, sont en infraction avec les régulations européennes. Elle soutient que si un système ne peut pas produire des résultats précis et transparents, il ne devrait pas être utilisé pour générer des données sur des personnes. Par conséquent, la technologie devrait être conforme aux exigences juridiques, et non l’inverse.
Cette affaire soulève une question cruciale pour l’avenir de l’IA et du RGPD : comment les entreprises peuvent-elles garantir le respect des lois sur la protection des données tout en exploitant les avantages des technologies d’intelligence artificielle ? La résolution de cette plainte pourrait définir un précédent important pour la régulation de l’IA en Europe et au-delà.
OpenAI a déjà fait face à des plaintes similaires en 2023, ce qui met en évidence une tendance préoccupante. Il est clair que le défi du respect du RGPD par les technologies d’IA est loin d’être résolu et que cette affaire ne sera probablement pas la dernière en son genre. Alors que la coopération européenne est susceptible de traiter ce cas, la question reste ouverte : comment garantir que les progrès de la technologie n’entravent pas le respect des droits individuels ?