De Europese privacytoezichthouders verenigd in de EDPB zijn met een voorlopig standpunt gekomen over ChatGPT, het scrapen van data, rechten van personen en trainen van AI (pdf). Vorig jaar april lanceerden de toezichthouders een ChatGPT-taskforce om zo de samenwerking te bevorderen en informatie over mogelijke acties tegen de chatbot uit te wisselen. Aanleiding was de beslissing van de Italiaanse privacytoezichthouder om de chatbot tijdelijk te verbieden wegens het illegaal verzamelen van persoonlijke gegevens voor het trainen van de algoritmes en het niet controleren van de leeftijd van minderjarigen.
De taskforce is nu met een voorlopig standpunt gekomen, waarin het verschillende aspecten van de gegevensverwerking en AVG behandelt. Het gaat dan onder andere om het scrapen van data, de rechten van personen en het trainen van AI. De toezichthouders merken hierbij op dat het om voorlopige standpunten gaat en dit niet vooruitloopt op de beslissing die elke privacytoezichthouder in de eigen onderzoeken maakt.
In het nu verschenen rapport stelt de taskforce dat er verschillende fases zijn met betrekking tot de gegevensverwerking door ChatGPT, namelijk het verzamelen van trainingsdata via bijvoorbeeld scraping, het voorbewerken van data, het trainen van modellen, prompts en ChatGPT-output en training van ChatGPT met behulp van prompts. Met name bij de eerste drie fases zijn er grote risico's voor de fundamentele rechten en vrijheden van personen, aldus de taskforce.
Zo wordt gesteld dat via scraping persoonlijke informatie, waaronder ook bijzondere persoonsgegevens, voor trainingsdoeleinden kunnen worden gebruikt. ChatGPT-ontwikkelaar OpenAI stelt dat het een gerechtvaardigd belang heeft voor de verwerking. De taskforce laat weten dat wanneer een beroep op dit AVG-artikel wordt gedaan, de fundamentele rechten en vrijheden van personen aan de ene kant moeten worden afgewogen tegen de legitieme belangen van de dataverwerker aan de andere kant. Daarbij moet ook rekening worden gehouden met de redelijke verwachtingen die mensen hebben.
Het rapport bevat nog geen oordeel, maar gaat vooral in op hoe de AVG moet worden geïnterpreteerd en wat hierin de rol van ChatGPT is. Wanneer personen bijvoorbeeld persoonlijke data in de chatbot invoeren, worden die inputs onderdeel van het datamodel en kunnen zo met andere personen worden gedeeld. "OpenAI blijft verantwoordelijk voor het voldoen aan de AVG en zou niet moeten betogen dat de invoer van bepaalde persoonlijke data in de eerste plek verboden was", zo laat de taskforce verder weten. Wanneer het definitieve oordeel van de taskforce volgt is nog onbekend.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.