Generatieve AI zoals ChatGPT neemt veel risico's met zich mee die publieke waarden zoals privacy en veiligheid onder druk zet, alsmede democratische processen zoals de toegang tot kennis en de nieuwsvoorziening. Het is daarbij de vraag of huidig en aangekondigd beleid wel voldoende is, aldus het Rathenau Instituut op basis van onderzoek. Het instituut stelt dat beleidsmakers dan ook aan de slag moeten om beleid aan te scherpen. "Tot die tijd staat iedere burger en organisatie voor de vraag of zij de technologie op dit moment verantwoord kunnen gebruiken", zegt onderzoekscoördinator Linda Kool.
Volgens Rathenau versterkt en compliceert de opkomst van generatieve AI-systemen bekende risico’s van digitalisering en brengt nieuwe risico’s met zich mee voor intellectueel eigendom en menselijke ontwikkeling. Zo kunnen de training en het gebruik van generatieve AI-systemen leiden tot schendingen van iemands privacyrechten. Trainingsdata van AI-modellen kan persoonlijke informatie over iemand bevatten of als output persoonlijke informatie van iemand delen.
In de AVG is vastgelegd onder welke voorwaarden persoonsgegevens verwerkt mogen worden. Diverse Europese privacytoezichthouders hebben daarom ChatGPT-ontwikkelaar OpenAI om opheldering gevraagd, en onderzoeken of de verwerking in lijn is met de AVG Een generatief AI-systeem kan verder persoonlijke informatie afleiden uit de interactie met de gebruiker.
De manier waarop iemand schrijft en communiceert, kan informatie geven over de politieke voorkeur of de gezondheid van die persoon. De AVG biedt via de categorie ‘bijzondere persoonsgegevens’ personen extra bescherming aan dit soort intieme gegevens. Maar niet alle intieme informatie die de modellen kunnen verzamelen, vallen hieronder – zoals iemands emotie.
Daarnaast kunnen de AI-modellen door het combineren van databronnen intieme informatie afleiden. Voor de toekomst is de verwachting dat AI-systemen nog meer intieme gegevens zullen verwerken. "Het is een reële mogelijkheid dat het huidige en voorgenomen beleid niet opgewassen zijn tegen de impact van generatieve AI-systemen, bijvoorbeeld op het gebied van non-discriminatie, veiligheid, desinformatie, mededinging en de uitbuiting van werknemers", aldus Rathenau.
Het instituut beveelt beleidsmakers en politici aan om nationaal en Europees beleid door te lichten en aan te scherpen, en met de Europese AI-verordening de mogelijkheid te creëren om risicovolle generatieve AI-systemen van de markt te halen. "Wereldwijd worden de risico’s van GAI-systemen serieus genomen; dat zou iedere Nederlandse burger en instantie ook moeten doen", zo laten de onderzoekers in het onderzoeksrapport weten. Het rapport is gebaseerd op literatuurstudie, werksessies en interviews met deskundigen.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.