Ontwikkelaars van generatieve AI zijn niet transparant richting mensen over hoe ze hun gegevens gebruiken voor het trainen van AI-modellen, zo stelt de Britse privacytoezichthouder ICO op basis van onderzoek. De autoriteit spreekt zelfs van een 'ernstig gebrek aan transparantie' en roept ontwikkelaars op om mensen beter te vertellen hoe hun informatie precies wordt gebruikt.
"Zonder betere transparantie zal het lastig voor mensen zijn om hun informatierechten uit te oefenen en lastig voor ontwikkelaars om een legitiem belang als grondslag te gebruiken", zo stelt de Britse privacytoezichthouder. Doordat AI-ontwikkelaars niet transparant zijn heeft dit volgens de ICO een negatieve impact op het vertrouwen van het publiek in AI.
"Als een eerste stap verwachten we dat generatieve AI-ontwikkelaars hun transparantie aanzienlijk verbeteren. Ze kunnen bijvoorbeeld overwegen welke maatregelen ze kunnen bieden om de rechten, vrijheden en belangen van mensen te beschermen. Het zou dan ook kunnen gaan om het bieden van toegankelijke en specifieke informatie waarmee mensen en uitgevers kunnen begrijpen welke persoonlijke data de ontwikkelaar heeft verzameld", aldus de ICO.
De toezichthouder stelt dat het nu gepubliceerde onderzoeksrapport duidelijkheid en zekerheid over regelgeving geeft, waarmee 'verantwoordelijke AI-ontwikkelaars' hun voordeel kunnen doen. De ICO laat afsluitend weten dat het nu de focus en aandacht op organisaties gaat richten die 'niet genoeg' doen. Verdere details zijn niet gegeven.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.