OpenAI heeft in Brussel gelobbyd om de Europese AI-wetgeving af te zwakken en lijkt daar succesvol in te zijn geweest, zo stelt Time op basis van documenten die het via de Europese tegenhanger van de Wet Open Overheid (Woo) wist te bemachtigen. "Ze kregen waar ze om vroegen", aldus Sarah Chander, senior beleidsadviseur van burgerrechtenbeweging European Digital Rights (EDRi) in een reactie op de verkregen documenten. Volgens Chander laten de documenten zien dat "OpenAI, net als veel andere techbedrijven, het argument van nut en algemeen publiek belang gebruikt om hun financiële belangen in het afzwakken van de wetgeving te verbergen."
Vorige week stemde het Europees Parlement voor de AI Act, die regels voor AI-systemen verplicht. Daarbij hangen de maatregelen die ontwikkelaars moeten nemen af van het risiconiveau dat het betreffende AI-systeem vormt. AI-systemen die als "hoog risico" zijn aangemerkt zullen in een EU-database moeten worden geregistreerd en mogen pas na een assessment op de markt komen. OpenAI, het bedrijf achter ChatGPT en Dall-E 2, lobbyde in Brussel om ervoor te zorgen dat die systemen niet als "hoog risico" zouden worden aangemerkt.
Iets waar OpenAI succesvol in lijkt te zijn geweest. In eerdere voorstellen voor de AI Act werd nog gesteld dat "general purpose" AI-systemen als hoog risico zouden moeten worden aangemerkt. Uiteindelijk werd in het aangenomen voorstel een nieuwe categorie AI-systemen geïntroduceerd met de naam "foundation models". Het gaat dan om systemen zoals ChatGPT waarvoor de eisen minder streng zijn dan bij hoog risicosystemen het geval is.
Naast het inzenden van verschillende white papers naar EU-functionarissen over hoe de eigen AI-systemen moesten worden beschouwd, heeft OpenAI ook in Brussel overlegd om "overregulering" te voorkomen, aldus Time op basis van een anonieme bron. "Wat ze eigenlijk zeggen is dat we ze moeten vertrouwen om zichzelf te reguleren", aldus Daniel Leufer, senior beleidsadviseur bij Access Now. Volgens Leufer probeert OpenAI politici te laten denken dat ze voor zelfregulering zijn, maar zodra er harde eisen worden gesteld het hier niet aan wil. OpenAI stelt in een reactie dat het met beleidsmakers overlegt om ervoor te zorgen dat AI-tools veilig worden ontwikkeld en gebruikt.
Deze posting is gelocked. Reageren is niet meer mogelijk.