image

OpenAI lobbyde in Brussel om Europese AI-wetgeving af te zwakken

woensdag 21 juni 2023, 10:17 door Redactie, 6 reacties

OpenAI heeft in Brussel gelobbyd om de Europese AI-wetgeving af te zwakken en lijkt daar succesvol in te zijn geweest, zo stelt Time op basis van documenten die het via de Europese tegenhanger van de Wet Open Overheid (Woo) wist te bemachtigen. "Ze kregen waar ze om vroegen", aldus Sarah Chander, senior beleidsadviseur van burgerrechtenbeweging European Digital Rights (EDRi) in een reactie op de verkregen documenten. Volgens Chander laten de documenten zien dat "OpenAI, net als veel andere techbedrijven, het argument van nut en algemeen publiek belang gebruikt om hun financiële belangen in het afzwakken van de wetgeving te verbergen."

Vorige week stemde het Europees Parlement voor de AI Act, die regels voor AI-systemen verplicht. Daarbij hangen de maatregelen die ontwikkelaars moeten nemen af van het risiconiveau dat het betreffende AI-systeem vormt. AI-systemen die als "hoog risico" zijn aangemerkt zullen in een EU-database moeten worden geregistreerd en mogen pas na een assessment op de markt komen. OpenAI, het bedrijf achter ChatGPT en Dall-E 2, lobbyde in Brussel om ervoor te zorgen dat die systemen niet als "hoog risico" zouden worden aangemerkt.

Iets waar OpenAI succesvol in lijkt te zijn geweest. In eerdere voorstellen voor de AI Act werd nog gesteld dat "general purpose" AI-systemen als hoog risico zouden moeten worden aangemerkt. Uiteindelijk werd in het aangenomen voorstel een nieuwe categorie AI-systemen geïntroduceerd met de naam "foundation models". Het gaat dan om systemen zoals ChatGPT waarvoor de eisen minder streng zijn dan bij hoog risicosystemen het geval is.

Naast het inzenden van verschillende white papers naar EU-functionarissen over hoe de eigen AI-systemen moesten worden beschouwd, heeft OpenAI ook in Brussel overlegd om "overregulering" te voorkomen, aldus Time op basis van een anonieme bron. "Wat ze eigenlijk zeggen is dat we ze moeten vertrouwen om zichzelf te reguleren", aldus Daniel Leufer, senior beleidsadviseur bij Access Now. Volgens Leufer probeert OpenAI politici te laten denken dat ze voor zelfregulering zijn, maar zodra er harde eisen worden gesteld het hier niet aan wil. OpenAI stelt in een reactie dat het met beleidsmakers overlegt om ervoor te zorgen dat AI-tools veilig worden ontwikkeld en gebruikt.

Reacties (6)
21-06-2023, 10:42 door Anoniem
Beetje overtrokken bericht.
Tuurlijk zullen ze gelobbyed hebben, maar dat betekent niet automatisch dat het amendement voor de regelgeving slecht is.

In de regelgeving heb je 4 categorien. "Totaal onacceptabel en dus verboden" en dan verder: high risk, medium risk en low risk.

Ik zie geen aanleiding om iets als ChatGPT automatisch in high risk te gooien. High risk zijn bv AI systemen voor zelf rijdende autos. Wat we tot nu van ChatGPT zien is low risk en de kans dat het in een high risk implementatie gebruikt word is klein.

En als zo'n implementatie er wel komt, dan moet die toch apart geclassificeerd worden door de maker.
21-06-2023, 11:26 door Anoniem
Tuurlijk zullen ze gelobbyed hebben, maar dat betekent niet automatisch dat het amendement voor de regelgeving slecht is.
Het woord "slecht" is nergens gevallen in de bijdrage van de redactie.
21-06-2023, 12:53 door Bitje-scheef
Door Anoniem: Beetje overtrokken bericht.
Tuurlijk zullen ze gelobbyed hebben, maar dat betekent niet automatisch dat het amendement voor de regelgeving slecht is.

In de regelgeving heb je 4 categorien. "Totaal onacceptabel en dus verboden" en dan verder: high risk, medium risk en low risk.

Ik zie geen aanleiding om iets als ChatGPT automatisch in high risk te gooien. High risk zijn bv AI systemen voor zelf rijdende autos. Wat we tot nu van ChatGPT zien is low risk en de kans dat het in een high risk implementatie gebruikt word is klein.

En als zo'n implementatie er wel komt, dan moet die toch apart geclassificeerd worden door de maker.

Toch moet er goed naar gekeken worden vrees ik. Anders krijgen we achteraf weer de nodige scheefgroei die dan veel moeilijker te corrigeren is.
21-06-2023, 14:02 door Anoniem
Ik zie geen aanleiding om iets als ChatGPT automatisch in high risk te gooien. High risk zijn bv AI systemen voor zelf rijdende autos.
Ok maar geef dan ook aan waarom dit geen hoog risico is, het is altijd beter om dit van de kenners te horen dan van
diegenen die maar wat roepen.

Dat lobbyen als normaal wordt gezien is voor mij het bewijs dat de politiek dood is, het is gewoon een manier om
extra geld binnen te harken. Ze mogen wetten maken waar ze totaal geen verstand van hebben en de burger is de
pineut. Al dat gelobby van Apple heeft hun heel veel opgebracht en het product wat ze maken “ IPhone “ wordt gezien
als zeer veilig maar is net zo onbetrouwbaar als de rest van wat die techneuten maken. Ja ik heb een iPhone om dat
ik dit ook geloofde maar weet nu beter. In welke richting het nu met AI uitgaat dat weet ik niet maar dank zij dat gelobby,
en vergeet niet die journalisten dan heb ik wel een idee.
21-06-2023, 14:08 door Anoniem
Door Anoniem: Beetje overtrokken bericht.
Tuurlijk zullen ze gelobbyed hebben, maar dat betekent niet automatisch dat het amendement voor de regelgeving slecht is.

In de regelgeving heb je 4 categorien. "Totaal onacceptabel en dus verboden" en dan verder: high risk, medium risk en low risk.

Ik zie geen aanleiding om iets als ChatGPT automatisch in high risk te gooien. High risk zijn bv AI systemen voor zelf rijdende autos. Wat we tot nu van ChatGPT zien is low risk en de kans dat het in een high risk implementatie gebruikt word is klein.

En als zo'n implementatie er wel komt, dan moet die toch apart geclassificeerd worden door de maker.

Wie zegt dat deze post niet gegenereerd is door ChatGPT?
22-06-2023, 13:04 door Anoniem
Door Anoniem:
Door Anoniem: Beetje overtrokken bericht.
Tuurlijk zullen ze gelobbyed hebben, maar dat betekent niet automatisch dat het amendement voor de regelgeving slecht is.

In de regelgeving heb je 4 categorien. "Totaal onacceptabel en dus verboden" en dan verder: high risk, medium risk en low risk.

Ik zie geen aanleiding om iets als ChatGPT automatisch in high risk te gooien. High risk zijn bv AI systemen voor zelf rijdende autos. Wat we tot nu van ChatGPT zien is low risk en de kans dat het in een high risk implementatie gebruikt word is klein.

En als zo'n implementatie er wel komt, dan moet die toch apart geclassificeerd worden door de maker.

Wie zegt dat deze post niet gegenereerd is door ChatGPT?

Slechte herkenbaarheid van de bron / oorsprong lijkt me al een sterke indicator dat er belangrijke risico's aan dit soort tools verbonden zijn ;-)
Reageren

Deze posting is gelocked. Reageren is niet meer mogelijk.