Klokkenluiders bij OpenAI, Google Deepmind en andere AI-bedrijven moeten beter worden beschermd, zo hebben huidige en voormalige medewerkers van de twee bedrijven in een open brief laten weten. Volgens de medewerkers hebben AI-bedrijven een sterke financiële prikkel om effectief toezicht te voorkomen en blijft daardoor belangrijke informatie over de mogelijkheden, beperkingen, beveiligingsmaatregelen en risico's van hun systemen verborgen.
Op dit moment stellen de medewerkers dat AI-bedrijven alleen beperkte verplichtingen hebben om een deel van deze informatie met overheden te delen en niets met maatschappelijke organisaties. "We kunnen er niet op vertrouwen dat ze allemaal het vrijwillig zullen delen", aldus de brief. Doordat toezicht van toezichthouders tekort schiet zijn alleen huidige en voormalige medewerkers in een positie om de AI-bedrijven ter verantwoording te roepen, zo gaat de brief verder.
Vertrouwelijkheidsovereenkomsten zorgen er echter voor dat personeel zorgen niet openbaar mag maken. Huidige bescherming van klokkenluiders schiet volgens de medewerkers tekort, omdat die zich alleen op illegale activiteiten richt, en de risico's waar de AI-medewerkers zich zorgen over maken nog niet zijn gereguleerd. Daarom willen de medewerkers dat AI-bedrijven zich aan vier principes houden om klokkenluiders en critici beter te beschermen. Zo moeten bedrijven niet vergelden tegen personeel dat zich uitspreekt, moet er een cultuur van open kritiek komen en moet het mogelijk worden om anoniem misstanden bij de raad van bestuur en toezichthouders te melden.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.