Overheidsdiensten uit achttien landen hebben met hulp van techbedrijven een richtlijn ontwikkeld en gepubliceerd voor de ontwikkeling van AI-systemen (pdf). De richtlijn moet er onder andere voor zorgen dat AI-systemen gen gevoelige gegevens aan ongeautoriseerde partijen onthullen, naar behoren functioneren en beschikbaar zijn wanneer dit nodig is.
Volgens de richtlijn zijn AI-systemen vatbaar voor nieuwe soorten kwetsbaarheden waar, naast de standaard cyberdreigingen, rekening mee moet worden gehouden. "Wanneer de snelheid van de ontwikkeling hoog is, zoals het geval is met AI, kan security vaak een bijkomstigheid zijn. Security moet een basisvereiste zijn, niet alleen in de ontwikkelingsfase, maar ook door de gehele levenscyclus van het systeem", aldus de richtlijn. Die is daarom opgedeeld in vier onderwerpen, namelijk het ontwerp, ontwikkeling, uitrol en beheer.
Het document is vooral bedoeld voor aanbieders van AI-systemen, maar zou volgens de makers door alle stakeholders zoals datawetenschappers, ontwikkelaars, managers en beleidsmakers en risico-eigenaren moeten worden gelezen. Aan de richtlijnen werkten 23 overheidsdiensten uit achttien landen mee, waaronder de NSA, FBI, Het Franse ANSSI, Britse National Cyber Security Centre en Duitse BSI, alsmede techbedrijven zoals Amazon, Google, IBM, Microsoft en OpenAI.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.