De Algemene Inlichtingen- en Veiligheidsdienst (AIVD) heeft vandaag advies gepubliceerd hoe organisaties hun AI-systemen tegen aanvallen kunnen verdedigen. Steeds meer organisaties maken gebruik van kunstmatige intelligentie. "Ontwikkelingen op het gebied van AI gaan snel. Zo snel, dat het nu al belangrijk is om AI-systemen veilig te ontwikkelen", aldus de inlichtingendienst. "Anders loop je het gevaar dat jouw AI-systeem niet meer werkt zoals het zou moeten, met alle gevolgen van dien."
In de vandaag verschenen brochure "AI-systemen: ontwikkel ze veilig" worden vijf aanvallen op AI-systemen beschreven. Het gaat om Poisoning aanvallen, input (evasion) aanvallen, backdoor aanvallen, model reverse engineering & inversion aanvallen en inference aanvallen. Zo proberen aanvallers bij een poisoning aanval het AI-systeem te 'vergiftigen zodat het niet meer naar behoren werkt.
Poisoning aanvallen vinden plaats tijdens de trainingsfase van een model. De aanval is uit te voeren door bijvoorbeeld het toevoegen van vervalste data, het manipuleren van bestaande data of door het labelingsproces te verstoren, waardoor het model leert om verkeerde conclusies te trekken. De AIVD vergelijkt het met een spamfilter dat ten onrecht malafide links als veilig bestempeld.
Om de vijf beschreven aanvallen te voorkomen moeten organisaties hun datakwaliteit op orde houden, hun data valideren, rekening houden met de veiligheid van de supply chain, het AI-model robuust tegen aanvallen maken en ervoor zorgen dat het model controleerbaar is. "Als je bij het bouwen en trainen van je model vooraf rekening houdt met controleerbaarheid, dan zal het achteraf minder als een black box voor je zijn. Dit wordt ook wel Explainable AI genoemd", aldus de dienst, die verder stelt dat het belangrijk is dat organisaties al bij het begin van de ontwikkeling van het AI-systeem nadenken over de beveiliging.
Deze posting is gelocked. Reageren is niet meer mogelijk.