In de Europese Unie moet een verbod komen op het gebruik van kunstmatige intelligentie (AI) die onacceptabele risico's voor het individu vormt. Het gaat dan specifiek om AI-systemen gebruikt voor het bijhouden van sociale scores van personen, biometrische identificatie in openbare ruimtes en het categoriseren van personen op basis van hun biometrische data of emoties, zo vindt de Europese privacytoezichthouder EDPS.
De Europese Commissie kwam vorig jaar met regels voor het gebruik van AI-systemen binnen de EU, de zogenoemde Artificial Intelligence Act. Sinds afgelopen augustus zijn er binnen de EU gesprekken gaande over een aanvulling op deze regels en de EDPS heeft daar nu ook een voorstel voor gedaan. Het voorstel richt zich op het versterken van de bescherming van de fundamentele rechten van individuen, zoals het recht op privacy en de bescherming van persoonlijke data. Dat zou nu onvoldoende nadruk hebben.
In de opinie roept de EDPS op tot een verbod van AI-systemen die een onacceptabel risico voor de fundamentele rechten van individuen vormen. Het gaat dan met name om systemen voor het bijhouden van sociale scores, zoals die in China worden gebruikt, maar ook door bedrijven worden toegepast. Ook het gebruik van AI voor biometrische identificatie in openbare ruimtes moet volgens de EDPS worden verboden. Tevens pleit de Europese privacytoezichthouder voor een verbod op AI-systemen die mensen op basis van hun biometrische data of emoties categoriseren.
Ook systemen die het recht op menselijke waardigheid raken hebben geen plek in de EU, zo laat de EDPS verder weten. De toezichthouder vindt dat deze voorwaarden nadrukkelijker in de regels moeten worden opgenomen. Dat geldt ook voor het monitoren van het gebruik van AI-systemen, hoe ze werken en welke risico's ze met zich meebrengen. Er moeten daarom minimale procedurele waarborgen komen om de individuen te beschermen die mogelijk door het gebruik van AI-systemen worden geraakt.
Deze posting is gelocked. Reageren is niet meer mogelijk.