De plannen van Apple om ChatGPT in het eigen besturingssysteem te integreren kan een veiligheidsrisico zijn, zo laat minister Beljaarts van Economische Zaken op vragen van de PVV weten. De partij had Kamervragen gesteld nadat Elon Musk aankondigde dat hij Apple-apparaten in al zijn ondernemingen gaat verbieden als Apple ChatGPT op OS-niveau integreert.
"Deelt u de opvatting van de heer Musk dat de integratie van OpenAI op OS-niveau van Apple producten, zoals verkondigd door Apple op de WWDC (Worldwide Developers Conference), een potentieel veiligheidsrisico kan vormen voor deze apparaten? Zo nee, waarom niet?", wilde PVV-Kamerlid Valize weten. "Het integreren van producten van derde partijen in Apple producten, maar ook producten van vergelijkbare partijen, is een veel voorkomend proces. Dit integratieproces kan veiligheidsrisico's met zich mee brengen, waarbij de potentiële kwetsbaarheden over het algemeen toenemen naarmate de integratie diepgaander wordt", reageert de minister (pdf).
Volgens Beljaarts worden de risico's in het specifieke geval van AI-integratie binnen een besturingssysteem, zoals de integratie van OpenAI op OS-niveau, verder geïntensiveerd. "Deze vorm van integratie vereist namelijk toegang tot gevoelige gegevens en kerncomponenten van het OS, wat verder gaat dan conventionele integraties. Apple heeft aangegeven in openbare berichtgeving dat er in dit proces data wordt uitgewisseld met externe partijen." Het techbedrijf heeft wel aangegeven de privacy en security te zullen waarborgen, maar technische details zijn nog niet bekend voegt de bewindsman toe.
Valize vroeg ook of de potentiële veiligheidsrisico's voor de overheid onwenselijk zijn. "In algemene zin kunnen veiligheidsrisico’s die ontstaan door integraties van producten van derde partijen in een besturingssysteem onwenselijk zijn voor de overheid. Zo is een risico van oneigenlijk delen en verwerken van gegevens van smartphonegebruikers onwenselijk. Tegelijkertijd zijn er maatregelen mogelijk om deze risico’s te mitigeren", antwoordt de minister.
Beljaarts stelt dat voor het gebruik van generatieve AI-toepassingen, zoals die van Apple, het voorlopige standpunt generatieve AI over het gebruik door Rijksorganisaties van generatieve AI geldt. "Hierin staat dat voor het inzetten van een AI-toepassing, deze onderworpen moet worden aan een Impact Assessment Mensenrechten Algoritme (IAMA) en een Data Protection Impact Assessment (DPIA)." Deze assessments worden dan voorgelegd aan de Chief Information Officer (CIO) en de Functionaris Gegevensbescherming (FG). "Door middel van deze maatregelen worden potentiële veiligheidsrisico’s op tijd gesignaleerd en kan er doelmatig ingegrepen worden", legt de minister uit.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.