De Australische overheid heeft in samenwerking met de FBI, NSA en tien internationale cyberagentschappen, advies voor organisaties gepubliceerd over het veilig gebruik van AI-systemen. Het document van het Australische Cyber Security Centre (ACSC), 'Engaging with Artificial Intelligence', gaat in op dreigingen die verband houden met AI-systemen en hoe organisaties met deze risico's kunnen omgaan.
Het gaat dan om zaken als 'data poisoning', prompt injection, generatieve AI-hallucinaties, zorgen over privacy en intellectueel eigendom, diefstal van AI-modellen en trainingsdata en het heridentificeren van geanonimiseerde data. Zo moeten organisaties die van third-party AI-systemen gebruikmaken begrijpen dat hun invoer en data gebruikt kan worden voor het trainen van het AI-model. Als oplossing zou indien beschikbaar een private versie van het systeem kunnen worden gebruikt.
Een ander aandachtspunt bij het gebruik van third-party AI-systemen is hoe de data wordt beheerd wanneer de overeenkomst met de derde partij afloopt. Tevens wordt aangeraden om uitvoer van AI-systemen te loggen en monitoren, om zo veranderingen in gedrag die kunnen duiden op een aanval of diefstal van data te detecteren. Tevens moet ook alle invoer worden gelogd en gemonitord, wat kan helpen bij onderzoek naar incidenten. Ook is het verstandig volgens het ACSC om op grote aantallen repetitieve prompts te monitoren, omdat dit een aanwijzing van geautomatiseerde prompt injection-aanvallen kan zijn.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.