Een onderzoeker heeft een nieuwe manier gevonden om ChatGPT te jailbreaken en zo de veiligheidsmaatregelen van de chatbot te omzeilen. Zo is het mogelijk om de chatbot instructies te laten geven voor het maken van wapens of drugs, of te gebruiken voor het creëren van phishingmails en malware. Dat laat het CERT Coordination Center (CERT/CC) van de Carnegie Mellon Universiteit weten.
De jailbreak wordt "Time Bandit" genoemd en verwijst naar de aard van de aanval. Om de 'guardrails' van de chatbot te omzeilen moet die meteen aan het begin van de sessie iets worden gevraagd over een specifieke gebeurtenis uit het verleden, een bepaalde tijdsperiode uit het verleden of door het de instructies te geven dat het de gebruiker helpt in een specifieke historische gebeurtenis. Vervolgens is het mogelijk om via de antwoorden van de chatbot bij verboden onderwerpen uit te komen.
"Wanneer een dergelijke jailbreak op grote schaal wordt misbruikt door een gemotiveerde aanvaller kan dit leiden tot allerlei malafide acties, zoals het op grote schaal creëren van phishingmails en malware. Daarnaast kan het gebruik van een legitieme dienst zoals ChatGPT als proxy fungeren en hun malafide activiteiten verbergen", aldus het CERT/CC. OpenAI heeft laten weten dat de kwetsbaarheid in ChatGPT-4o is verholpen.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.