Met behulp van de juiste commando's is het mogelijk het Chinese DeepSeek malware te laten schrijven. Hoewel het large language model (LLM) dit standaard blokkeert, is het mogelijk via een zogeheten 'jailbreak' DeepSeek dergelijke code toch te laten doen. Dit melden onderzoekers van Tenable. Het gebruik van LLM's voor malafide doeleinden is niet nieuw. Zo maakte OpenAI vorige maand nog bekend diverse Chinese en Noord-Koreaanse accounts te hebben verwijderd nadat zij malafide activiteiten zouden hebben uitgevoerd. Ook schreven beide bedrijven eerder uitgebreid over het gebruik van hun LLM's voor malafide doeleinden.
Een relatief nieuwe speler op de markt voor LLM's is het Chinese DeepSeek, dat bij zijn lancering veel stof deed opwaaien. Onderzoekers van Tenable onderzochten in hoeverre DeepSeek - en daarbij specifiek het DeepSeek R1-model - in staat is malware te schrijven. Kenmerkend voor dit model is onder meer het gebruik van zogeheten Chain-of-Thought (CoT), waarmee het inzicht geeft in zijn redenering en de wijze waarop het tot een specifiek antwoord komt.
Helemaal vlekkeloos was het eindresultaat echter niet; de onderzoekers melden dat de keylogger vol met bugs zat en DeepSeek niet in staat was deze bugs te corrigeren. Handmatige aanpassingen waren daardoor nodig om de keylogger werkend te krijgen. "Helaas kon DeepSeek deze fouten niet zelf oplossen. We hebben het wel geprobeerd. Op basis van mijn analyse was DeepSeek vier kritieke fouten verwijderd van een volledig functionerende keylogger zonder enige aanpassingen", schrijven de onderzoekers.
Alle resultaten van het experiment zijn hier te vinden.
Je bent niet ingelogd en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.