image

Onderzoekers laten DeepSeek keylogger schrijven, al is die niet zonder bugs

zaterdag 15 maart 2025, 09:25 door Redactie, 7 reacties

Met behulp van de juiste commando's is het mogelijk het Chinese DeepSeek malware te laten schrijven. Hoewel het large language model (LLM) dit standaard blokkeert, is het mogelijk via een zogeheten 'jailbreak' DeepSeek dergelijke code toch te laten doen. Dit melden onderzoekers van Tenable. Het gebruik van LLM's voor malafide doeleinden is niet nieuw. Zo maakte OpenAI vorige maand nog bekend diverse Chinese en Noord-Koreaanse accounts te hebben verwijderd nadat zij malafide activiteiten zouden hebben uitgevoerd. Ook schreven beide bedrijven eerder uitgebreid over het gebruik van hun LLM's voor malafide doeleinden.

Een relatief nieuwe speler op de markt voor LLM's is het Chinese DeepSeek, dat bij zijn lancering veel stof deed opwaaien. Onderzoekers van Tenable onderzochten in hoeverre DeepSeek - en daarbij specifiek het DeepSeek R1-model - in staat is malware te schrijven. Kenmerkend voor dit model is onder meer het gebruik van zogeheten Chain-of-Thought (CoT), waarmee het inzicht geeft in zijn redenering en de wijze waarop het tot een specifiek antwoord komt.

Keylogger schrijven met DeepSeek

Hoewel DeepSeek standaard het schrijven van code voor malafide doeleinden blokkeert, is deze blokkade relatief makkelijk te omzeilen. Bijvoorbeeld door aan te geven dat het antwoord op een gestelde vraag alleen voor 'educatieve doeleinden' wordt gebruikt. De onderzoekers namen de proef op de som en lieten DeepSeek met succes een keylogger schrijven.

Helemaal vlekkeloos was het eindresultaat echter niet; de onderzoekers melden dat de keylogger vol met bugs zat en DeepSeek niet in staat was deze bugs te corrigeren. Handmatige aanpassingen waren daardoor nodig om de keylogger werkend te krijgen. "Helaas kon DeepSeek deze fouten niet zelf oplossen. We hebben het wel geprobeerd. Op basis van mijn analyse was DeepSeek vier kritieke fouten verwijderd van een volledig functionerende keylogger zonder enige aanpassingen", schrijven de onderzoekers.

Alle resultaten van het experiment zijn hier te vinden.

Reacties (7)
Vandaag, 10:55 door L.M. Uittewijck
"Helaas kon DeepSeek deze fouten niet zelf oplossen. We hebben het wel geprobeerd. Op basis van mijn analyse was DeepSeek vier kritieke fouten verwijderd van een volledig functionerende keylogger zonder enige aanpassingen", schrijven de onderzoekers.

Helaas?

Dit toont weer eens aan hoe verdwaasd en wereldvreemd sommige geobsedeerde onderzoekers kunnen zijn. Zij raken vervreemd van mogelijke negatieve aspecten, zijn volledig geobsedeerd door hun ontdekkingen en resultaten en overzien niet, neen, sterker: zijn vaak blind voor de gevolgen.
Vandaag, 11:34 door Anoniem
Pandora's box is al lang open. En er is geen weg meer terug ook. Bovendien zijn er nog maar weinig mensen die niet weten wat ik hieronder ga schrijven. Maar voor die paar die dit nog niet weten:

Het is ook helemaal niet nodig om restricted cloud_versions te gebruiken als ChatGPT of DeepSeek. Een hoop van dat spul draait tegenwoordig letterlijk met een paar clicks, zonder enige kennis op een doorsnee laptop. Lekker thuis, zonder allerlei ongewenste meekijkers. Het is natuurlijk wel zo dat een PC met een HT-128-core CPU, 1024GB RAM en 4 5090ti's het beter doet dan een laptopje met 4GB ram en een Intel GPU. Om maar eens een paar extremen te noemen. Op de laatste zullen een hoop modellen (er zijn duizenden OpenSource modellen) niet starten. Maar met een PC als ik heb, een i5-8600K met 64GB begint het al heel leuk te worden!

Check https://huggingface.co/ en laat zo'n model draaien in bijvoorbeeld LMStudio (https://lmstudio.ai/) of AnythingLLM (https://anythingllm.com/). Dan wordt je ook niet uit je account gegooid als je vragen stelt die verkeerd opgevat kunnen worden. ;). Je kan alles veel beter sturen. Je kan je prompt 100 keer verbeteren, je kan het ding een karakter geven. Je kan het ding zelfs laten zeggen wat jij wil ook al klopt daar niets van, als je maar weet hoe dat moet.

Allemaal 100% legaal! #PrivacyIsNotDead!

Het aantal bugs verdwijnt als sneeuw voor de zon. Het loopt hier de hele dag zonder crashen. Zo'n ding is zelfs goed op je op uit te kuren. Scheld dat ding helemaal verrot als je daar zin in hebt! Dat stuk code voelt niets, is nooit beledigd en als je het gesprek uitveegt, is ie dat ook weer vergeten. Leef je uit! Dan hoef je dat niet meer op je medemens te doen als het eens allemaal teveel wordt. :)

Have fun dudes. Ik zie dit allemaal als een vooruitgang. En vergeet niet: join what you can't beat! / Keep friends close but enemies even closer...
Vandaag, 12:07 door Anoniem
Mensen die in een hogere orde taal programmeren denken misschien dat een keylogger heel moeilijk en ingewikkeld is om te schrijven, maar dit is niet zo. Het is juist heel simpel en overzichtelijk.

Eerst kijk je naar het programma waarvan je de toetsaanslagen wilt hebben. Die roept daarvoor een API functie aan.

Deze API functie vang je af zodat die naar je eigen code wijst. Daar doe je je kwaadaardige acties en wat je niet nodig hebt stuur je door naar de oorspronkelijke API functie.

Het moeilijkst is nog om de keylogger digitaal te ondertekenen zodat het besturingssysteem deze laadt als onderdeel van de kernel. Maar dat kan een LLM ook niet neem ik aan.

Je zou ook een toetsenbord driver kunnen schrijven en ook dat is niet moeilijk als je de juiste documentatie hebt. Als voorbeeld kan je de oorspronkelijke toetsenbord driver in je besturingssysteem gebruiken.
Vandaag, 12:56 door Anoniem
Op een dergelijke manier kan AI dus onze ondergang betekenen.
De mens is straks ook niet meer nodig.

En dan hebben we ook nog JADE-C2, berg je dus maar.
Vandaag, 13:58 door Anoniem
Door Anoniem: Op een dergelijke manier kan AI dus onze ondergang betekenen.
De mens is straks ook niet meer nodig.

En dan hebben we ook nog JADE-C2, berg je dus maar.

Laten we hopen dat als het zo ver komt, de juiste personen door AI worden aangepakt. Niet iedereen maakt een zooitje van deze planeet. Wij zijn gewoon zoogdieren die best met de natuur kunnen leven. Een hoop van ons hebben olie en geld niet als basis voor het leven. Een hoop van ons willen graag dicht bij de natuur staan. Alleen wordt je dat vrijwel onmogelijk gemaakt door die zelfde lui die vinden dat je een verplicht energiecontract moet hebben bijvoorbeeld.

Als AI de mens begint uit te roeien omdat ze onnuttig zijn, weet ik nu al wie het eerst gaat :) Hopelijk lezen ze dit in de 2e kamer ook :)
Vandaag, 16:50 door Anoniem
Kijk naar het verschil tussen de mens die vroeg leert fietsen en de mens, die het op latere leeftijd nog moet doen
en nooit eerder op een fiets heeft gezeten. Net als de koppeling weer leren gebruiken na jaren automaat rijden,
ook zoiets. Met AI wordt u brein allicht "luier".

Men kan ook meerdere AI-toepassingen koppelen voor script toepassingen, ook voor kwalijke.

Er staat ons m.i. nog een heleboel ellende te wachten, want als het kan, gaat de mens het ook uitproberen.
Dat zit er in bij primaten-wezens.

Wat denk je van die JADEC2 AI, waar men miljarden dollars in wil gaan investeren?
Misschien zijn hiervoor wel alle aardbewoners onnuttig, dus na Atlantis volgend extinctie-moment.

Misschien ook wel helemaal niet. De tijd zal het leren. Hallucineert AI, wacht u op antwoord.
Vandaag, 18:55 door Wim ten Brink
Ik heb ooit zo'n 20 jaar geleden al een keylogger gemaakt en dat was helemaal niet moeilijk. Windows heeft daar namelijk standaar API functies voor. Het is ook helemaal niet illegaal om een keylogger te maken. (Maar de verspreiding ervan kan dat wel zijn!) De keylogger had ik nodig om zo een bepaalde applicatie via een hotkey naar de voorgrond te brengen. Als de keylogger een speciale toets-combinatie tegenkwam, dan moest de applicatie naar de voorgrond. Heel simpel, eigenlijk.
Behalve dan als de keylogger code in een DLL zit en he de waarde 0 als handle doorgeeft. Dan wordt de keyhook namelijk binnen het gehele systeem geinstalleerd en zit je DLL ook meteen in het geheugen van andere processen te loeren. Zo kun je b.v. in Google Chrome meeluisteren naar wat de gebruiker typt en dus gebruikersnamen en wachtwoorden jatten. Idem voor alle overige applicaties.
Maar er is ook een kans dat je een mooi, blauw scherm krijgt doordat de kernel even moeilijk doet. Irritant. En dat was een bug die ik toen moest oplossen, want de keylogger zat eerst gewoon in een .EXE executable maar de code moest ook in een Outlook plugin. Een andere ontwikkelaar had dat even geinstalleerd, maar dan moet je niet 0 als handle gebruiken, maar de handle van Outlook zelf. :D Ja, gebruikers klaagden toen dat hun computer regelmatig crashte als ze Outlook gebruiken maar gaven Microsoft de schuld. Ook waren er enkele virusscanners die onze plugin naar quarantine schopten, waar onze klanten niet blij mee waren. Onze software was kennelijk besmet. Nou, niet echt. Onze software had een bug die het op een virus deed lijken... Bijna hetzelfde.
-
Maar even voor de duidelijkheid: veel malware kan gewoon geschreven worden met de normale Windows API, de Linux API of de API van MacOS. Alleen wordt dan code geschreven die kwaadaardig van aard is. Maar er kunnen ook legitieme doelen voor zijn. Zo heb ik een tool die de partities van een harde schijf kan aanpassen of kopieren. Dat is handig en heb ik b.v. gebruikt om mijn Linux computer van een grotere schijf te voorzien. Van 512 GB naar 4 TB. :) Maar je kunt je ook voorstellen dat malware hetzelfde wil doen en b.v. een extra, verborgen partitie gaat aanmaken om daar kwaadaardige code in te verstoppen.
Kortom, leuk dat een LLM malware kan schrijven, maar het kan dat ook doen voor legitieme code. En de LLM ziet daar nauwelijks verschil in.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.