image

Microsoft beschuldigt tiental van maken tools om guardrails 'AI' te omzeilen

maandag 13 januari 2025, 11:59 door Redactie, 3 reacties

Microsoft heeft tien mensen beschuldigd van het ontwikkelen van tooling waarmee de 'guardrails' van OpenAI-diensten werden omzeild, en het mogelijk was om onder andere via DALL-E 'schadelijke afbeeldingen' te genereren. Guardrails zijn beveiligingsmaatregelen die onbedoeld gebruik van 'AI-diensten' moeten voorkomen.

Volgens Microsoft hebben de tien niet bij naam genoemde verdachten gestolen inloggegevens en zelfontwikkelde software gebruikt om in te breken op systemen waarop Microsoft Azure OpenAI-dienst draait. Vervolgens zouden er duizenden 'schadelijke afbeeldingen' zijn gegenereerd waarmee de gebruiksvoorwaarden werden overtreden, aldus het techbedrijf. Om wat voor afbeeldingen het gaat laat Microsoft niet weten.

Microsoft stelt dat de verdachten inloggegevens van publieke websites scrapeten, waarmee ze toegang kregen tot accounts van betalende klanten. Het ging dan voornamelijk om gestolen Azure API keys en andere 'authenticatie-informatie'. Vervolgens werden de gecompromitteerde accounts en zelfontwikkelde software gebruikt om de werking van Microsofts 'AI-diensten' aan te passen.

Deze aangepaste diensten werden daarna aan andere malafide actoren aangeboden, met instructies hoe ze de zelfgemaakte tools konden gebruiken voor het genereren van 'schadelijke en illegale content' via diensten zoals DALL-E. Microsoft heeft de toegang van de verdachten inmiddels geblokkeerd en van de rechter toestemming gekregen om een door de verdachten gebruikt domein in beslag te nemen.

Image

Reacties (3)
Vandaag, 12:13 door Anoniem
Je kon er op wachten..
Vandaag, 12:51 door Anoniem
En zo worden de AI-diensten van MS steeds dommer. Die "I" kunnen ze beter weghalen, want het leert de verkeerde kant op.
Vandaag, 14:20 door Anoniem
Door Anoniem: En zo worden de AI-diensten van MS steeds dommer. Die "I" kunnen ze beter weghalen, want het leert de verkeerde kant op.
? Wat heeft dit met het dommer worden van AI te maken? De mens was slimmer om de beveiliging rondom de AI te omzeilen.

BTW, AI is leuk, maar controleren van de output blijft noodzakelijk want soms staan er totale onwaarheden in de output stream.
Reageren
Ondersteunde bbcodes
Bold: [b]bold text[/b]
Italic: [i]italic text[/i]
Underline: [u]underlined text[/u]
Quote: [quote]quoted text[/quote]
URL: [url]https://www.security.nl[/url]
Config: [config]config text[/config]
Code: [code]code text[/code]

Je bent niet en reageert "Anoniem". Dit betekent dat Security.NL geen accountgegevens (e-mailadres en alias) opslaat voor deze reactie. Je reactie wordt niet direct geplaatst maar eerst gemodereerd. Als je nog geen account hebt kun je hier direct een account aanmaken. Wanneer je Anoniem reageert moet je altijd een captchacode opgeven.