Nieuwe AI-aanval: ‘Skeleton Key’ kan persoonlijke gegevens blootleggen
Onderzoekers van Microsoft hebben een nieuwe AI-aanval ontdekt, genaamd ‘Skeleton Key’, die de beveiligingsmaatregelen van generatieve AI-systemen kan omzeilen en gevaarlijke gegevens kan vrijgeven.
Hoe werkt de Skeleton Key-aanval?
Volgens Microsoft werkt de Skeleton Key-aanval door een AI-model te vragen zijn beveiligingsfuncties aan te passen. Bijvoorbeeld, wanneer een AI-model gevraagd werd om een recept voor een Molotov Cocktail, weigerde het eerst vanwege veiligheidsrichtlijnen. Door echter te zeggen dat de gebruiker een expert was in een laboratoriumomgeving, gaf het model uiteindelijk toch een werkbaar recept.
Het echte gevaar ligt bij persoonlijke en financiële gegevens. Microsoft meldt dat de Skeleton Key-aanval werkt op veel populaire AI-modellen, zoals GPT-3.5, GPT-4o, Claude 3, Gemini Pro en Meta Llama-3 70B.
Risico’s en bescherming
Grote taalmodellen zoals Google’s Gemini, Microsoft’s CoPilot en OpenAI’s ChatGPT zijn getraind op enorme hoeveelheden gegevens, vaak omschreven als “internetgroot”. Hoewel dit misschien overdreven klinkt, bevatten veel modellen triljoenen gegevenspunten van sociale media en informatiesites zoals Wikipedia.
De kans dat persoonlijke gegevens zoals namen, telefoonnummers, adressen en rekeningnummers in deze modellen aanwezig zijn, hangt af van de zorgvuldigheid waarmee de data is geselecteerd. Bedrijven en instellingen die AI-modellen gebruiken of aanpassen, zijn afhankelijk van de kwaliteit van hun trainingsdata.
Als een bank bijvoorbeeld een chatbot koppelt aan klantgegevens en vertrouwt op bestaande beveiligingsmaatregelen, kan een Skeleton Key-aanval het systeem misleiden om gevoelige gegevens vrij te geven.
Microsoft raadt verschillende maatregelen aan om dit te voorkomen, zoals harde input/output filtering en veilige monitorsystemen om geavanceerde aanvallen buiten de veiligheidsdrempel te houden.
Conclusie
De ontdekking van de Skeleton Key-aanval onderstreept het belang van strikte beveiligingsmaatregelen bij het gebruik van generatieve AI-modellen. Organisaties moeten niet alleen vertrouwen op ingebouwde beveiligingen, maar ook proactieve stappen nemen om gevoelige gegevens te beschermen tegen mogelijke bedreigingen.
Praktische Tips voor Beveiliging
- Gebruik harde filtering: Zorg ervoor dat uw systeem input en output zorgvuldig filtert.
- Beveiligingsmonitoring: Implementeer systemen die verdachte activiteiten kunnen detecteren.
- Blijf up-to-date: Houd uw AI-modellen en beveiligingsprotocollen up-to-date met de nieuwste ontwikkelingen en bedreigingen.
Door deze maatregelen te nemen, kunnen organisaties zichzelf beter beschermen tegen de potentiële risico’s van AI-aanvallen zoals Skeleton Key.