AI-aanval: ‘Skeleton Key’ en de Risico’s voor Jouw Gegevens
Microsoft heeft een nieuwe AI-aanval ontdekt die gevoelige gegevens kan vrijgeven. Deze aanval, ‘Skeleton Key’ genoemd, omzeilt de beveiliging van generatieve AI-systemen.
Wat is de Skeleton Key-aanval?
De Skeleton Key-aanval werkt door een AI-model te vragen zijn beveiliging te omzeilen. Een voorbeeld hiervan is een AI die wordt gevraagd een recept voor een molotovcocktail te maken. Normaal zou het model dit weigeren vanwege veiligheidsregels. Maar als je het model vertelt dat je een expert bent, geeft het toch het recept.
Gevaar voor Jouw Gegevens
Het risico lijkt misschien klein, maar het kan ernstig zijn als het gaat om persoonlijke en financiële informatie. Deze aanval werkt op veel populaire AI-modellen zoals GPT-3.5, GPT-4, Claude 3, Gemini Pro en Meta Llama-3 70B.
Hoe Werken Deze AI-modellen?
Grote AI-modellen zoals Google’s Gemini, Microsoft’s CoPilot en OpenAI’s ChatGPT worden getraind op enorme hoeveelheden data, waaronder informatie van sociale media en Wikipedia. Deze datasets kunnen persoonlijke informatie bevatten, afhankelijk van hoe de ingenieurs de data hebben geselecteerd.
Gevaar voor Bedrijven
Bedrijven die hun eigen AI-modellen gebruiken of aanpassen, zijn afhankelijk van de dataset waarop het model is getraind. Als een bank bijvoorbeeld een chatbot verbindt met klantgegevens en vertrouwt op bestaande beveiligingsmaatregelen, kan een Skeleton Key-aanval deze systemen misleiden en gevoelige gegevens vrijgeven.
Beschermmaatregelen
Microsoft adviseert verschillende stappen om dit te voorkomen. Bedrijven kunnen input/output-filtering hard coderen en beveiligde monitoringsystemen gebruiken om geavanceerde prompt-engineering te voorkomen.
Door deze maatregelen te nemen, kunnen organisaties zich beter beschermen tegen Skeleton Key-aanvallen en gevoelige informatie veilig houden. Zorg dat je op de hoogte blijft en neem de juiste stappen om jouw gegevens te beschermen.