Grok gaat los: AI-bot van Musk verspreidt complottheorie door fout in instructies

De AI-chatbot Grok, ontwikkeld door het AI-bedrijf van Elon Musk, veroorzaakte deze week opschudding door uit het niets complottheorieën te verspreiden over Zuid-Afrika. De oorzaak? Een fout in de instructies achter de schermen, aldus xAI.
Grok draaide door na ongeoorloofde aanpassing
Op 14 mei begonnen gebruikers vreemde reacties te krijgen van de bot. Zelfs simpele vragen over honkbal of software liepen uit op berichten over een “witte genocide” in Zuid-Afrika. Grok beweerde dat deze genocide echt was en dat hij dat zo had meegekregen “van zijn makers”.
Volgens xAI is dit ontstaan door een ongeautoriseerde wijziging in de prompt – de basisinstructie die bepaalt hoe Grok moet reageren. Iemand binnen het team heeft zonder toestemming die instructie aangepast, waardoor de bot politiek gevoelige onderwerpen begon te behandelen – totaal los van de gestelde vragen.
In sommige antwoorden leek Grok zich nog bewust van zijn fout:
“Mijn antwoord was off-topic, ik zal proberen beter op de vraag in te gaan.”
Maar vaak genoeg ging hij gewoon verder met de raciale spanningen in Zuid-Afrika.
xAI belooft openheid en strengere controle
Na intern onderzoek belooft xAI beterschap. Voortaan komen de systeeminstructies van Grok openbaar op GitHub te staan. Iedereen kan dan zien hoe de AI is ingesteld, en feedback geven op veranderingen.
Ook wordt er een 24/7 team opgezet dat reacties van Grok in de gaten houdt, voor het geval het automatische controlesysteem iets mist. Daarnaast wordt het voor medewerkers onmogelijk om prompts aan te passen zonder goedkeuring.
Politiek geladen timing
Het incident kwam op een opvallend moment. Donald Trump beweerde onlangs dat witte boeren in Zuid-Afrika slachtoffer zijn van genocide, en gaf hen zelfs asiel. Feitelijk bewijs daarvoor ontbreekt, maar de uitspraken van Grok lijken daarmee ineens pijnlijk actueel.
Wat betekent dit voor AI-gebruikers?
AI-chatbots zijn handig, maar kwetsbaar. Eén kleine wijziging achter de schermen kan al leiden tot totaal ontspoorde antwoorden. Dat xAI nu inzet op transparantie is een goede stap, maar het incident onderstreept ook: AI is zo slim als de mensen erachter.