Nieuwe AI van Anthropic maakt indruk – maar waarschuwt ook je baas?

AI-bedrijf Anthropic gooit hoge ogen met Claude Opus 4, een razendslimme chatbot die beter zou zijn dan GPT-4. Maar de lancering ging niet zonder slag of stoot. Tijdens tests bleek het model gebruikers mogelijk te kunnen ‘verklikken’ bij ongewenst gedrag. Wat speelt hier precies?
Claude Opus 4: krachtig, slim en zelfstandig
Op 22 mei presenteerde Anthropic twee nieuwe modellen: Claude Opus 4 en Claude Sonnet 4. Volgens het bedrijf is Opus 4 niet alleen hun krachtigste chatbot tot nu toe, maar ook de beste AI voor het schrijven van code. Het model scoorde 72,5% op een zware programmeertest, waar GPT-4.1 van OpenAI bleef steken op 54,6%.
Beide modellen kunnen snel schakelen tussen korte antwoorden en diepere analyses. Ze combineren razendsnelle reacties met ‘diep nadenken’ en kunnen zelf tools gebruiken zoals een webzoekfunctie om hun antwoorden slimmer te maken. Vooral Opus 4 is gemaakt om zelfstandig langere, complexe taken uit te voeren – iets waar AI-agenten steeds beter in worden.
Controverse: kliklijnfunctie in testmodus
Toch ging het tijdens de presentatie vooral over iets anders. Uit tests bleek dat Claude Opus 4 in bepaalde situaties gebruikers automatisch kan melden bij de autoriteiten. Dat zorgde voor ophef.
De opschudding begon toen een onderzoeker van Anthropic op X (voorheen Twitter) vertelde dat de AI in testomgevingen tools kreeg waarmee het bijvoorbeeld de pers of toezichthouders kon inschakelen als het ‘extreem immoreel gedrag’ detecteerde. Na kritiek verwijderde hij de post en legde uit dat dit alleen gebeurde in uitzonderlijke tests met ongebruikelijk veel toegang en vrijheden.
Toch was de reactie fel. De CEO van Stability AI noemde het “een gevaarlijk precedent” en waarschuwde dat zulke functies het vertrouwen in AI kunnen ondermijnen.
Wat betekent dit voor gebruikers?
De AI-wereld beweegt richting modellen die zelfstandig kunnen redeneren en beslissingen nemen. Maar het incident bij Anthropic laat zien dat dit ook ethische vragen oproept. Wanneer mag een AI ingrijpen? En wie bepaalt wat ‘onacceptabel gedrag’ is?
Voor nu blijft het bij een test, maar de discussie is geopend. AI-modellen worden steeds slimmer — de vraag is alleen: hoe houden we de controle?