Waarom AI nog lang niet denkt als een mens

AGI, oftewel Artificial General Intelligence, klinkt als de heilige graal van tech. Maar volgens Apple zitten we daar nog ver vandaan. In een recent onderzoek stelt het bedrijf dat zelfs de nieuwste AI-modellen wel slimme antwoorden kunnen geven, maar nog steeds niet écht kunnen redeneren.
Slim doen, maar niet slim zijn
Apple onderzocht populaire AI-chatbots zoals ChatGPT, Claude en DeepSeek. De onderzoekers lieten deze modellen puzzels oplossen die nét wat dieper gingen dan standaard reken- of codeervragen. Wat bleek? Zodra het wat ingewikkelder werd, haakten de modellen af.
Sommige AI’s gaven zelfs in het begin het juiste antwoord, maar dachten zichzelf vervolgens in de war—een soort digitale overdenkers. In plaats van logisch redeneren, imiteren ze het alleen. Ze volgen geen heldere stappen en passen geen echte algoritmes toe. Het lijkt slim, maar is vaak gewoon goed gokken.
Geen echte denkers
Het probleem zit deels in hoe we AI evalueren. Veel testen richten zich alleen op het eindantwoord. Apple’s onderzoekers wijzen erop dat dit niets zegt over hóé het antwoord tot stand komt. En als een AI niet leert om te redeneren, dan kun je moeilijk spreken van ‘intelligentie’.
Ondertussen zijn bedrijven als OpenAI en Anthropic juist optimistisch. OpenAI’s CEO Sam Altman zei eerder dit jaar dat ze ‘weten hoe ze AGI moeten bouwen’. Anthropic voorspelt zelfs dat het binnen een paar jaar zover is. Maar Apple laat zien dat de realiteit weerbarstiger is.
Wat betekent dit voor jou?
Voor crypto-investeerders en tech-volgers is dit belangrijk. Veel innovaties, ook binnen blockchain en Web3, leunen steeds meer op AI. Maar als de fundamenten nog wankel zijn, moeten we kritisch blijven kijken naar wat AI wel en niet kan. Een chatbot die overtuigend praat, is nog geen denker.
Kortom: AI is goed in doen-alsof, maar écht menselijk denken? Daar zijn we nog lang niet.