AI-giganten in de aanval: OpenAI en xAI bouwen aan megastructuren voor AI-kracht

OpenAI en xAI vechten om de toekomst van AI
De strijd om wie de meeste rekenkracht kan leveren voor kunstmatige intelligentie is losgebarsten. Aan de ene kant staat OpenAI, dat samen met Oracle hun Stargate-project uitbreidt tot meer dan 5 gigawatt. Aan de andere kant kondigt Elon Musk aan dat zijn AI-bedrijf xAI binnen vijf jaar vijftig miljoen krachtige AI-units wil inzetten. Het zijn plannen van ongekende schaal, die duidelijk maken dat AI de volgende infrastructuurrevolutie is.
OpenAI schroeft Stargate-project op tot boven 5 GW
OpenAI wil met het Stargate-project AI-infrastructuur aanleggen die goed is voor miljoenen chips. Het bedrijf heeft nu een uitbreiding van 4,5 gigawatt aangekondigd in samenwerking met Oracle. Daarmee komt de totale geplande capaciteit boven de 5 gigawatt uit. Dat is genoeg om meer dan twee miljoen AI-chips van stroom te voorzien.
Het project maakt deel uit van OpenAI’s ambitie om 10 gigawatt aan rekenkracht te realiseren in de VS. CEO Sam Altman noemde het “een gigantisch infrastructuurproject” en deelde beelden van het terrein in Texas, waar al gebouwd wordt. Volgens hem zijn eind dit jaar meer dan een miljoen GPU’s online.
Wat is rekenkracht in gigawatt?
Bij AI draait alles om rekenkracht. Die wordt geleverd door chips, zoals GPU’s (Graphics Processing Units). Al die chips verbruiken enorm veel stroom. Hoe meer gigawatt je beschikbaar hebt, hoe meer AI-modellen je tegelijk kunt draaien of trainen.
Elon Musk wil tien keer groter gaan met xAI
Elon Musk kwam vrijwel gelijktijdig met zijn eigen AI-plannen. Zijn bedrijf xAI wil binnen vijf jaar genoeg infrastructuur opzetten om vijftig miljoen H100-equivalenten aan AI-rekenkracht te draaien. Die H100’s zijn krachtige chips van Nvidia die veel gebruikt worden voor AI-training.
Ter vergelijking: één jaar geleden was de krachtigste AI-supercomputer ter wereld goed voor slechts 0,1 miljoen H100’s. Musk wil dat dus 500 keer overtreffen. Binnenkort komt ook xAI’s eerste supercomputer, Colossus 2, online. Die draait op 550.000 GB200-chips, wat gelijk staat aan zo’n 5,5 miljoen H100’s.
Stargate loopt tegen vertragingen aan
Toch is niet alles rozengeur en maneschijn bij OpenAI. Volgens The Wall Street Journal is het Stargate-project vertraagd door interne discussies tussen partners zoals SoftBank en OpenAI. Hoewel het plan was om dit jaar al $100 miljard te investeren in meerdere datacenters, lijkt dat nu beperkt te blijven tot één operationeel centrum aan het eind van het jaar.
Wat betekent dit voor crypto en AI?
Deze race om rekenkracht laat zien hoe belangrijk infrastructuur is voor de toekomst van AI. De groei van taalmodellen, zoals ChatGPT of andere opkomende AI’s, vereist een enorme hoeveelheid energie en hardware. Dat heeft ook invloed op de cryptowereld, waar AI steeds vaker wordt ingezet voor analyse, handel en fraudedetectie.
Conclusie
OpenAI en xAI maken duidelijk dat de toekomst van AI draait om schaal, energie en snelheid. Of het nu om vijf of vijftig miljoen chips gaat: wie de infrastructuur beheerst, beheerst de AI-wereld. De vraag is wie als eerste levert, en tegen welke kosten.
Veelgestelde vragen
Wat is een H100-chip?
De H100 is een geavanceerde AI-chip van Nvidia, ontworpen voor zware rekentaken zoals het trainen van grote taalmodellen.
Waarom is 5 gigawatt zo veel?
Vijf gigawatt is genoeg om miljoenen AI-chips tegelijk te laten draaien. Het is vergelijkbaar met het stroomverbruik van een middelgrote stad.
Heeft dit impact op crypto?
Ja. AI wordt steeds vaker ingezet in crypto, bijvoorbeeld voor handelsstrategieën, marktanalyse en risicobeheer. Meer rekenkracht betekent snellere en slimmere toepassingen.