Sora: OpenAI’s Geheime AI-Tool Uitgelekt door Boze Kunstenaars
OpenAI’s veelbelovende tekst-naar-video-tool Sora is onlangs op spectaculaire wijze uitgelekt. Een groep kunstenaars en testers, die claimt onrechtvaardig behandeld te zijn, publiceerde toegang tot de tool als protest tegen OpenAI.
Waarom het protest?
De groep, die zichzelf “PR-Puppets” noemt, zegt dat ze tijdens de testfase misleid zijn. Volgens hen heeft OpenAI hen gepresenteerd als “creatieve partners” en testers die zouden helpen de tool te verbeteren. In werkelijkheid zou het gaan om gratis arbeidskrachten die zonder erkenning of compensatie bugtesten uitvoerden en feedback gaven. Dit noemen ze “art washing”: het promoten van Sora als een kunstvriendelijke tool, terwijl de kunstenaars buitenspel staan.
Hun boodschap was duidelijk: ze voelden zich gebruikt door een bedrijf dat nu naar verluidt $157 miljard waard is.
Wat is er precies uitgelekt?
Op 26 november plaatsten de PR-Puppets een front-end versie van Sora op het AI-platform HuggingFace, waarmee iedereen toegang had tot de tool. Hoewel OpenAI het snel offline haalde, waren er al talloze video’s gemaakt en gedeeld op sociale media.
De uitgelekte versie zou een snellere “turbo”-variant zijn, met code die wijst op toekomstige functies zoals meer controle over videostijlen en personalisatie. Filmregisseur Huang Lu liet op X weten onder de indruk te zijn: “Het is indrukwekkend hoe goed de tool armen en benen verwerkt,” schreef hij, samen met een voorbeeldvideo.
Wat maakt Sora bijzonder?
Sora, geïntroduceerd in februari 2024, staat bekend om zijn vermogen om hyperrealistische video’s te genereren op basis van eenvoudige tekstopdrachten. Volgens eerdere rapporten heeft OpenAI de tool getraind met honderden miljoenen uren aan videoclips. Het resultaat? Een tool die moeiteloos verschillende stijlen aankan en video’s produceert die nauwelijks van echt te onderscheiden zijn.
Hoe gaat OpenAI hiermee om?
Voor nu heeft OpenAI nog niet gereageerd op het lek. Dit incident roept echter vragen op over hoe AI-bedrijven omgaan met testers en creatieve bijdragers. Vooral in een tijd waarin de rol van AI snel groeit, is transparantie cruciaal.
Wat betekent dit voor de toekomst?
Het lek van Sora onderstreept de spanning tussen grote AI-bedrijven en hun creatieve community. Voor kunstenaars en ontwikkelaars is het essentieel dat hun werk eerlijk wordt erkend en beloond. Voor bedrijven zoals OpenAI kan dit een wake-upcall zijn om ethischer te handelen in hun samenwerking met de creatieve sector.