Nieuw AI Bedrijf SSI Gaat AI Veiligheid Verbeteren

Nieuwe Start voor Voormalig OpenAI Wetenschapper
Ilya Sutskever, medeoprichter en voormalig hoofdwetenschapper van OpenAI, heeft samen met Daniel Levy en Daniel Gross een nieuw bedrijf opgericht: Safe Superintelligence, Inc. (SSI). Met kantoren in Palo Alto en Tel Aviv richt SSI zich op het veiliger en capabeler maken van kunstmatige intelligentie (AI).
Het doel van SSI is duidelijk: AI ontwikkelen met een sterke focus op veiligheid en vooruitgang. De oprichters benadrukken dat ze geen afleiding willen van managementtaken of productcycli. Ze willen de veiligheid, beveiliging en vooruitgang van AI beschermen tegen commerciële druk op korte termijn.
Waarom AI Veiligheid Belangrijk Is
Sutskever verliet OpenAI in mei, na een rol te hebben gespeeld bij het ontslag van CEO Sam Altman. Kort daarna volgde Daniel Levy. Samen met Jan Leike leidde Sutskever het Superalignment team van OpenAI, opgericht om zeer geavanceerde AI-systemen te sturen en controleren. Na hun vertrek in mei ontbond OpenAI dit team, ondanks eerdere verdedigingsberichten over hun veiligheidsmaatregelen.
Zorgen in de Tech Wereld
Veel techleiders maken zich zorgen over de toekomst van AI. Ethereum medeoprichter Vitalik Buterin noemde AI risicovol, maar vond bedrijfsmegalomanie en militaire toepassingen nog gevaarlijker. Tesla CEO Elon Musk en Apple medeoprichter Steve Wozniak riepen op tot een pauze in AI-ontwikkeling om de risico’s beter te begrijpen.
SSI is op zoek naar ingenieurs en onderzoekers om hun team te versterken. Deze stap toont de groeiende bezorgdheid over AI en de noodzaak om veiligheid centraal te stellen in de ontwikkeling van deze technologie.
Volg Crypto.nl voor meer updates en diepgaande analyses over AI en andere technologische innovaties.