Sutskever verovert AI-goud met $1 miljard steun voor superintelligente AI

Ilya Sutskever, hoofdwetenschapper van OpenAI, spreekt op 5 juni 2023 aan de Universiteit van Tel Aviv.
Toename / Ilya Sutskever, hoofdwetenschapper van OpenAI, spreekt op 5 juni 2023 aan de Universiteit van Tel Aviv.

Woensdag meldde Reuters dat Safe Superintelligence (SSI), een nieuwe AI-startup mede opgericht door voormalig OpenAI-hoofdwetenschapper Ilya Sutskever, 1 miljard dollar aan financiering had opgehaald. Het drie maanden oude bedrijf is van plan zich te concentreren op de ontwikkeling van zogenaamde ‘veilige’ AI-systemen die de menselijke capaciteiten te boven gaan.

Uit de fondsenwervingsinspanningen blijkt dat zelfs te midden van een groeiend scepticisme over massale investeringen in AI-technologie die tot nu toe niet winstgevend zijn geweest, sommige geldschieters nog steeds bereid zijn grote inzetten te plaatsen op spraakmakend talent in fundamenteel AI-onderzoek. Durfkapitaalbedrijven zoals Andreessen Horowitz, Sequoia Capital, DST Global en SV Angel namen deel aan de financieringsronde van SSI.

SSI streeft ernaar nieuwe bronnen te benutten voor rekenkracht en het aantrekken van talent. Met momenteel slechts tien werknemers is het bedrijf van plan een groter team van onderzoekers op te bouwen op locaties in Palo Alto, Californië en Tel Aviv, meldde Reuters.

Hoewel SSI de waardering niet officieel heeft bekendgemaakt, vertelden bronnen aan Reuters dat de waarde ervan op 5 miljard dollar werd geschat – een duizelingwekkend bedrag slechts drie maanden nadat het bedrijf werd opgericht en waarvoor nog geen algemeen bekende producten zijn ontwikkeld.

Zoon van OpenAI

OpenAI-hoofdwetenschapper Illya Sutskever spreekt op TED AI 2023.
Toename / OpenAI-hoofdwetenschapper Illya Sutskever spreekt op TED AI 2023.

Ben Edwards

Net als Anthropic ervoor, werd SSI opgericht als een spin-off bedrijf dat gedeeltelijk werd opgericht door voormalige OpenAI-medewerkers. Sutskever, 37, was medeoprichter van SSI samen met Daniel Gross, die eerder leiding gaf aan AI-initiatieven bij Apple, en Daniel Levy, een voormalig OpenAI-onderzoeker.

Het vertrek van Sutskever bij OpenAI volgt op een moeilijke periode bij het bedrijf, die naar verluidt gepaard ging met teleurstelling dat het management van OpenAI niet voldoende middelen had besteed aan zijn ‘superalignment’-onderzoeksteam, en vervolgens de betrokkenheid van Sutskever bij de korte afzetting van OpenAI-CEO Sam Altman afgelopen november. Nadat hij in mei OpenAI verliet, zei Sutskever dat zijn nieuwe bedrijf dat zou doen “streef naar trefzekere superintelligentie in een voltreffer, met één focus, één doel en één product.”

Superintelligentie is, zoals we eerder hebben opgemerkt, een vage term voor een hypothetische technologie die de menselijke intelligentie ver zou overtreffen. Er is geen garantie dat Sutskever zal slagen in zijn missie (en er zijn veel sceptici), maar de sterrenmacht die hij heeft verworven met zijn academische bonafide kennis en zijn rol als belangrijke medeoprichter van OpenAI heeft het relatief eenvoudig gemaakt om geld in te zamelen voor zijn nieuwe bedrijf.

Het bedrijf is van plan enkele jaren aan onderzoek en ontwikkeling te besteden voordat het product op de markt komt, en de zelfbenoemde focus op ‘AI-beveiliging’ komt voort uit de overtuiging dat er krachtige AI-systemen in aantocht zijn die existentiële risico’s voor de mensheid kunnen veroorzaken. .

Het onderwerp ‘AI-beveiliging’ heeft geleid tot discussie in de technologie-industrie, waarbij AI-bedrijven en experts verschillende standpunten innemen over voorgestelde veiligheidsregels, waaronder de controversiële SB-1047 in Californië, die binnenkort wet zou kunnen worden. Omdat het onderwerp existentiële risico’s van AI nog steeds hypothetisch is en vaak wordt ingegeven door persoonlijke meningen in plaats van door wetenschap, is het onwaarschijnlijk dat de controverse snel zal verdwijnen.