‘Grote ego’s in het spel’: achter de ontslagen en nieuwe aanstelling van OpenAI bij Sam Altman | kunstmatige intelligentie (AI)

Het rommelige ontslag en het opnieuw aanwerven van zijn krachtige CEO door OpenAI deze week schokte de technologiewereld. Maar de machtsstrijd heeft gevolgen die verder reiken dan de bedrijfsbesturen, zeggen experts op het gebied van kunstmatige intelligentie. Dat verlicht de groenheid van de AI-industrie en het sterke verlangen van Silicon Valley om de eerste te zijn, en roept prangende vragen op over de veiligheid van de technologie.

“De AI waar we nu naar kijken is onvolwassen. Er zijn geen normen, geen beroepsorganisaties, geen certificaten. Iedereen is aan het uitzoeken hoe het moet, en is bezig met het uitzoeken van hun interne normen”, zegt Rayid Ghani, hoogleraar machine learning en openbaar beleid aan de Carnegie Mellon University. “De AI die wordt gebouwd is afhankelijk van een handjevol mensen die het bouwen, en de impact van dat handjevol mensen is onevenredig groot.”

Het conflict tussen Sam Altman en de raad van bestuur van OpenAI begon vrijdag met de onverwachte aankondiging dat het bestuur Altman had ontslagen als CEO omdat hij ‘niet consequent eerlijk was in zijn communicatie met het bestuur’.

De blogpost kwam met weinig waarschuwing, zelfs voor de minderheidseigenaar van OpenAI, Microsoft, die ongeveer $13 miljard in de startup heeft geïnvesteerd.

Het bestuur benoemde een interim-CEO, Mira Murati, en vervolgens Chief Technology Officer van OpenAI, maar had zondag een andere gekozen, voormalig Twitch-CEO Emmet Shear. Altman keerde dezelfde dag terug naar het hoofdkantoor van de startup voor onderhandelingen; Die avond maakte Microsoft bekend dat het hem had ingehuurd om een ​​nieuwe kunstmatige intelligentie-eenheid te leiden.

Maandag ondertekende meer dan 95% van de ongeveer 750 werknemers van OpenAI een open brief waarin ze beweerden dat ze zouden stoppen als Altman niet zou worden hersteld; Tot de ondertekenaars behoorden Murati en de man waarvan velen dachten dat hij de architect was van de afzetting van Altman, mede-oprichter en hoofdwetenschapper van OpenAI, Ilya Sutskever.

Kale man voor podium Ted prop ion.
Mede-oprichter van OpenAI Ilya Sutskever, volgens velen achter de afzetting van Altman, op de Ted AI-conferentie in San Francisco op 17 oktober 2023. Foto: Glenn Chapman/AFP/Getty Images

Woensdag was Altman terug als CEO. De raad van bestuur van OpenAI werd opnieuw samengesteld zonder Altman en bedrijfsvoorzitter Greg Brockman, die uit solidariteit aftrad maar ook werd hersteld, en zonder de twee leden die stemden om hen te ontslaan.

Bij gebrek aan inhoudelijke regulering van bedrijven die AI maken, worden de zwakheden en eigenaardigheden van de makers ervan enorm belangrijk.

Op de vraag wat de OpenAI-saga zou kunnen betekenen voor eventuele komende AI-regelgeving, zei het Britse ministerie van Wetenschap, Innovatie en Technologie (DSIT) in een verklaring: “Aangezien dit een commerciële beslissing is, is het niet iets dat DSIT commentaar behoeft.” In de VS gaf het Witte Huis ook geen commentaar. Senatoren Richard Blumenthal uit Connecticut en Josh Hawley uit Missouri, de voorzitters van de subcommissie van de Amerikaanse Senaat die eerder dit jaar toezicht hield op de getuigenis van Altman, reageerden niet op verzoeken om commentaar; Blumenthal en Hawley stelden een tweeledige AI-wetgeving voor ‘om vangrails te plaatsen’.

In een meer volwassen sector zou regelgeving consumenten en consumentenproducten beschermen tegen onderlinge strijd aan de top, zei Ghani. Individuele AI-makers zouden er niet zoveel toe doen, en hun gekibbel zou minder impact hebben op het publiek.

“Het is te riskant om op één persoon te vertrouwen als woordvoerder van AI, vooral als die persoon verantwoordelijk is voor de bouw. Het mag niet zelfregulerend zijn. Wanneer werkte het? We hebben geen zelfregulering op wat er toe doet, waarom zouden we dat hier wel doen?” vroeg.

De politieke strijd om AI

De strijd bij OpenAI heeft ook het gebrek aan transparantie in de besluitvorming binnen het bedrijf benadrukt. De ontwikkeling van geavanceerde AI is in handen van een klein, geheimzinnig kader dat achter gesloten deuren opereert.

“We hebben geen idee hoe een verandering in het personeel bij OpenAI de aard van ChatGPT of Dall-E zou veranderen,” zei Ghani. Momenteel is er geen overheidsinstantie die programma’s als ChatGPT test en zijn bedrijven niet transparant over updates. Vergelijk dat eens met iPhone- of Android-software-updates, waarin wijzigingen en oplossingen worden vermeld voor de software van het apparaat dat u in uw hand houdt.

“Momenteel hebben we geen openbare manier van kwaliteitscontrole. Elke organisatie zal dit voor zijn eigen gebruiksscenario’s doen”, zei hij. “Maar we hebben een manier nodig om continu tests uit te voeren op zaken als ChatGPT en de resultaten te monitoren om de resultaten voor mensen te profileren en de risico’s te verminderen. Als we zo’n tool hadden, zou het bedrijf minder kritisch zijn. Onze enige hoop is dat de mensen die het bouwen weten wat ze doen.”

Paul Barrett, adjunct-directeur van het Center for Business and Human Rights aan de business school van de Universiteit van New York, was het daarmee eens en riep op tot regelgeving die AI-makers zou verplichten de veiligheid en werkzaamheid van hun producten aan te tonen zoals farmaceutische bedrijven dat doen.

“De strijd om de controle over OpenAI is een heilzame herinnering aan de volatiliteit binnen deze relatief onvolwassen tak van de digitale industrie en het gevaar dat belangrijke beslissingen over de bescherming van AI-systemen kunnen worden beïnvloed door de machtsstrijd van bedrijven. Er staan ​​enorme hoeveelheden geld – en enorme ego’s – op het spel. Oordelen over wanneer onvoorspelbare AI-systemen veilig aan het publiek kunnen worden vrijgegeven, mogen niet door deze factoren worden bepaald”, zei hij.

Acceleratie c vertragen

De kloof tussen Altman en het bestuur leek op zijn minst gedeeltelijk langs ideologische lijnen te verlopen, waarbij Altman en Brockman zich in een kamp bevonden dat bekend staat als ‘accelerators’ – mensen die vinden dat AI zo snel mogelijk moet worden ingezet – en ‘retarders’ – mensen die zij Ik ben van mening dat de ontwikkeling ervan langzamer en met sterkere hekken moet plaatsvinden. Met de terugkeer van Altman pakt de voormalige groep de buit.

“De mensen die deze zaak lijken te hebben gewonnen zijn de acceleratie-aanhangers”, zegt Sarah Kreps, hoogleraar regering aan Cornell en directeur van het Instituut voor Technisch Beleid aan de school voor openbaar beleid van de universiteit.

sla de nieuwsbriefpromotie over

Kreps zei dat we een herboren OpenAI zouden kunnen zien die volledig voldoet aan de mantra van Met-CEO Mark Zuckerberg: ‘Beweeg snel en maak dingen kapot’. Medewerkers stemden met hun voeten in het debat tussen sneller of zorgvuldiger handelen, merkte ze op.

“Wat we gaan zien is dat er op volle kracht vooruitgang wordt geboekt in het onderzoek naar kunstmatige intelligentie. Dan is de vraag: zal het volledig onveilig zijn of zal het vallen en opstaan ​​zijn? OpenAI kan het model van Facebook volgen om snel te handelen en te begrijpen dat een product niet altijd compatibel is met een sociaal goed”, zei ze.

Kreps zei dat wat de AI-wapenwedloop tussen OpenAI, Google, Microsoft en andere technologiegiganten versnelt, het enorme kapitaal is en een brandend verlangen om de eerste te zijn. Als het ene bedrijf geen doorbraak bereikt, zal het andere dat wel doen – en snel. Dit leidt tot minder voorzichtigheid.

Een grijs gebouw van drie verdiepingen met witte randen.
Het Pioneer Building, het hoofdkantoor van OpenAI, in San Francisco, Californië. Foto: John G Mabanglo/EPA

“Het voormalige leiderschap van OpenAI zei de juiste dingen over risicobewustzijn, maar naarmate er meer geld in AI stroomt, is er meer prikkel om sneller te handelen en minder aandacht aan die risico’s te besteden”, zei ze.

Volle vaart vooruit

Een worstelwedstrijd in Silicon Valley heeft de zakelijke toekomst van de prominente startup en zijn vlaggenschipproduct, ChatGPT, in twijfel getrokken. Altman was de afgelopen weken op wereldtournee als AI-ambassadeur. Hij sprak enkele dagen daarvoor met Joe Biden, de Chinese Xi Jingping en andere diplomaten op de Apec-conferentie in San Francisco. Twee weken eerder debuteerde hij met de mogelijkheid voor ontwikkelaars om hun eigen versies van ChatGPT te bouwen op een spannende demodag die werd bijgewoond door Microsoft-CEO Satya Nadella, die een sterke samenwerking met Altman smeedde en zijn bedrijf aan de jongere man pitchte.

Hoe konden naties, strategische partners en klanten OpenAI vertrouwen als de eigen heersers het in zo’n wanorde brachten?

“Het feit dat het bestuur geen duidelijke verklaring heeft afgelegd over de redenen voor het ontslaan van Altman, zelfs niet tegenover de CEO die het bestuur heeft aangenomen, ziet er echt slecht uit”, zegt Derek Leben, hoogleraar ethiek aan de business school van Carnegie Mellon. Altman, zei Leben, kwam als overwinnaar uit de PR-oorlog tevoorschijn en was de hoofdpersoon van het verhaal. Kreps was het daarmee eens.

In het voordeel van de vertragers, zei Leben, bewees de sage dat ze hun zorgen serieus nemen, zo niet onaangenaam. AI-sceptici hebben Altman en anderen bekritiseerd voor het voorspellen van de ondergang voor AI in de toekomst, met het argument dat dergelijke zorgen voorbijgaan aan de echte schade die AI vandaag aanricht en alleen de makers van AI verheerlijken.

‘Het feit dat mensen bereid zijn een bedrijf in brand te steken, suggereert dat ze de beveiliging niet alleen als rookgordijn gebruiken voor een bijbedoeling. Ze zijn eerlijk als ze zeggen dat ze bereid zijn het bedrijf te sluiten om slechte resultaten te voorkomen”, zei hij.

Eén ding dat de OpenAI-opvolgingsoorlog niet zal doen, is de trage ontwikkeling van AI, zijn experts het erover eens.

“Ik maak me minder zorgen over AI-beveiliging. Ik denk dat kunstmatige intelligentie veilig zal zijn, ten goede of ten kwade. Ik maak me zorgen over de mensen die het moeten gebruiken”, zei Gani.

Johana Bhuiyan heeft bijgedragen aan de rapportage