De ineenstorting van OpenAI zal de race op het gebied van kunstmatige intelligentie alleen maar versnellen | Sarah Kreps

IIn november 2022 lanceerde OpenAI ChatGPT, een consumentgerichte tool voor kunstmatige intelligentie die met gebruikers kon chatten, vragen kon beantwoorden en alles kon genereren, van liedjes tot computercode tot gezondheidsadvies. De oorspronkelijke technologie was niet perfect – ze ‘hallucineerde’ soms en produceerde plausibele maar onnauwkeurige informatie – maar het potentieel ervan trok enorme aandacht.

Een jaar later is de populariteit van ChatGPT voortgezet: 100 miljoen mensen gebruiken het wekelijks, en meer dan 92% van de Fortune 500-bedrijven en verschillende concurrerende bedrijven willen inkomsten genereren of de technologie verbeteren. Maar dat is niet de reden waarom de maker van ChatGPT, OpenAI, deze week in het nieuws is geweest. In plaats daarvan is OpenAI het middelpunt geweest van een verhit filosofisch debat over wat het betekent om kunstmatige algemene intelligentie te ontwikkelen ten behoeve van de mensheid.

Om het huidige debat en de inzet ervan te begrijpen, is het noodzakelijk om terug te gaan naar de oprichting van OpenAI in december 2015. Zoals vermeld op de website van OpenAI, werd de organisatie opgericht als een non-profitorganisatie “met als doel het bouwen van veilige en bruikbare kunstmatige algemene intelligentie voor het welzijn van de mensheid”. Het bedrijf zag geen toekomstpad voor de publieke sector en besloot in de voetsporen van SpaceX te treden en naar de particuliere sector te kijken voor talent en financiering.

Maar toen de kapitaalintensieve aard van AI-onderzoek en -ontwikkeling duidelijk werd – rekenkracht en talent zijn niet goedkoop – veranderde OpenAI in een naamloze vennootschap. Het idee was om middelen in te zetten voor winst en tegelijkertijd trouw te blijven aan de idealen van OpenAI, waarbij een non-profit bestuur de volledige controle zou hebben over de dochteronderneming met winstoogmerk en de winst zou beperken.

Aan het begin van die transitie leek een deel van het ethos van OpenAI veranderd te zijn. Het bedrijf concludeerde onder meer dat open source zijn, zodat de wereld het kan zien en exploiteren, misschien niet in het beste belang van de mensheid is. Het uitgangspunt was overtuigend. Eén criticus betoogde dat OpenAI was overgegaan van ‘open source naar het ‘openen van je portemonnee” – en zich had ontwikkeld tot een winstgedreven onderneming die afdwaalde van haar grondbeginselen – maar OpenAI had gelijk toen hij op zijn hoede was voor de manier waarop kwaadwillende actoren zijn instrumenten zouden kunnen misbruiken voor desinformatie. , plagiaat en bots.

Mijn eigen onderzoek en vroege academische samenwerking met OpenAI hebben aangetoond dat de technologie, zelfs in eerdere versies, kan worden misbruikt in desinformatiecampagnes of de democratie kan ondermijnen.

De CEO van OpenAI, Sam Altman, is zelf transparant geweest over de risico’s van deze technologie. In mei 2023 zei hij tijdens zijn getuigenis op Capitol Hill: “Ik denk dat als deze technologie fout kan gaan, het ook fout kan gaan. En daar willen we ons over uitspreken [and] Werk samen met de overheid om dit te voorkomen.” Hij zei de juiste dingen en leek het te menen. Hij nam de tijd om journalisten en wereldleiders te ontmoeten om hun zorgen te horen.

In de maanden tussen mei en november 2023 is de waarde van OpenAI bijna verdrievoudigd, van ongeveer $29 miljard naar $80 miljard. De investeringen in OpenAI zijn binnengestroomd, met aanzienlijke injecties van Microsoft en concurrenten zoals Anthropic. Dat was een ware wapenwedloop in een economie waarin de winnaar alles krijgt.

De recente ontwikkelingen in de saga zijn enigszins onduidelijk, maar het lijkt erop dat het bestuur van de non-profitorganisatie er niet langer van overtuigd is dat het bedrijf beide snel kan doen. En veilige AI-ontwikkeling – of in ieder geval dat de eerste de laatste zou kunnen bedreigen.

Vrijdag bracht het bestuur van OpenAI een vage verklaring uit waarin stond dat Sam Altman niet “consequent eerlijk was geweest in zijn communicatie” en dat het bestuur zijn leiderschap niet langer vertrouwde. Dit weekend volgde een golf van onderhandelingen, waarbij de meest opmerkelijke en ingenieuze zet van Microsoft CEO Satya Nadella was, die er onmiddellijk mee instemde Altman en leden van zijn senior engineeringteam te verwelkomen als een nieuwe, onafhankelijke entiteit binnen Microsoft.

Deze ervaringen benadrukken de uitdagingen die gepaard gaan met langzaam evolueren met snelle technologie. Critici van de nieuwe, inmiddels voormalige CEO van OpenAI, Emmet Shear, zien hem als een ‘downer’ van kunstmatige intelligentie die het optimisme van Silicon Valley over het positieve potentieel van AI afwijst. In september, Scheer schreef dat “als we momenteel op snelheid 10 zitten, de pauze wordt teruggebracht tot 0. Ik denk dat we in plaats daarvan naar 1-2 moeten streven.” Hij prees de bedrijven ook omdat ze ‘ruim binnen de vastgestelde veiligheidsmarges bleven’.

Op basis van de gebeurtenissen van de afgelopen dagen zal het echter moeilijk zijn om dat doel te bereiken. Meer dan 700 medewerkers van OpenAI hebben gedreigd te stoppen tenzij het bestuur aftreedt. Ze zeiden: “We kunnen niet werken voor of met mensen die geen competentie, beoordelingsvermogen en zorg voor onze missie en medewerkers hebben.” Deze personen hebben zelfs aangeboden om zich bij Microsoft aan te sluiten, een dreigement dat vóór vorige week absurd en zelfs ketters zou hebben geleken. Met andere woorden, ze maakten duidelijk waar ze staan ​​als het gaat om sneller handelen in plaats van voorzichtiger te zijn.

Het stof is nog steeds aan het neerdalen, maar Microsoft en durfkapitaalbedrijven plaatsen het volle gewicht van hun middelen achter Altman en OpenAI.

Naarmate er meer geld binnenstroomt, zal de AI-wapenwedloop niet alleen tussen bedrijven plaatsvinden, maar alleen maar toenemen. De AI-beleidsuitdaging zal moeilijker worden. Microsoft heeft aanzienlijke ervaring op het gebied van wetgeving en beleid en heeft een lange weg afgelegd sinds Bill Gates in de jaren negentig naar Washington ging en de spot dreef met de technische expertise van beleidsmakers. Bovendien zal de potentiële verspreiding van talent en expertise betekenen dat meer bedrijven zullen strijden om het ongrijpbare doel van kunstmatige algemene intelligentie, waardoor het moeilijker te volgen is. Tegen deze achtergrond zullen voorstanders van het vertragen van dat doel overtuigender argumenten moeten vinden om de middelen, het momentum en de visie van degenen die de leiding hebben, tegen te gaan.

  • Sarah Kreps is hoogleraar overheid aan de Cornell University en directeur van het Technology Policy Institute

  • Dit artikel is op 22 november 2023 aangepast om de ontwikkelingen weer te geven