Waarom het gokken van miljarden dollars bij Zuckerberg niet alleen van belang is voor Meta | Kunstmatige intelligentie (AI)

De uitgaven aan kunstmatige intelligentie zouden een duizelingwekkende $1 miljard kunnen bereiken, volgens analisten die zich zorgen maken over de vraag of een dergelijke verschuiving iets zal opleveren. De reactie van Mark Zuckerberg op deze nervositeit deze week was het gratis uitbrengen van zijn nieuwste kunstmatige-intelligentiesysteem.

Meta’s Llama 3.1 405B is de krachtigste tot nu toe, zegt hij, en een van de meest capabele ter wereld. Hoewel het technologiebedrijf niet heeft onthuld hoeveel de training kost, heeft Zuckerberg, mede-oprichter en CEO, eerder een investering van $10,5 miljard (£8,9 miljard) onthuld in alleen de chips die nodig zijn om zijn AI-datacenters van stroom te voorzien – met alleen Andere elektronica. elektriciteit en het fysieke gebouw zijn daarbovenop extra kosten.

Toch brengt de moedermaatschappij van Facebook en Instagram je, ondanks de exorbitante kosten, niets in rekening. Als je een computer kunt krijgen die krachtig genoeg is om hem te laten draaien, hoef je Zuckerberg geen cent te betalen.

Maar of die gok vruchten zal afwerpen, is niet alleen voor Meta: een grote gok van investeerders en Meta’s technische collega’s hangt af van dezelfde vraag.

In juni publiceerden analisten van Goldman Sachs een notitie met de sceptische kop: “Gen AI: Te veel uitgaven, te weinig voordelen?”. Het wees op een investering van $1 miljard in AI in de komende jaren door de technologie-industrie, andere bedrijven en de infrastructuur nutsvoorzieningen, waaronder chips en elektrische netwerken. Dat riep de vraag op: “Zullen deze grote uitgaven ooit hun vruchten afwerpen?”

De nota omvat een reeks opvattingen over de vraag of de haast een acceptabel rendement zal opleveren, waaronder hoogleraar economie van het Massachusetts Institute of Technology, Daron Acemoglu, die stelt dat ‘werkelijk transformerende veranderingen’ die door AI worden teweeggebracht ‘niet snel zullen gebeuren’. Met andere woorden: het gunstige economische rendement van deze hausse zou langer kunnen duren dan beleggers verwachten.

Het onderzoek roept ook de vraag op of de stroomvoorziening de vraag naar AI-training en besturingssystemen kan bijhouden – en hetzelfde geldt voor de chips die nodig zijn om die modellen van stroom te voorzien.

Er zijn ook optimistischer opvattingen van Goldman-analisten, die beweren dat kunstmatige intelligentie uiteindelijk 25% van alle werktaken in de VS zal automatiseren (waardoor de economie productiever wordt, maar ook nieuwe taken en producten zal ontstaan) en dat de consumptiehausse dat niet heeft gedaan. een botsing veroorzaken met de vorige technologische investeringen.

Sequoia Capital, een vroege investeerder in ChatGPT-ontwikkelaar OpenAI, maakte echter duidelijk dat AI-bedrijven hard moeten werken om al die investeringen in infrastructuur zoals chips en datacenters terug te verdienen. Een eerdere schatting dat AI-bedrijven 200 miljard dollar zouden moeten verdienen om hun investering terug te verdienen, is gestegen naar 600 miljard dollar, schreef Sequoia-partner David Cahn.

Cahn benadrukte dat een dergelijke krachtige steun voor kunstmatige intelligentie ‘vrijwel zeker’ de moeite waard zou zijn, maar ‘de weg die voor ons ligt zal lang zijn’.

Benedict Evans, een technisch analist, vroeg deze maand in een notitie of grote taalmodellen – de technologie die ten grondslag ligt aan tools als ChatGPT – ‘ook een valstrik kunnen zijn’, want hoewel ChatGPT er misschien uitziet als een volwaardig product, is het dat niet.

Evans trekt een analogie tussen de LLM en de eerste iPhones en de komst van internet: het potentieel is aanwezig, maar er moeten andere dingen gebeuren.

“Wanneer de meeste technologieën voor het eerst uitkomen, zijn ze nog niet klaar, en het is niet duidelijk waarom ze nuttig zijn, en er is nog veel werk nodig”, zegt hij. “De iPhone had geen 3G en geen apps. Het internet kwam begin jaren negentig op de markt, maar niemand had een modem, laat staan ​​breedband. Er moest een heleboel dingen gebeuren voordat het internet kon beginnen.”

Evans voegt eraan toe dat chatbots goed hebben gewerkt voor mensen die oplossingen nodig hebben om codeer- en marketingtijd te besparen, maar die op andere gebieden nog geen oplossingen moeten uitbrengen.

“Er zijn zeer specifieke gevallen waarin dit al enorm veel tijd bespaart, maar het is nog steeds niet voor iedereen algemeen.” Hij voegt eraan toe: “Het gevoel dat de meeste mensen hebben als ze naar ChatGPT kijken, is: oké, dit is ongelooflijk cool… maar wat moet ik hiermee doen?”

Deze week kondigde OpenAI aan dat het een zoekmachine in de VS aan het testen was, in wat een directe uitdaging zou kunnen worden voor het zoeken naar het gigantische Google, dat ook een pionier is op het gebied van door AI gegenereerde zoekantwoorden. OpenAI heeft ook voormalig Meta- en Twitter-directeur Kevin Weil ingehuurd als Chief Product Officer om de vraag te helpen beantwoorden: “Wat moet ik hiermee doen?”

Deze week meldde technologienieuwssite Information dat OpenAI dit jaar maar liefst 5 miljard dollar zou kunnen verliezen, op basis van een analyse van interne financiële gegevens en interviews met bronnen, omdat het 8,5 miljard dollar aan bedrijfskosten opbrengt, inclusief 4 miljard dollar per jaar aan serverkosten. huur van Microsoft en $3 miljard per jaar aan trainingsmodellen.

De omzet over het hele jaar zou tussen de 3,5 miljard en 4,5 miljard dollar per jaar kunnen liggen, aldus de Information, wat een verlies van maximaal 5 miljard dollar zou impliceren. Het in San Francisco gevestigde OpenAI verdient geld door bedrijven te laten betalen voor het bouwen van consumentenproducten met behulp van zijn modellen of door bedrijven interne chatbots te laten bouwen met zijn technologie, en door inkomsten te genereren door gebruikers $ 20 per maand in rekening te brengen voor toegang tot een krachtigere versie van ChatGPT. Google en Anthropic verkopen ook abonnementen op AI-systemen voor $ 20 per maand, terwijl Cohere zijn modellen aan zakelijke gebruikers verkoopt voor taken zoals coderen of data-analyse.

De informatie gaf toe dat de OpenAI-berekeningen “giswerk” waren, maar als ze correct zijn, moet het bedrijf het geld in de komende twaalf maanden ophalen. OpenAI weigerde commentaar te geven, hoewel het met Microsoft als belangrijkste financier een beroep kon doen op een rijke weldoener – zij het met toezichthouders in de omgeving.

Maar zelfs nu technologiebedrijven strijden om dominantie aan de ‘grens’ van AI, waarbij ze miljarden steken in het bouwen van grotere en betere systemen, heeft zich een ander front geopend in de meer traditionele strijd: de kosten. De nieuwste release van OpenAI is niet GPT-4o, het ‘multimodale’ systeem dat zo veel op Scarlett Johansson leek dat het tot een rechtszaak leidde.

In plaats daarvan is het de GPT-4o mini, een uitgeklede versie van dezelfde AI die het bedrijf aan externe ontwikkelaars aanbiedt voor minder dan 5% van de prijs van zijn Edge-systeem – waarmee hij de vorige goedkoopste modellen, Googles Gemini 1.5 Flash en Claude 3 Haiku van Anthropic.

Dinsdag bracht Meta de nieuwste versie van zijn Llama-systeem uit om OpenAI te ondermijnen. Hoewel de focus lag op de topversie van het model, de 405B genaamd, wilde het bedrijf net zo graag zijn kleinste LLM, de 8B, pushen. In tegenstelling tot zijn concurrenten kan Llama door iedereen worden gedownload en op zijn eigen systemen worden uitgevoerd, en cloudproviders zoals Groq bieden het aan voor een derde van de prijs van concurrerende OpenAI-systemen. Llama 3.1 8B presteert slechter dan zijn OpenAI-equivalenten volgens AI-benchmarks, maar wie kan er klagen voor de prijs?

Meta noemt Llama ‘open source’, hoewel critici de bewering betwisten: het is mogelijk om het model te downloaden en te gebruiken met een redelijk gratis licentie, maar de trainingsgegevens blijven volledig gesloten en het model is voor niemand gratis te gebruiken. doel. Sommige beperkingen zijn praktisch van aard: de auteursrechtelijke status van trainingsgegevens voor grote taalmodellen is op zijn best controversieel. Meta houdt de specifieke gegevens die het voor Llama 3.1 heeft getraind geheim en heeft vrijwel zeker geen licentie om deze gratis te verspreiden.

Andere beperkingen hebben meer commercieel gewicht. Door de gebruiksbeperkingen van Llama 3.1 in stand te houden, plaatst Meta zichzelf midden in elke toekomstige sector die rond zijn AI groeit: zelfs als het niet direct kosten in rekening brengt voor toegang tot het model, kan het de richting van de ontwikkeling bepalen, en het kan de richting van de ontwikkeling bepalen. kan altijd toekomstige wegen afsluiten als concurrenten te groot worden met behulp van zijn technologie.

Dinsdag zei Zuckerberg: “Ik geloof dat de release van Llama 3.1 een mijlpaal in de sector zal zijn… Ik hoop dat je met ons meegaat op deze reis om de voordelen van kunstmatige intelligentie naar iedereen in de wereld te brengen, voor investeerders en anderen.” technologiebedrijven, die voordelen moeten een aanzienlijk rendement opleveren.