Open source AI heeft oprichters – en de FTC – in beweging

Veel van de gesprekken van gisteren waren bezaaid met de afkortingen die je van deze groep hoogstaande panelleden zou verwachten: YC, FTC, AI, LLM. Maar door de gesprekken – je zou kunnen zeggen, van fundamenteel belang voor hen – ontstond de drang naar open source AI.

Het was een complete wending naar links (of een terugkeer, als je een Linux-liefhebber bent) van de door apps geobsedeerde jaren 2010, toen ontwikkelaars hun technologieën graag in containers leken te plaatsen en over te dragen aan grotere distributieplatforms.

Het evenement vond ook plaats slechts twee dagen nadat Meta-CEO Mark Zuckerberg verklaarde dat “open source kunstmatige intelligentie de weg vooruit is” en Llama 3.1 uitbracht, de nieuwste versie van Meta’s eigen open source AI-algoritme. Zoals Zuckerberg in zijn aankondiging zei, willen sommige technologen niet langer “beperkt worden door wat Apple ons laat bouwen” of geconfronteerd worden met willekeurige regels en app-kosten.

Open source AI is ook een benadering van OpenAI Nee gebruikt voor zijn grootste GPT, ondanks wat de startup-naam van meerdere miljarden dollars zou kunnen suggereren. Dit betekent dat ten minste een deel van de code privé is en dat OpenAI de ‘gewichten’ of parameters van de krachtigste AI-systemen niet deelt. Het brengt ook kosten in rekening voor toegang op ondernemingsniveau tot zijn technologie.

“Met de opkomst van complexe AI-systemen en agent-architecturen levert het gebruik van kleine maar verfijnde open source-modellen aanzienlijk betere resultaten op dan [OpenAI] GPT4, of [Google] Tweelingen. Dit geldt vooral voor zakelijke taken”, zegt Ali Golshan, medeoprichter en CEO van Gretel.ai, een bedrijf voor synthetische data. (Golshan was niet op het YC-evenement).

“Ik denk niet dat het OpenAI is tegen de wereld of iets dergelijks”, zegt Dave Yen, die een fonds beheert genaamd Orange Collective voor succesvolle YC-alumni die toekomstige YC-oprichters steunen. “Ik denk dat het gaat om het creëren van eerlijke concurrentie en een omgeving waarin startups niet het risico lopen de volgende dag dood te gaan als OpenAI zijn prijsmodellen of beleid verandert.”

“Dat betekent niet dat we geen waarborgen zouden moeten hebben”, voegde Yen eraan toe, “maar we willen ook geen onnodige renteplafonds.”

Open source AI-modellen brengen een aantal inherente risico’s met zich mee waar voorzichtigere technologen voor hebben gewaarschuwd – het meest voor de hand liggende is de technologie is open en gratis. Mensen met kwade bedoelingen zullen deze tools eerder gebruiken om schade aan te richten dan een duur particulier AI-model. De onderzoekers wezen erop dat het voor slechte actoren goedkoop en gemakkelijk is om alle beveiligingsparameters in deze AI-modellen te trainen.

‘Open source’ is ook een mythe in sommige AI-modellen, zoals Will Knight van WIRED meldde. De gegevens die worden gebruikt om ze te trainen kunnen nog steeds geheim worden gehouden, hun licenties kunnen ontwikkelaars ervan weerhouden bepaalde dingen te bouwen, en uiteindelijk kunnen ze nog steeds meer voordeel opleveren voor de oorspronkelijke modelmaker dan wie dan ook.

Sommige politici hebben zich verzet tegen de onbelemmerde ontwikkeling van grote AI-systemen, waaronder de Californische senator Scott Wiener. De AI Safety and Innovation Act van Wiener, SB 1047, is controversieel in technische kringen. Het heeft tot doel normen vast te stellen voor ontwikkelaars van AI-modellen die meer dan 100 miljoen dollar kosten om te trainen, bepaalde niveaus van veiligheidstests en ordertiming vóór de implementatie vereisen, klokkenluiders die in AI-laboratoria werken beschermen en de procureur-generaal een oplossing bieden als een AI-model veroorzaakt grote schade.

Sam Wiener sprak donderdag op het YC-evenement, in een gesprek gemodereerd door Bloomberg-verslaggever Shirin Ghaffary. Hij zei dat hij de mensen in de open source-gemeenschap die zich tegen het wetsvoorstel uitsprak “zeer dankbaar” was en dat de staat “een reeks wijzigingen heeft aangebracht als directe reactie op een deel van die kritische feedback.” Eén verandering die is doorgevoerd, zegt Wiener, is dat de wet nu duidelijker een redelijk pad definieert voor het afsluiten van een ontspoord open-source AI-model.

De hoofdspreker op het evenement van donderdag, een last-minute toevoeging aan het programma, was Andrew Ng, mede-oprichter van Coursera, oprichter van Google Brain en voormalig hoofdwetenschapper bij Baidu. Ng sprak, net als vele andere aanwezigen, ter verdediging van het open source-model.

“Dit is een van die momenten waarop [it’s determined] als ondernemers mogen blijven innoveren,’ zei Ng, ‘of als we geld zouden moeten uitgeven dat naar softwareontwikkeling zou gaan om advocaten in te huren.’