OpenAI stelt ‘geweldige producten’ boven veiligheid, zegt vertrekkend onderzoeker | Kunstmatige intelligentie (AI)

Een voormalige senior OpenAI-medewerker zei dat het bedrijf achter ChatGPT prioriteit gaf aan ‘geweldige producten’ boven beveiliging, en onthulde dat hij stopte nadat meningsverschillen over belangrijke doelen een ‘breekpunt’ hadden bereikt.

Jan Leike was een belangrijke beveiligingsonderzoeker bij OpenAI als co-hoofd van superalignment, en zorgde ervoor dat krachtige AI-systemen zich houden aan menselijke waarden en doelen. Zijn tussenkomst loopt vooruit op een mondiale top over kunstmatige intelligentie volgende week in Seoel, waar politici, experts en technologiebestuurders het toezicht op de technologie zullen bespreken.

Leica nam ontslag enkele dagen nadat het in San Francisco gevestigde bedrijf zijn nieuwste AI-model, de GPT-4o, lanceerde. Zijn vertrek markeert het vertrek van twee senior veiligheidsfunctionarissen bij OpenAI deze week na het ontslag van Ilya Sutskever, mede-oprichter van OpenAI en mede-co-hoofd van de superplant.

Leike legde de redenen voor zijn vertrek uit in een X-thread die vrijdag werd gepost, waarin hij zei dat de veiligheidscultuur een lagere prioriteit had gekregen.

“De afgelopen jaren zijn de veiligheidscultuur en -processen op de achterbank komen te staan ​​van geweldige producten”, schreef hij.

Gisteren was mijn laatste dag als Head of Compliance, Super Compliance Leader en CEO @OpenAI.

— Jan Leike (@janleike) 17 mei 2024

OpenAI is opgericht met als doel ervoor te zorgen dat kunstmatige algemene intelligentie, die het beschrijft als “AI-systemen die over het algemeen slimmer zijn dan mensen”, de hele mensheid ten goede komt. In zijn X-posts zei Leike dat hij al een tijdje op gespannen voet stond met het leiderschap van OpenAI over de prioriteiten van het bedrijf, maar dat het conflict “eindelijk een omslagpunt had bereikt”.

Leike zei dat OpenAI, dat ook de Dall-E-beeldgenerator en de Sora-videogenerator ontwikkelde, meer middelen zou moeten investeren in zaken als veiligheid, sociale impact, vertrouwelijkheid en beveiliging voor zijn modellen van de volgende generatie.

“Deze problemen zijn behoorlijk moeilijk op te lossen, en ik ben bang dat we niet op de goede weg zijn om daar te komen”, schreef hij, eraan toevoegend dat het voor zijn team “steeds moeilijker” werd om hun onderzoek te doen.

‘Het bouwen van machines die slimmer zijn dan mensen is een inherent gevaarlijke onderneming. OpenAI draagt ​​een enorme verantwoordelijkheid namens de hele mensheid”, schreef Leike, eraan toevoegend dat OpenAI “een AGI-bedrijf moet worden dat veiligheid voorop stelt.”

Sam Altman, CEO van OpenAI, reageerde op Leike’s draad met een bericht op X waarin hij zijn voormalige collega bedankte voor zijn bijdragen aan de veiligheidscultuur van het bedrijf.

sla de nieuwsbriefpromotie over

“Hij heeft gelijk, we hebben nog veel te doen; we zijn er toegewijd aan”, schreef hij.

Sutskever, die ook de hoofdwetenschapper van OpenAI was, schreef in zijn X-post zijn vertrek aankondigde dat hij er vertrouwen in heeft dat OpenAI onder zijn huidige leiding “een AGI zal bouwen die veilig en nuttig is”. Sutskever steunde aanvankelijk het ontslag van Altman als hoofd van OpenAI afgelopen november, voordat hij zijn herplaatsing steunde na dagen van interne onrust bij het bedrijf.

Leike’s waarschuwing kwam nadat een panel van internationale experts op het gebied van kunstmatige intelligentie zijn inaugurele rapport over AI-veiligheid had uitgebracht, waarin stond dat er onenigheid bestond over de waarschijnlijkheid dat krachtige AI-systemen aan de menselijke controle zouden ontsnappen. Het waarschuwde echter dat regelgevers achterop zouden kunnen raken door de snelle technologische vooruitgang, en waarschuwde voor een “potentiële discrepantie tussen het tempo van de technologische vooruitgang en het tempo van de reactie van de regelgeving”.