OpenAI ‘werkte aan een geavanceerd model dat zo krachtig was dat het personeel alarmeerde’ | Technologiesector

OpenAI werkte naar verluidt aan een geavanceerd systeem voordat Sam Altman werd ontslagen, dat zo krachtig was dat het veiligheidsproblemen veroorzaakte bij het personeel van het bedrijf.

Het kunstmatige-intelligentiemodel veroorzaakte zoveel ongerustheid bij sommige OpenAI-onderzoekers dat ze vóór het ontslag van Altman naar de raad van bestuur schreven waarin ze waarschuwden dat het de mensheid in gevaar zou kunnen brengen, meldt Reuters.

Het model, genaamd Q* – uitgesproken als ‘Q-Star’ – was in staat om elementaire wiskundige problemen op te lossen die het nog niet eerder had gezien, volgens de technologienieuwssite Information, die eraan toevoegde dat het tempo van de ontwikkeling achter het systeem sommige beveiligingsonderzoekers had gealarmeerd. . Het vermogen om wiskundige problemen op te lossen zou worden beschouwd als een belangrijke ontwikkeling in AI.

De rapporten volgen op dagen van onrust bij het in San Francisco gevestigde OpenAI, waarvan het bestuur Altman afgelopen vrijdag ontsloeg, maar hem dinsdagavond weer in dienst nam nadat bijna alle 750 werknemers van het bedrijf hadden gedreigd te stoppen als hij niet zou worden teruggestuurd. Altman kreeg ook de steun van OpenAI’s grootste investeerder, Microsoft.

Veel deskundigen maken zich zorgen dat bedrijven als OpenAI te snel te werk gaan bij de ontwikkeling van kunstmatige algemene intelligentie (AGI), de term voor een systeem dat een breed scala aan taken kan uitvoeren die op of boven menselijk niveau liggen – en dat in theorie menselijke intelligentie zou kunnen vermijden. controle.

Andrew Rogoyski, van het Institute for Human Centered Artificial Intelligence aan de Universiteit van Surrey, zei dat het hebben van een groot taalmodel dat wiskunde oplost (LLM) een doorbraak zou zijn. Hij zei: “Het intrinsieke vermogen van LLM’s om wiskunde te doen is een grote stap voorwaarts, waardoor AI een geheel nieuw deel van de analytische mogelijkheden kan bieden.”

Tijdens zijn toespraak op donderdag vorige week, de dag vóór het plotselinge vertrek, gaf Altman aan dat het bedrijf achter ChatGPT weer een stap voorwaarts had gezet.

Tijdens zijn toespraak op de Asia-Pacific Economic Cooperation (Apec)-top zei hij: “Vier keer tot nu toe in de geschiedenis van OpenAI, de laatste keer was pas in de afgelopen paar weken, kwam ik naar de kamer, toen we een beetje terugduwden de sluier van onwetendheid en de grens van ontdekking naar voren, en daar komen is de professionele eer van het leven.

OpenAI werd opgericht als een non-profit onderneming met een bestuur dat een commerciële dochteronderneming bestuurt, geleid door Altman. Microsoft is de grootste investeerder in de winstgevende sector. Als onderdeel van het principeakkoord voor de terugkeer van Altman krijgt OpenAI een nieuw bestuur onder voorzitterschap van Bret Taylor, voormalig co-CEO van softwarebedrijf Salesforce.

sla de nieuwsbriefpromotie over

Ontwikkelaar ChatGPT stelt dat het is opgericht met als doel “veilige en bruikbare kunstmatige algemene intelligentie te ontwikkelen ten behoeve van de mensheid” en dat het bedrijf met winstoogmerk “wettelijk verplicht zou zijn de missie van een non-profitorganisatie te volgen”.

De nadruk die de non-profitorganisatie legt op veiligheid heeft geleid tot speculaties dat Altman is ontslagen omdat hij de kernmissie van het bedrijf in gevaar had gebracht. Zijn kortstondige opvolger als interim-CEO, Emmett Shear, schreef deze week echter dat het bestuur “Sam niet * heeft ontslagen vanwege een specifiek meningsverschil over de veiligheid.”

OpenAI heeft om commentaar gevraagd.