OpenAI streeft ernaar het Amerikaanse Artificial Intelligence Security Institute vroegtijdige toegang te geven tot zijn volgende model

Sam Altman, CEO van OpenAI, zegt dat OpenAI samenwerkt met het Amerikaanse Artificial Intelligence Security Institute, een federaal overheidsorgaan dat zich richt op het beoordelen en aanpakken van risico’s op AI-platforms, aan een overeenkomst om vroegtijdige toegang te bieden tot het volgende grote generatieve AI-model voor beveiligingstests.

De aankondiging, gedaan door Altman in een post donderdagavond laat, bevatte weinig details. Maar het lijkt – samen met een soortgelijke overeenkomst met de Britse AI Safety Authority die in juni werd gesloten – het verhaal te weerleggen dat OpenAI de prioriteit heeft gegeven aan het werk op het gebied van AI-veiligheid in het streven naar capabelere, krachtigere generatieve AI-technologieën.

In mei heeft OpenAI effectief een eenheid ontbonden die belast was met het ontwikkelen van controles om te voorkomen dat ‘superintelligente’ AI-systemen falen. Rapportages – waaronder die van ons – suggereerden dat OpenAI het beveiligingsonderzoek van het team verliet ten gunste van de lancering van nieuwe producten, wat uiteindelijk leidde tot het aftreden van twee van de medeleiders van het team, Jan Leike (die nu het beveiligingsonderzoek leidt bij AI-startup Anthropic) en Medeoprichter van OpenAI Ilya Sutskever (die zijn eigen op beveiliging gerichte AI-bedrijf Safe Superintelligence Inc. startte).

Als reactie op een groeiend koor van critici zei OpenAI dat het de beperkende non-disparagement-clausules zou schrappen die klokkenluiden impliciet ontmoedigen en een veiligheidscommissie zou oprichten, en 20% van zijn rekening zou wijden aan veiligheidsonderzoek. (Het opgepakte beveiligingsteam kreeg 20% ​​van de rekening van OpenAI voor zijn werk beloofd, maar heeft deze uiteindelijk nooit ontvangen.) Altman herhaalde de belofte van 20% en bevestigde opnieuw dat OpenAI de voorwaarden in mei zonder minachting voor nieuw en bestaand personeel had ingetrokken.

Maar de maatregelen hebben sommige waarnemers niet gerustgesteld – vooral nadat OpenAI een beveiligingscommissie volledig bemand had met insiders van het bedrijf, waaronder Altman, en, meer recentelijk, de hoogste AI-beveiligingsmanager naar een andere organisatie had verplaatst.

Vijf senatoren, waaronder Brian Schatz, D-Hawaii, hebben in een recente brief aan Altman vragen gesteld over het OpenAI-beleid. OpenAI Chief Strategy Officer Jason Kwon reageerde vandaag op de brief en schreef dat OpenAI “[is] toegewijd aan het implementeren van strenge beveiligingsprotocollen in elke fase van ons proces.”

De timing van de overeenkomst van OpenAI met het Amerikaanse AI Security Institute lijkt een beetje twijfelachtig in het licht van de goedkeuring door het bedrijf eerder deze week van de Future of Innovation Act, een wetsvoorstel van de Senaat dat het Security Institute zou machtigen als een uitvoerend orgaan dat normen en richtlijnen vastlegt. voor AI-modellen. De gezamenlijke stappen kunnen worden gezien als een poging tot toezicht op de regelgeving – of op zijn minst het uitoefenen van de invloed van OpenAI op de AI-beleidsvorming op federaal niveau.

Niet voor niets maakt Altman deel uit van het Artificial Intelligence Safety and Security Committee van het Amerikaanse ministerie van Binnenlandse Veiligheid, dat aanbevelingen doet voor de “veilige ontwikkeling en inzet van AI” in kritieke Amerikaanse infrastructuur. En OpenAI heeft zijn federale lobbyuitgaven dit jaar dramatisch verhoogd, waarbij 800.000 dollar wordt uitgegeven in de eerste zes maanden van 2024, tegenover 260.000 dollar in heel 2023.

Het Amerikaanse AI Security Institute, gehuisvest binnen het National Institute of Standards and Technology van het ministerie van Handel, overlegt met een consortium van bedrijven, waaronder Anthropic, maar ook met grote technologiebedrijven zoals Google, Microsoft, Meta, Apple, Amazon en Nvidia. De industriegroep heeft de taak om te werken aan de acties die zijn uiteengezet in het uitvoerend bevel van president Joe Biden van oktober, waaronder het ontwikkelen van richtlijnen voor de rode timing van AI, capaciteitsbeoordelingen, risicobeheer, veiligheid en beveiliging en synthetische watermerkinhoud.