Voormalig NSA-chef treedt toe tot het bestuur en de veiligheidscommissie van OpenAI

Voormalig hoofd van de National Security Agency, de gepensioneerde generaal Paul Nakasone, zal toetreden tot de raad van bestuur van OpenAI, zo maakte het AI-bedrijf donderdagmiddag bekend. Hij zal ook zitting nemen in de subcommissie “veiligheid en beveiliging” van de raad van bestuur.

De spraakmakende toevoeging is waarschijnlijk bedoeld om critici te sussen die denken dat OpenAI sneller gaat dan slim is voor zijn klanten, en misschien wel voor de mensheid, door modellen en diensten vrij te geven zonder de risico’s ervan adequaat in te schatten of af te sluiten.

Nakasone brengt tientallen jaren ervaring mee van het leger, het Amerikaanse Cyber ​​Command en de NSA. Wat je ook mag denken van de praktijk en besluitvorming in deze organisaties, een gebrek aan deskundigheid kan je zeker niet worden verweten.

Nu OpenAI zich steeds meer profileert als aanbieder van kunstmatige intelligentie, niet alleen voor de technologie-industrie, maar ook voor de overheid, defensie en grote ondernemingen, is dit soort institutionele kennis waardevol, zowel op zichzelf als als een geruststellend instrument voor bezorgde aandeelhouders. (De connecties die hij met het staats- en militaire apparaat met zich meebrengt, zijn ongetwijfeld ook welkom.)

“De toewijding van OpenAI aan zijn missie sluit nauw aan bij mijn eigen waarden en ervaring in de publieke dienstverlening”, zei Nakasone in een persbericht.

Dat lijkt zeker waar: Nakasone en de NSA hebben onlangs de praktijk verdedigd van het kopen van gegevens van twijfelachtige oorsprong om hun surveillancenetwerken te voeden, met het argument dat er geen wet tegen bestaat. OpenAI op zijn beurt nam eenvoudigweg grote hoeveelheden gegevens van het internet in plaats van deze te kopen, en beweerde toen hij werd betrapt dat er geen wet tegen bestond. Ze lijken het eens te zijn over het zoeken naar vergeving, en niet naar toestemming, als ze die inderdaad zoeken.

In de OpenAI-release staat ook:

De inzichten van Nakasone zullen ook bijdragen aan de inspanningen van OpenAI om beter te begrijpen hoe AI kan worden gebruikt om de cyberveiligheid te versterken door cyberbedreigingen snel te detecteren en erop te reageren. Wij zijn van mening dat AI het potentieel heeft om op dit gebied aanzienlijke voordelen te bieden aan veel instellingen die vaak het doelwit zijn van cyberaanvallen, zoals ziekenhuizen, scholen en financiële instellingen.

Dit is dus ook een nieuw spel op de markt.

Nakasone zal toetreden tot de veiligheids- en beveiligingscommissie, die “verantwoordelijk is voor het doen van aanbevelingen aan het voltallige bestuur over belangrijke veiligheids- en beveiligingsbeslissingen voor OpenAI-projecten en -operaties.” Wat deze nieuw opgerichte entiteit feitelijk doet en hoe deze zal functioneren, is nog onbekend, aangezien verschillende senior mensen die zich bezighouden met beveiliging (met betrekking tot AI-risico’s) het bedrijf hebben verlaten en de commissie zelf midden in een deadline van 90 dagen zit. evaluatie van bedrijfsprocessen en beschermingsmaatregelen.