Werknemers van OpenAI en Google DeepMind waarschuwen in open brief voor risico’s in de kunstmatige intelligentie-industrie | Kunstmatige intelligentie (AI)

Een groep huidige en voormalige werknemers van vooraanstaande kunstmatige-intelligentiebedrijven publiceerde dinsdag een open brief waarin werd gewaarschuwd voor een gebrek aan veiligheidstoezicht binnen de sector en waarin werd opgeroepen tot betere bescherming van klokkenluiders.

De brief, waarin wordt opgeroepen tot een ‘recht om te waarschuwen tegen kunstmatige intelligentie’, is een van de meest publieke uitspraken over de gevaren van kunstmatige intelligentie door werknemers in wat over het algemeen een geheimzinnige industrie is. Elf huidige en voormalige medewerkers van OpenAI ondertekenden de brief, samen met twee huidige of voormalige medewerkers van Google DeepMind, van wie er één eerder bij Anthropic werkte.

“AI-bedrijven beschikken over aanzienlijke niet-openbare informatie over de mogelijkheden en beperkingen van hun systemen, de adequaatheid van hun beveiligingen en de risiconiveaus van verschillende soorten schade”, aldus de brief. “Ze hebben momenteel echter slechts zwakke verplichtingen om een ​​deel van deze informatie met regeringen te delen, en geen enkele met het maatschappelijk middenveld. We denken niet dat je er allemaal op kunt vertrouwen dat ze het vrijwillig delen.”

OpenAI verdedigde zijn praktijken in een verklaring en zei dat het over manieren beschikte, zoals advies, om problemen binnen het bedrijf te melden en dat het geen nieuwe technologie vrijgaf totdat de juiste waarborgen waren getroffen. Google reageerde niet onmiddellijk op een verzoek om commentaar.

“We zijn trots op onze reputatie voor het leveren van de meest capabele en veilige AI-systemen en geloven in onze wetenschappelijke benadering van het aanpakken van risico’s. We zijn het erover eens dat een rigoureus debat essentieel is gezien het belang van deze technologie en zullen blijven samenwerken met regeringen, het maatschappelijk middenveld en andere gemeenschappen over de hele wereld”, aldus een woordvoerder van OpenAI.

Bezorgdheid over mogelijke schade door kunstmatige intelligentie bestaat al tientallen jaren, maar de hausse op het gebied van kunstmatige intelligentie van de afgelopen jaren heeft deze angsten vergroot en ervoor gezorgd dat regelgevers moeite hebben om de technologische vooruitgang bij te houden. Hoewel AI-bedrijven publiekelijk hebben verklaard dat ze de technologie veilig willen ontwikkelen, waarschuwen onderzoekers en werknemers voor een gebrek aan toezicht, aangezien AI-instrumenten bestaande sociale schade verergeren of geheel nieuwe schade creëren.

In een brief van huidige en voormalige werknemers van AI-bedrijven, voor het eerst gerapporteerd door de New York Times, wordt opgeroepen tot betere bescherming van werknemers bij geavanceerde AI-bedrijven die ervoor kiezen hun veiligheidsproblemen te uiten. Het streeft naar toewijding aan vier principes rond transparantie en verantwoording, waaronder een bepaling dat bedrijven werknemers niet zullen dwingen om niet-kleinerende overeenkomsten te ondertekenen die het uiten van AI-risicogerelateerde kwesties verbieden, en een mechanisme voor werknemers om anoniem hun zorgen te delen met bestuursleden.

“Totdat er effectief overheidstoezicht op deze bedrijven is, behoren huidige en voormalige werknemers tot de weinige mensen die hen verantwoording kunnen afleggen tegenover het publiek”, aldus de brief. “Brede vertrouwelijkheidsovereenkomsten weerhouden ons er echter van onze zorgen te uiten, behalve tegenover bedrijven die er mogelijk niet in slagen deze problemen aan te pakken.”

Bedrijven als OpenAI hebben ook agressieve tactieken gevolgd om te voorkomen dat werknemers vrijelijk over hun werk spreken, waarbij Vox vorige week meldde dat OpenAI werknemers die het bedrijf verlieten dwong uiterst restrictieve niet-kleinerende en geheimhoudingsdocumenten te ondertekenen, anders verloren ze al hun aandelen. . Sam Altman, CEO van OpenAI, verontschuldigde zich na het rapport en zei dat hij de procedure zou veranderen buiten de onboarding.

De brief komt nadat twee topmedewerkers van OpenAI, medeoprichter Ilya Sutskever en sleutelonderzoeker Jan Leike, vorige maand ontslag namen bij het bedrijf. Na zijn vertrek beweerde Leica dat OpenAI een veiligheidscultuur had opgegeven ten gunste van “geweldige producten”.

In de open brief van dinsdag werden enkele uitspraken van Leike herhaald, waarin hij zei dat de bedrijven geen enkele bereidheid tonen om transparant te zijn over hun activiteiten.