AI-bedrijven beloofden een jaar geleden zelfregulering. Wat is er veranderd?

RESULTAAT: Goed. Dit is over het algemeen een bemoedigend resultaat. Hoewel watermerken nog steeds experimenteel en nog steeds onbetrouwbaar is, is het toch goed om te zien dat er onderzoek omheen wordt gedaan en dat de C2PA-standaard wordt nageleefd. Het is beter dan niets, vooral in een druk verkiezingsjaar.

Verplichting 6

Bedrijven verbinden zich ertoe de mogelijkheden, beperkingen en gebieden van passend en ongepast gebruik van hun AI-systemen publiekelijk te rapporteren. Dit rapport zal zowel veiligheidsrisico’s als sociale risico’s behandelen, zoals effecten op eerlijkheid en vooringenomenheid.

De toezeggingen van het Witte Huis laten veel ruimte voor interpretatie. Bedrijven kunnen bijvoorbeeld technisch gezien aan deze openbare rapportageverplichting voldoen met sterk uiteenlopende niveaus van transparantie, zolang ze dat maar doen iets in die algemene richting.

De meest voorkomende oplossingen die technologiebedrijven hier aanboden waren de zogenaamde modelkaarten. Elk bedrijf noemt ze met een iets andere naam, maar in wezen fungeren ze als een soort productbeschrijving voor AI-modellen. Ze kunnen alles aanpakken, van de mogelijkheden en beperkingen van het model (inclusief hoe het zich verhoudt tot maatstaven van eerlijkheid en verklaarbaarheid) tot waarheidsgetrouwheid, robuustheid, bestuur, privacy en veiligheid. Anthropic zei dat het de modellen ook test op mogelijke beveiligingsproblemen die zich later kunnen voordoen.

Microsoft heeft zijn jaarlijkse Responsible AI Transparency Report uitgebracht, dat inzicht geeft in hoe het bedrijf applicaties bouwt die gebruik maken van generatieve kunstmatige intelligentie, beslissingen neemt en toezicht houdt op de implementatie van die applicaties. Het bedrijf zegt ook duidelijke mededelingen te doen over waar en hoe kunstmatige intelligentie in zijn producten wordt gebruikt.

RESULTAAT: Er is meer werk nodig. Een verbeterpunt voor AI-bedrijven zou het vergroten van de transparantie van hun bestuursstructuren en financiële relaties tussen bedrijven zijn, zegt Hickok. Ze zou ook graag willen dat bedrijven meer publiek maken over de herkomst van data, modellen van trainingsproces, beveiligingsincidenten en energieverbruik.

Verplichting 7

De bedrijven verbinden zich ertoe prioriteit te geven aan onderzoek naar de maatschappelijke risico’s die AI-systemen met zich mee kunnen brengen, waaronder het vermijden van schadelijke vooroordelen en discriminatie en het beschermen van de privacy. De staat van dienst van AI toont de verraderlijkheid en alomtegenwoordigheid van deze gevaren aan, en bedrijven engageren zich om AI in te zetten die deze gevaren verzacht.

Technologiebedrijven zijn druk bezig geweest op het gebied van veiligheidsonderzoek en hebben hun bevindingen in producten verwerkt. Amazon heeft voor Amazon Bedrock firewalls gebouwd die hallucinaties kunnen detecteren en beveiliging, privacy en waarheidsbescherming kunnen toepassen. Anthropic zegt dat het een team van onderzoekers in dienst heeft die zich bezighouden met onderzoek naar sociale risico’s en privacy. Het afgelopen jaar is het bedrijf onderzoek gestart naar bedrog, jailbreaks, anti-discriminatiestrategieën en nieuwe mogelijkheden, zoals het vermogen van modellen om hun eigen code te veranderen of zich bezig te houden met overreding. En OpenAI zegt dat het zijn modellen heeft getraind om het produceren van haatdragende inhoud te vermijden en te weigeren resultaten te genereren op het gebied van haatdragende inhoud of extremisme. Hij heeft zijn GPT-4V getraind om veel verzoeken af ​​te wijzen waarvoor het nodig is om stereotypen te doorbreken om te kunnen reageren. Google DeepMind publiceerde ook onderzoek om gevaarlijke capaciteiten te beoordelen, en het bedrijf deed een onderzoek naar het misbruik van generatieve AI.