OpenAI biedt een olijftak aan artiesten die op hun hoede zijn voor het voeden van AI-algoritmen

OpenAI vecht tegen rechtszaken van kunstenaars, schrijvers en uitgevers die beweren dat het hun werk op ongepaste wijze heeft gebruikt om de algoritmen achter ChatGPT en andere AI-systemen te trainen. Dinsdag kondigde het bedrijf een tool aan die blijkbaar is ontworpen om makers en rechthebbenden tevreden te stellen, waardoor ze enige controle krijgen over hoe OpenAI hun werk gebruikt.

Het bedrijf zegt dat het in 2025 een tool genaamd Media Manager zal lanceren waarmee makers van inhoud zich kunnen afmelden voor de AI-ontwikkeling van het bedrijf. In een blogpost beschreef OpenAI de tool als een manier om “makers en eigenaren van inhoud ons te laten vertellen wat ze bezitten” en te specificeren “hoe ze willen dat hun werken worden opgenomen of uitgesloten van onderzoek en training op het gebied van machine learning.”

OpenAI zei dat het samenwerkt met “makers, contenteigenaren en toezichthouders” om de tool te ontwikkelen en van plan is “de industriestandaard te bepalen”. Het bedrijf heeft geen van zijn projectpartners genoemd of duidelijk gemaakt hoe de tool zal werken.

Open vragen over het systeem zijn onder meer of contenteigenaren één enkele claim kunnen indienen voor al hun werk, en of OpenAI claims zal toestaan ​​die verband houden met modellen die al zijn getraind en gelanceerd. Er wordt onderzoek gedaan naar machinaal ‘ontleren’, een proces dat een kunstmatig intelligentiesysteem aanpast om met terugwerkende kracht de bijdrage van een deel van de trainingsgegevens te verwijderen, maar de techniek is nog niet geperfectioneerd.

Ed Newton-Rex, CEO van startup Fairly Trained, die AI-bedrijven certificeert die op ethisch verantwoorde wijze trainingsgegevens verzamelen, zegt dat de schijnbare verschuiving van OpenAI naar trainingsgegevens welkom is, maar dat de implementatie van cruciaal belang zal zijn. “Ik ben blij om te zien dat OpenAI dit probleem aanpakt. Of het artiesten daadwerkelijk zal helpen of niet, zal afhangen van de details, die nog niet zijn uitgewerkt”, zegt hij. De eerste grote vraag die bij hem opkomt: is dit slechts een opt-out-tool waarmee OpenAI gegevens zonder toestemming kan blijven gebruiken, tenzij de eigenaar van de inhoud om zijn opt-out vraagt? Of zal het een grotere verandering betekenen in de manier waarop OpenAI zaken doet? OpenAI heeft niet onmiddellijk een verzoek om commentaar geretourneerd.

Newton-Rex is ook benieuwd of OpenAI andere bedrijven zal toestaan ​​zijn Media Manager te gebruiken, zodat artiesten hun voorkeuren tegelijk aan meerdere AI-ontwikkelaars kunnen doorgeven. “Als dat niet het geval is, zal het alleen maar meer complexiteit toevoegen aan een toch al complexe uitsluitingsomgeving”, zegt Newton-Rex, voorheen CEO bij Stability AI, ontwikkelaar van de Stable Diffusion-beeldgenerator.

OpenAI is niet de eerste die manieren zoekt voor kunstenaars en andere makers van inhoud om hun voorkeuren over het gebruik van hun werk en persoonlijke gegevens voor AI-projecten kenbaar te maken. Andere technologiebedrijven, van Adobe tot Tumblr, bieden ook opt-outtools met betrekking tot gegevensverzameling en machinaal leren. Startup Spawning lanceerde bijna twee jaar geleden een register genaamd Do Not Train, en makers hebben hun voorkeuren al toegevoegd aan 1,5 miljard werken.

Jordan Meyer, CEO van Spawning, zegt dat het bedrijf niet met OpenAI werkt aan zijn Media Manager-project, maar er wel voor openstaat. “Als OpenAI het gemakkelijker kan maken om zich te registreren of universele opt-outs te respecteren, zullen we hun werk graag in onze suite opnemen”, zegt hij.