Deze week in AI: Het lot van generatieve AI ligt in handen van de rechtbanken

Hallo mensen, en welkom bij de reguliere AI-nieuwsbrief van TechCrunch.

Deze week beschuldigden muzieklabels in AI twee startups die door AI aangedreven songgenerators ontwikkelen, Udio en Suno, van inbreuk op het auteursrecht.

De RIAA, de handelsorganisatie die de muziekopname-industrie in de VS vertegenwoordigt, maakte maandag de rechtszaken bekend die tegen de bedrijven zijn aangespannen door Sony Music Entertainment, Universal Music Group, Warner Records en anderen. De rechtszaken beweren dat Udio en Suno de generatieve AI-modellen die hun platforms aandrijven op de muziek van de labels hebben getraind zonder die labels te compenseren – en eisen $ 150.000 aan schadevergoeding wegens vermeende inbreuk.

“Synthetische muziekproducten zouden de markt kunnen verzadigen met machinaal gegenereerde inhoud die rechtstreeks zal concurreren met de originele geluidsopnamen waarop de dienst is gebouwd, deze goedkoper zal maken en uiteindelijk zal overstemmen”, aldus de uitgevers in hun klacht.

De rechtszaken vormen een aanvulling op een groeiend aantal rechtszaken tegen generatieve AI-leveranciers, waaronder tegen grote wapens als OpenAI, waarin vrijwel hetzelfde wordt betoogd: dat bedrijven die auteursrechtelijk beschermde werken trainen, rechthebbenden moeten betalen of hen op zijn minst krediet moeten geven – en hen de mogelijkheid moeten geven zich af te melden van de opleiding als ze dat willen. Verkopers hebben lang betoogd dat ze eerlijk gebruik beschermen, met het argument dat de auteursrechtelijk beschermde gegevens waarop ze trainen openbaar zijn en dat hun modellen transformatieve, en niet geplagieerde, werken creëren.

Dus hoe zullen de rechtbanken oordelen? Dat, beste lezer, is de miljardenvraag – en het zal jaren duren om deze op te lossen.

Je zou denken dat dit een nagelbijter zou zijn voor auteursrechthouders, gezien het toenemende bewijs dat generatieve AI-modellen bijna averechts kunnen werken (nadruk op bijna) letterlijk de auteursrechtelijk beschermde kunst, boeken, gedichten, enzovoort waarop ze zijn getraind. Maar er is een uitkomst waarbij generatieve AI-leveranciers loskomen en Google hun geluk te danken hebben voor het scheppen van het daaruit voortvloeiende precedent.

Ruim tien jaar geleden begon Google miljoenen boeken te scannen om een ​​archief te creëren voor Google Books, een soort zoekmachine voor literaire inhoud. Auteurs en uitgevers hebben Google aangeklaagd wegens deze praktijk en beweren dat de reproductie van hun IP-adres online inbreukmakend was. Maar ze verloren. In hoger beroep concludeerde de rechtbank dat het kopiëren van Google Boeken een ‘zeer overtuigend transformerend doel’ had.

Rechtbanken zouden kunnen beslissen dat generatieve AI ook een ‘zeer overtuigend transformatief doel’ heeft, als eisers er niet in slagen aan te tonen dat de modellen van de leverancier feitelijk op grote schaal plagiaat plegen. Of, zoals Alex Reisner van Atlantic suggereert: er is misschien geen enkele uitspraak over de vraag of generatieve AI-technologie als geheel inbreuk maakt. De juryleden konden de winnaars per model en van geval tot geval bepalen, rekening houdend met elk gegenereerd resultaat.

Mijn collega Devin Coldewey verwoordde het deze week kort en bondig: “Niet elk AI-bedrijf is zo vrij om vingerafdrukken achter te laten op een plaats delict.” Naarmate de rechtszaak vordert, kunnen we er zeker van zijn dat AI-leveranciers wier bedrijfsmodellen afhankelijk zijn van de uitkomst gedetailleerde aantekeningen maken.

Nieuws

Geavanceerde spraakmodus vertraagd: OpenAI heeft de geavanceerde Voice Mode uitgesteld, een griezelig realistische, bijna realtime gesprekservaring voor zijn AI-aangedreven chatbotplatform ChatGPT. Maar er zijn geen ijdele handen bij OpenAI, dat deze week ook het externe samenwerkingsstartup Multi overnam en een macOS-client uitbracht voor alle ChatGPT-gebruikers.

Stabiliteit is redding: Op de rand van financiële ondergang is Stable AI, maker van het open-source beeldgeneratiemodel Stable Diffusion, gered door een groep investeerders, waaronder Napster-oprichter Sean Parker en voormalig Google-CEO Eric Schmidt. Het bedrijf is schuldenvrij en heeft ook een nieuwe CEO benoemd, voormalig Weta Digital-chef Prem Akkaraju, als onderdeel van een brede poging om zijn positie in het ultracompetitieve AI-landschap te herwinnen.

Gemini komt naar Gmail: Google introduceert een nieuwe zijbalk, mogelijk gemaakt door Gemini, in Gmail waarmee u e-mails kunt opstellen en onderwerpen kunt samenvatten. Dezelfde zijbalk vindt zijn weg naar de rest van de reeks productiviteitsapps van de zoekgigant: Documenten, Spreadsheets, Presentaties en Drive.

Geweldige curator: Mede-oprichter van Goodreads, Otis Chandler, lanceerde Smashing, een AI- en community-aangedreven app voor het aanbevelen van inhoud, bedoeld om gebruikers te helpen verbinding te maken met hun interesses door de verborgen pareltjes van het internet te ontdekken. Smashing biedt nieuwssamenvattingen, belangrijke passages en interessante citaten, identificeert automatisch onderwerpen en onderwerpen die van belang zijn voor individuele gebruikers en moedigt gebruikers aan om artikelen leuk te vinden, op te slaan en erop te reageren.

Apple zegt nee tegen Meta AI: Dagen nadat The Wall Street Journal meldde dat Apple en Meta in gesprek waren om de AI-modellen van laatstgenoemde te integreren, zei Mark Gurman van Bloomberg dat de iPhone-maker een dergelijke stap niet van plan was. Apple heeft het idee om Meta’s AI op iPhones te plaatsen verworpen vanwege zorgen over de privacy, zei Bloomberg – en de optie om samen te werken met een sociaal netwerk waarvan het privacybeleid vaak wordt bekritiseerd.

Onderzoeksartikel van de week

Pas op voor chatbots met Russische invloeden. Ze kunnen zich vlak onder je neus bevinden.

Eerder deze maand benadrukte Axios een onderzoek van NewsGuard, een anti-desinformatieorganisatie, waaruit bleek dat toonaangevende AI-chatbots fragmenten van Russische propagandacampagnes terugstuurden.

NewsGuard heeft tien toonaangevende chatbots ingevoerd – waaronder OpenAI ChatGPT, Anthropic Claude en Google Gemini – met enkele tientallen vragen over verhalen waarvan bekend is dat ze zijn bedacht door Russische propagandisten, met name de Amerikaanse voortvluchtige John Mark Dougan. Volgens het bedrijf reageerden de chatbots in 32% van de gevallen met desinformatie, waarbij valse Russische schriftelijke rapporten als feit werden gepresenteerd.

De studie illustreert het toegenomen toezicht op AI-leveranciers nu het Amerikaanse verkiezingsseizoen nadert. Microsoft, OpenAI, Google en een aantal andere toonaangevende AI-bedrijven zijn tijdens de Veiligheidsconferentie van München in februari overeengekomen maatregelen te nemen om de verspreiding van deepfakes en verkiezingsgerelateerde desinformatie tegen te gaan. Maar misbruik van het platform is nog steeds wijdverbreid.

“Dit rapport laat in detail zien waarom de industrie speciale aandacht moet besteden aan nieuws en informatie”, vertelde Steven Brill, co-CEO van NewsGuard, aan Axios. “Vertrouw voorlopig niet op de meeste antwoorden van deze chatbots op nieuwsgerelateerde vragen, vooral niet op controversiële vragen.”

Model van de week

Onderzoekers van het Computational Science and Artificial Intelligence Laboratory (CSAIL) van MIT beweren een model te hebben ontwikkeld, DenseAV, dat taal kan leren door te voorspellen wat het ziet op basis van wat het hoort – en omgekeerd.

De onderzoekers, onder leiding van Mark Hamilton, een doctoraalstudent in elektrische en computertechniek aan het MIT, werden geïnspireerd om DenseAV te creëren door de non-verbale manier waarop dieren communiceren. “We dachten dat we misschien audio en video moesten gebruiken om de taal te leren”, vertelde hij aan de persdienst van MIT CSAIL. “Is er een manier om een ​​algoritme de hele dag tv te laten kijken en erachter te komen waar we het over hebben?”

DenseAV verwerkt slechts twee soorten gegevens – audio en visueel – en doet dit afzonderlijk, waarbij hij ‘leert’ door paren audio- en visuele signalen te vergelijken om te ontdekken welke signalen overeenkomen en welke niet. Getraind op een dataset van 2 miljoen YouTube-video’s, kan DenseAV objecten identificeren aan de hand van hun naam en geluid door te zoeken naar alle mogelijke overeenkomsten tussen een audiofragment en een beeldpixel en deze vervolgens samen te voegen.

Wanneer DenseAV bijvoorbeeld luistert naar het blaffen van een hond, concentreert een deel van het model zich op de taal, zoals het woord ‘hond’, terwijl een ander deel zich concentreert op de blaffende geluiden. De onderzoekers zeggen dat dit aantoont dat DenseAV niet alleen de betekenis van woorden en de locatie van geluiden kan leren, maar ook deze ‘cross-modale’ verbindingen kan leren onderscheiden.

Vooruitkijkend wil het team systemen creëren die kunnen leren van enorme hoeveelheden video- of audiogegevens – en hun werk kunnen uitbreiden met grotere modellen, misschien geïntegreerd met kennis van taalbegripmodellen om de prestaties te verbeteren.

Pak de tas

Niemand kan OpenAI CTO Mir Murati ervan beschuldigen niet consequent eerlijk te zijn.

Tijdens een open haardvuuravond aan de Dartmouth School of Engineering erkende Murati dat generatieve AI inderdaad een aantal creatieve banen zal elimineren – maar suggereerde dat die banen ‘misschien niet hadden moeten bestaan’.

“Ik verwacht zeker dat er veel banen zullen veranderen, dat sommige banen verloren zullen gaan en andere zullen worden gewonnen”, vervolgde ze. “De waarheid is dat we nog steeds niet begrijpen welke impact AI op de werkgelegenheid zal hebben.”

De makers accepteerden de opmerkingen van Murati niet – en dat is geen wonder. Afgezien van apathische formuleringen wordt OpenAI, net als de eerder genoemde Udio en Suno, geconfronteerd met rechtszaken, critici en toezichthouders die beweren dat het profiteert van de werken van kunstenaars zonder hen te compenseren.

OpenAI heeft onlangs beloofd tools uit te brengen om makers meer controle te geven over de manier waarop hun werken in hun producten worden gebruikt, en blijft licentieovereenkomsten ondertekenen met auteursrechthouders en uitgevers. Maar het bedrijf lobbyt niet bepaald voor een universeel basisinkomen, noch leidt het enige significante inspanningen om de beroepsbevolking die door de technologie wordt getroffen, om te scholen of bij te scholen.

Uit een recent artikel in The Wall Street Journal blijkt dat contractbanen die elementaire schrijf-, codeer- en vertaalfuncties vereisen, verdwijnen. En uit een onderzoek dat afgelopen november werd gepubliceerd, blijkt dat freelancers na de lancering van OpenAI ChatGPT minder banen kregen en veel minder verdienden.

De missie van OpenAI is, in ieder geval totdat het een bedrijf met winstoogmerk wordt, “ervoor te zorgen dat kunstmatige algemene intelligentie (AGI) – AI-systemen die over het algemeen slimmer zijn dan mensen – de hele mensheid ten goede komt.” Hij behaalde geen AGI. Maar zou het niet lovenswaardig zijn als OpenAI, trouw aan het deel dat de hele mensheid ten goede komt, zelfs maar een klein deel van zijn inkomsten ($3,4 miljard+) opzij zet om makers te betalen, zodat ze niet meegesleurd worden in de generatieve vloed van kunstmatige intelligentie? ?

Ik kan dromen, nietwaar?