Sora van OpenAI duwt ons een gigantische stap dichter bij de afgrond van AI

Het is moeilijk om over Sora te schrijven zonder het gevoel te hebben dat je geest smelt. Maar na de verrassende AI-aankondiging van OpenAI gistermiddag hebben we ons beste bewijs van wat de nog steeds ongereguleerde, consequentievrije technologie-industrie je wil verkopen: een black-box-suite van AI-hongerige producten die fotorealistische media kunnen produceren die de grenzen verleggen van legaliteit, privacy en objectieve realiteit.

Behoudens doortastende, doordachte en alomvattende regelgeving zou het onlinelandschap vrijwel onherkenbaar en op de een of andere manier zelfs onbetrouwbaarder kunnen worden dan ooit tevoren. Zodra de begrijpelijke ‘wauw’-factor van de hyperreële wolharige mammoeten en papieren oceaanlandschappen is uitgewerkt, blijft het nieuwste vervormingsproject van CEO Sam Altman verontrustend.

Het concept achter Sora (wat ‘lucht’ betekent in het Japans) is niets bijzonders nieuws: het is blijkbaar een AI-programma dat in staat is om high-definition video te genereren, uitsluitend gebaseerd op de beschrijvende tekstinvoer van de gebruiker. Simpel gezegd: Sora zou het tekst-naar-beeld-diffusiemodel dat DALL-E aandrijft, combineren met een neuraal netwerksysteem dat bekend staat als een transformator. Hoewel OpenAI over het algemeen wordt gebruikt voor het parseren van enorme hoeveelheden gegevens, zoals tekst, heeft het naar verluidt de transformatortechnologie aangepast om videoframes op een vergelijkbare manier te verwerken.

“Blijkbaar”, “naar verluidt”, “naar verluidt”. Al deze kanttekeningen zijn verplicht bij het beschrijven van Sora, omdat as MIT-technologierecensie legt uit dat OpenAI gisteren toegang heeft verleend tot voorbeeldfragmenten nadat de media ermee hadden ingestemd te wachten tot een officiële aankondiging van het bedrijf om “de mening van externe experts te vragen”. Zelfs wanneer OpenAI deed hun laatste experiment beoordeelden, deden ze dat zonder een technisch rapport of een achtergronddemonstratie van een ‘echt werkend’ model te publiceren.

Dit betekent dat in de nabije toekomst geen enkele externe toezichthouder, gekozen functionaris, sectorwaakhond of low-tech verslaggever hiervan op de hoogte zal zijn. Hoe Sora beschikt over de meest ongewone media ooit geproduceerd door AI, Wat de gegevens die het bedrijf van Altman heeft verzameld om zijn nieuwe programma te trainen, en Hoe veel het kost energie om deze videobeelden van één minuut te laten draaien. Je bent overgeleverd aan wat OpenAI ook maar wil delen met het publiek – een bedrijf waarvan de CEO herhaaldelijk heeft gewaarschuwd dat het risico van uitsterven door AI hetzelfde is als een kernoorlog, maar dat alleen mensen zoals hij kunnen worden vertrouwd met de middelen en middelen om dit te voorkomen.

De snelheid waarmee we hier kwamen is net zo duizelingwekkend als de video’s zelf. Nieuwe Atlas gisteren bood een solide inkapseling van de situatie: de clip-samples van OpenAI zijn zeker niet perfect, maar in slechts negen maanden zijn we gegaan van “komische horrorVan AI Will Smith die spaghetti eet, tot bijna fotorealistische high-definition video’s van drukke straten in de stad, uitgestorven dieren en denkbeeldige personages uit de verbeelding van kinderen. Hoe soortgelijke technologie er over negen maanden uit zal zien – voorafgaand aan mogelijk een van de meest consequente Amerikaanse presidentsverkiezingen in de moderne geschiedenis.

Als je eenmaal voorbij de indrukken van Sora’s salon bent, is het moeilijk om de verontrustende implicaties te negeren. Natuurlijk zijn video’s technologische wonderen. Natuurlijk kan Sora innovatieve, leuke en zelfs nuttige resultaten opleveren. Maar wat als iemand het zou gebruiken als offer, nou ja, iets anders dan “vernieuwend”, “leuk” of “nuttig?” Mensen zijn veel vindingrijker dan welk generatief AI-programma dan ook. Tot nu toe vereiste een jailbreak slechts een zekere mate van toewijding, geduld en de bereidheid om technologie om te buigen ten gunste van kwade wil.

Bedrijven als OpenAI beloven dat ze momenteel beveiligingsprotocollen en industriestandaarden ontwikkelen om te voorkomen dat slechte actoren onze nieuwe technologische wereld exploiteren – onbekend terrein waar ze roekeloos in blijven duiken met projecten als Sora. En toch zijn ze er niet in geslaagd zelfs de meest elementaire waarborgen te implementeren: deepfakes misbruiken menselijke lichamen, schooldistricten gebruiken ChatGPT om stilzwijgend in te stemmen met fascistische boekenverboden, en de grenzen tussen feit en fictie blijven vervagen.

[Related: Generative AI could face its biggest legal tests in 2024.]

OpenAI zegt dat er geen onmiddellijke plannen zijn om Sora publiekelijk vrij te laten en dat ze rode teamtests uitvoeren om “kritieke gebieden te beoordelen op schade of risico’s.” Maar afgezien van enige vorm van regelgeving, is het mogelijk dat OpenAI Sora zo snel mogelijk vrijgeeft.

“Sora dient als basis voor modellen die de echte wereld kunnen begrijpen en simuleren, een mogelijkheid die volgens ons een belangrijke mijlpaal zal zijn in het bereiken van [Artificial General Intelligence]”, zei OpenAI in de aankondiging van gisteren, opnieuw expliciet verwijzend naar het doel van het bedrijf om kunstmatige intelligentie te creëren die bijna niet te onderscheiden is van mensen.

Sora, een model voor het begrijpen en simuleren van de echte wereld – tenminste wat ervan over is.