Generatieve AI heeft niets geleerd van Web 2.0

Als 2022 het jaar was waarin de generatieve AI-boom begon, was 2023 het jaar van de generatieve AI-paniek. Iets meer dan twaalf maanden nadat OpenAI ChatGPT uitbracht en het record vestigde voor het snelst groeiende consumentenproduct, lijkt het ook te hebben bijgedragen aan het vestigen van het record voor de snelste overheidsinterventie in een nieuwe technologie. De Amerikaanse federale verkiezingscommissie onderzoekt misleidende campagneadvertenties, het Congres roept op tot toezicht op de manier waarop AI-bedrijven trainingsgegevens voor hun algoritmen ontwikkelen en labelen, en de Europese Unie heeft haar nieuwe AI-wet aangenomen met last-minute wijzigingen om generatieve kunstmatige intelligentie aan te pakken.

Maar ondanks alle nieuwigheid en snelheid zijn de problemen van generatieve AI ook pijnlijk bekend. OpenAI en zijn rivalen die racen om nieuwe AI-modellen te lanceren, worden geconfronteerd met problemen die sociale platforms, de nieuwe technologie die voorheen een tijdperk vormde, al bijna twintig jaar achtervolgen. Bedrijven als Meta zijn nooit over verkeerde en desinformatie, vage werkpraktijken en pornografie zonder wederzijds goedvinden heen gekomen, om maar een paar van de onbedoelde gevolgen ervan te noemen. Nu krijgen deze problemen een uitdagend nieuw leven, met een kunstmatige intelligentie-twist.

“Dit zijn volkomen voorspelbare problemen”, zegt Hany Farid, professor aan de UC Berkeley School of Information, over de kopzorgen waarmee OpenAI en anderen worden geconfronteerd. “Ik denk dat ze voorkomen hadden kunnen worden.”

Een platgetreden pad

In sommige gevallen worden generatieve AI-bedrijven rechtstreeks gebouwd bovenop de problematische infrastructuur die door socialemediabedrijven is opgezet. Facebook en anderen zijn afhankelijk geworden van laagbetaalde contentmoderators – vaak in het mondiale zuiden – om inhoud zoals haatzaaiende uitlatingen of afbeeldingen van naaktheid of geweld buiten te houden.

Datzelfde personeel wordt nu gebruikt om generatieve AI-modellen te trainen, vaak met vergelijkbare lage lonen en zware werkomstandigheden. Omdat het uitbesteden van de belangrijkste functies van een sociaal platform of een AI-bedrijf het administratief op afstand van het hoofdkantoor plaatst, en vaak op een ander continent, kunnen onderzoekers en toezichthouders moeite hebben om een ​​volledig beeld te krijgen van hoe een AI-systeem of een sociaal netwerk wordt gebouwd en beheerd. .

Outsourcing kan ook onduidelijk maken waar de echte intelligentie zich feitelijk in het product bevindt. Wanneer een stukje inhoud verdwijnt, werd het dan verwijderd door een algoritme of door een van de vele duizenden menselijke moderators? Als een chatbot van de klantenservice een klant helpt, hoeveel krediet gaat er dan naar de AI en hoeveel naar de medewerker in een oververhitte outsourcinghub?

Er zijn ook overeenkomsten in de manier waarop AI-bedrijven en sociale platforms reageren op kritiek op hun slechte of ongewenste effecten. AI-bedrijven praten over het instellen van beleid voor ‘bescherming’ en ‘aanvaardbaar gebruik’ voor bepaalde generatieve AI-modellen, net zoals platforms hun eigen servicevoorwaarden hebben over welke inhoud is toegestaan ​​en wat niet. Net als bij de regels voor sociale netwerken zijn AI-beleid en -bescherming relatief eenvoudig te omzeilen gebleken.