Een nieuw boek kijkt naar de AI-hype – en hoe je deze kunt herkennen



Dat is een klein voorbeeld van hoe AI faalt. Arvind Narayanan en Sayash Kapoor verzamelen tientallen anderen in hun nieuwe boek, AI slangenolie – vele met veel verontrustender gevolgen dan het irriteren van een enkele wetenschapsjournalist. Ze schrijven over hulpmiddelen voor kunstmatige intelligentie die academisch succes, de kans op het plegen van een misdaad, het risico op ziekten, burgeroorlogen en welzijnsfraude voorspellen (SN: 20.2.18). Gaandeweg verweven de auteurs vele andere kwesties met kunstmatige intelligentie, waaronder desinformatie, het gebrek aan toestemming voor afbeeldingen en andere trainingsgegevens, valse auteursrechtclaims, deepfakes, privacy en de versterking van sociale ongelijkheid (SN: 24.10.19). Ze gaan in op de vraag of we bang moeten zijn voor kunstmatige intelligentie en concluderen: “We zouden ons veel meer zorgen moeten maken over wat mensen met AI zullen doen dan over wat AI op zichzelf zal doen.

De auteurs erkennen dat de technologie snel vooruitgaat. Sommige details kunnen al verouderd zijn – of op zijn minst oud nieuws – tegen de tijd dat het boek in handen komt. En duidelijke discussies over AI moeten kampen met een gebrek aan consensus over de manier waarop sleutelbegrippen moeten worden gedefinieerd, inclusief de betekenis van AI zelf. Toch bereiken Narayanan en Kapoor hun gestelde doel volledig: mensen in staat stellen onderscheid te maken tussen goed functionerende AI en slangenolie-AI, die zij definiëren als “AI die niet werkt en niet kan werken zoals geadverteerd.”

Narayanan is een computerwetenschapper aan de Princeton University, en Kapoor is een Ph.D. leerling daar. Het idee voor het boek ontstond toen dia’s van een lezing die Narayanan in 2019 hield met de titel “How to Spot AI Snake Oil” viraal gingen. Hij werkte samen met Kapoor, die een cursus volgde die Narayanan samen met een andere professor gaf over de grenzen van voorspellingen in sociale omgevingen.

De auteurs richten zich rechtstreeks op AI die zogenaamd toekomstige gebeurtenissen kan voorspellen. “De meeste AI-slangenolie is geconcentreerd in deze arena”, schrijven ze. “Voorspellende AI werkt niet alleen vandaag de dag niet, maar zal dat waarschijnlijk ook nooit doen, vanwege de inherente moeilijkheden bij het voorspellen van menselijk gedrag.” Ze wijden ook een lang hoofdstuk aan de redenen waarom AI de problemen met het modereren van sociale media-inhoud niet kan oplossen. (Kapor werkte bij Facebook en hielp bij het creëren van AI voor contentmoderatie.) Een uitdaging is dat AI worstelt met context en nuance. Sociale media bevorderen ook haat en gevaarlijke inhoud.

De auteurs zijn iets genereuzer met generatieve AI en erkennen de waarde ervan als ze verstandig worden gebruikt. Maar in een sectie met de titel ‘Automated Bullshit’ merken de auteurs op: ‘ChatGPT is schrikbarend goed in het plausibel klinken over elk denkbaar onderwerp. Maar tijdens de training is er geen bron van waarheid.” Het is niet alleen zo dat de trainingsgegevens onwaarheden kunnen bevatten – de gegevens bestaan ​​voornamelijk uit internettekst – maar ook dat het programma is geoptimaliseerd om natuurlijk te klinken en niet noodzakelijkerwijs kennis te bezitten of te verifiëren. (Dat verklaart Enceladus.)

Ik zou hieraan willen toevoegen dat een te grote afhankelijkheid van generatieve AI het kritisch denken, de menselijke kwaliteit die centraal staat in dit boek, kan ontmoedigen.

Als het gaat om waarom deze problemen bestaan ​​en hoe ze te veranderen, hebben Narayanan en Kapoor een duidelijk standpunt: de samenleving heeft te veel respect voor de technologie-industrie. Betere regelgeving is essentieel. “Het is verkeerd om de toekomst van AI over te laten aan de mensen die momenteel de leiding hebben”, schrijven ze.

Of u nu beleidsbeslissingen neemt, kunstmatige intelligentie op de werkplek gebruikt of gewoon tijd doorbrengt met surfen op internet: dit boek is het lezen waard. Het is een krachtige herinnering aan hoe AI ons leven al is geïnfiltreerd – en een overtuigende oproep om ons bewust te zijn van de manier waarop we ermee omgaan.


Koop het AI slangenolie van Bookshop.org. Wetenschappelijk nieuws is een partner van Bookshop.org en verdient een commissie op aankopen gedaan via de links in dit artikel.