Van schoolverbod tot Sam Altman-drama: grote vooruitgang op het gebied van AI in 2023 | Technologie

De kunstmatige intelligentie-industrie (AI) begon 2023 met een knaller toen scholen en universiteiten worstelden met studenten die OpenAI ChatGPT gebruikten om hen te helpen met huiswerk en essays.

Nog geen week later verbood New York City Public Schools ChatGPT – weken eerder met veel tamtam aangekondigd – een stap die de weg vrij zou maken voor een groot deel van de generatieve AI-discussie in 2023.

Terwijl de buzz rond het door Microsoft gesteunde ChatGPT en rivalen zoals Google’s Bard AI, Baidu’s Ernie Chatbot en Meta’s LLaMA groeide, namen ook de vragen toe over hoe om te gaan met de krachtige nieuwe technologie die van de ene op de andere dag voor het publiek beschikbaar komt.

Hoewel afbeeldingen, muziek, video’s en computercode gecreëerd door kunstmatige intelligentie, gemaakt op platforms zoals Stability AI Stable Diffusion of OpenAI’s DALL-E, opwindende nieuwe mogelijkheden hebben geopend, hebben ze ook zorgen geuit over desinformatie, gerichte intimidatie en inbreuk op het auteursrecht.

In maart riep een groep van meer dan duizend ondertekenaars, waaronder mede-oprichter van Apple Steve Wozniak en miljardair tech-ondernemer Elon Musk, op tot een pauze in de ontwikkeling van meer geavanceerde kunstmatige intelligentie in het licht van de ‘diepgaande risico’s voor de samenleving en de mensheid’.

Hoewel er geen pauze is gekomen, zijn regeringen en regelgevende instanties begonnen nieuwe wet- en regelgeving in te voeren om vangrails op te zetten voor de ontwikkeling en het gebruik van AI.

Hoewel veel vragen rond AI onopgelost blijven in de aanloop naar het nieuwe jaar, zal 2023 waarschijnlijk de geschiedenis ingaan als een belangrijk keerpunt in de geschiedenis van het vakgebied.

Drama op OpenAI

Nadat ChatGPT in 2023 meer dan 100 miljoen gebruikers had verzameld, haalde de OpenAI-ontwikkelaar in november opnieuw het nieuws toen de raad van bestuur CEO Sam Altman abrupt ontsloeg – daarbij verwijzend naar het feit dat hij niet “consequent eerlijk was geweest in zijn communicatie met het bestuur.”

Hoewel de startup uit Silicon Valley niet inging op de redenen voor het ontslag van Altman, werd zijn ontslag algemeen toegeschreven aan een ideologische strijd binnen het bedrijf tussen veiligheid en commerciële belangen.

De afzetting van Altman veroorzaakte een vijfdaags publiek drama waarin OpenAI-personeel dreigde met een massaontslag, en Altman werd kort ingehuurd door Microsoft, tot zijn herplaatsing en vervanging van het bestuur.

Hoewel OpenAI heeft geprobeerd afstand te nemen van het drama, blijven de vragen die tijdens de onrust zijn opgeworpen gelden voor de sector als geheel – inclusief hoe het verlangen naar winst en de lancering van nieuwe producten in evenwicht kan worden gebracht met de angst dat AI te snel te krachtig zou kunnen worden of zou kunnen vallen. in de verkeerde handen terechtkomen.

altman
Altman zelf werd kort ontslagen bij OpenAI [File: Lucy Nicholson/Reuters]

In een onderzoek onder 305 ontwikkelaars, beleidsmakers en academici, uitgevoerd door het Pew Research Center in juli, zei 79 procent van de respondenten dat ze zich meer zorgen dan enthousiast maakten over de toekomst van AI, of even bezorgd als opgewonden.

Ondanks het potentieel van AI om vakgebieden te transformeren van geneeskunde naar onderwijs en massacommunicatie, uitten de respondenten hun bezorgdheid over risico’s zoals massale surveillance, intimidatie door overheid en politie, ontheemding van banen en sociaal isolement.

Sean McGregor, oprichter van de Responsible AI Collaborative, zei dat 2023 de hoop en angst liet zien die er bestaat rond generatieve AI, evenals de diepe filosofische kloof binnen de sector.

“Het meest hoopvol is het licht dat nu schijnt op maatschappelijke beslissingen die door technologen worden genomen, hoewel het zorgwekkend is dat veel van mijn collega’s in de technologiesector dergelijke aandacht negatief lijken te zien”, vertelde McGregor aan Al Jazeera, eraan toevoegend dat AI “de behoeften van mensen zou moeten vormgeven”. van de mensen die het zwaarst getroffen zijn”.

“Ik voel me nog steeds overwegend positief, maar het zullen een paar decennia uitdagende jaren worden voordat we beseffen dat het AI-veiligheidsdiscours een mooie technologische versie is van eeuwenoude sociale uitdagingen”, zei hij.

Wetgeving over de toekomst

In december zijn de beleidsmakers van de Europese Unie het eens geworden over alomvattende wetgeving om de toekomst van kunstmatige intelligentie te bepalen, wat het hoogtepunt vormde van een jaar van inspanningen van nationale regeringen en internationale instanties zoals de Verenigde Naties en de G7.

Belangrijke kwesties zijn onder meer de informatiebronnen die worden gebruikt om AI-algoritmen te trainen, waarvan een groot deel van het internet wordt overgeheveld zonder rekening te houden met privacy, vooringenomenheid, nauwkeurigheid of auteursrecht.

Het ontwerp van de EU-wet vereist dat ontwikkelaars hun trainingsgegevens openbaar maken en de wetten van het blok naleven, met beperkingen op bepaalde soorten gebruik en een manier voor gebruikers om te klagen.

Soortgelijke wetgevende inspanningen zijn aan de gang in de VS, waar president Joe Biden in oktober een ingrijpend uitvoerend bevel over AI-normen uitvaardigde, en in Groot-Brittannië, waar in november een AI-veiligheidstop plaatsvond waar 27 landen en belanghebbenden uit de industrie bij elkaar kwamen.

China heeft ook stappen ondernomen om de toekomst van kunstmatige intelligentie te reguleren, door tijdelijke regels te publiceren voor ontwikkelaars die hen verplichten een ‘veiligheidsbeoordeling’ te ondergaan voordat ze producten aan het publiek vrijgeven.

De richtlijnen beperken ook AI-trainingsgegevens en verbieden inhoud die wordt geacht “terrorisme te bepleiten”, “de sociale stabiliteit te ondermijnen”, “het socialistische systeem te ondermijnen” of “het imago van het land te schaden”.

Wereldwijd werd in 2023 ook de eerste tussentijdse internationale overeenkomst over AI-beveiliging ondertekend, ondertekend door twintig landen, waaronder de Verenigde Staten, het Verenigd Koninkrijk, Duitsland, Italië, Polen, Estland, Tsjechië, Singapore, Nigeria, Israël en Chili.

AI en de toekomst van werk

Vragen over de toekomst van kunstmatige intelligentie zijn ook wijdverbreid in de particuliere sector, waar het gebruik ervan al heeft geleid tot class action-rechtszaken door schrijvers, kunstenaars en nieuwsmedia in de VS wegens vermeende inbreuk op het auteursrecht.

De vrees dat AI banen zal vervangen is een drijvende factor geweest achter maandenlange stakingen in Hollywood door de Screen Actors Guild en de Writers Guild of America.

In maart voorspelde Goldman Sachs dat generatieve kunstmatige intelligentie 300 miljoen banen zou kunnen vervangen door automatisering en tweederde van de huidige banen in Europa en de VS op zijn minst op de een of andere manier zou kunnen beïnvloeden – waardoor het werk productiever zou worden, maar ook meer geautomatiseerd.

Anderen probeerden de sombere voorspellingen af ​​te zwakken.

In augustus zei de Internationale Arbeidsorganisatie, het arbeidsagentschap van de VN, dat generatieve kunstmatige intelligentie waarschijnlijk de meeste banen zal vergroten dan vervangen, waarbij administratief werk als de meest bedreigde bezigheid wordt genoemd.

Het jaar van de ‘deepfake’?

Het jaar 2024 zal een grote test zijn voor generatieve kunstmatige intelligentie, omdat nieuwe toepassingen op de markt komen en nieuwe wetten van kracht worden tegen de achtergrond van mondiale politieke onrust.

De komende twaalf maanden zullen naar verwachting ruim twee miljard mensen gaan stemmen bij verkiezingen in een recordaantal van veertig landen, waaronder geopolitieke hotspots als de VS, India, Indonesië, Pakistan, Venezuela, Zuid-Soedan en Taiwan.

Hoewel online-desinformatiecampagnes al een vast onderdeel vormen van veel verkiezingscycli, wordt verwacht dat AI-gegenereerde inhoud de zaken nog erger zal maken, omdat valse informatie moeilijker te onderscheiden is van echte informatie en gemakkelijker op grote schaal te repliceren is.

Door AI gegenereerde inhoud, waaronder ‘deepfake’-beelden, is al gebruikt om woede en verwarring te veroorzaken in conflictgebieden zoals Oekraïne en Gaza, en is opgenomen in verhitte verkiezingsraces zoals de Amerikaanse presidentsverkiezingen.

Vorige maand vertelde Meta adverteerders dat het politieke advertenties op Facebook en Instagram zou verbieden die zijn gemaakt met generatieve kunstmatige intelligentie, terwijl YouTube aankondigde dat makers inhoud zouden moeten markeren die realistisch ogende AI creëert.