Wat je van volgend jaar kunt verwachten in AI

Ook heb ik voldoende tijd gehad om terug te blikken op het afgelopen jaar. Veel meer van jullie lezen Algoritme dan toen we deze nieuwsbrief voor het eerst begonnen, en daarvoor ben ik eeuwig dankbaar. Bedankt dat je met mij meeging op deze wilde AI-rit. Hier is een waaiermopshond als klein cadeautje!

Dus wat kunnen we verwachten in 2024? jaren? Alle tekenen wijzen op een enorme druk op AI-bedrijven om aan te tonen dat generatieve AI geld kan verdienen en dat Silicon Valley een ‘killer app’ voor AI kan produceren. Big Tech, de grootste voorstander van generatieve AI, zet in op aangepaste chatbots, waarmee iedereen een applicatie-ingenieur voor generatieve kunstmatige intelligentie kan worden, zonder dat codeervaardigheden vereist zijn. De zaken gaan al snel: OpenAI zal naar verluidt deze week al zijn GPT-app store lanceren. We zullen ook geweldige nieuwe ontwikkelingen zien in door AI gegenereerde video, veel meer door AI aangedreven verkeerde verkiezingsinformatie en multitasking-robots. Mijn collega Will Douglas Heaven en ik deelden vorige week onze vier voorspellingen voor AI in 2024 – lees het volledige verhaal hier.

Dit jaar zal ook opnieuw een belangrijk jaar zijn voor de regulering van kunstmatige intelligentie over de hele wereld. In 2023 werd in de Europese Unie overeenstemming bereikt over de eerste alomvattende AI-wet, vonden in de VS hoorzittingen en uitvoeringsbesluiten in de Senaat plaats en introduceerde China specifieke regels voor zaken als aanbevelingsalgoritmen. Als de wetgevers vorig jaar overeenstemming bereikten over de visie, zal 2024 het jaar zijn waarin het beleid zal beginnen om te zetten in concrete actie. Samen met mijn collega’s Tate Ryan-Mosley en Zeyi Yang heb ik een artikel geschreven dat u begeleidt bij wat u het komende jaar kunt verwachten op het gebied van AI-regulering. Lees het hier.

Maar zelfs nu de generatieve AI-revolutie zich in razend tempo ontvouwt, zijn er nog steeds enkele grote onopgeloste vragen die dringend moeten worden beantwoord, schrijft Will. Hij benadrukt onder meer kwesties rond vooringenomenheid, auteursrecht en de hoge kosten van het bouwen van AI. Lees hier meer.

Mijn toevoeging aan de lijst zouden de enorme beveiligingsproblemen van generatieve modellen zijn. Grote taalmodellen, de AI-technologie die apps als ChatGPT aandrijft, zijn heel gemakkelijk te hacken. AI-assistenten of chatbots die op internet kunnen zoeken, zijn bijvoorbeeld zeer kwetsbaar voor een aanval die indirecte snelle injectie wordt genoemd en waarmee buitenstaanders de bot kunnen besturen door onzichtbare vragen binnen te sluipen die ervoor zorgen dat de bots zich gedragen zoals de aanvaller dat wil. Dit zou hen krachtige instrumenten kunnen maken voor identiteitsdiefstal en fraude, zoals ik al in april schreef. Onderzoekers zijn er ook met succes in geslaagd om AI-datasets te vergiftigen met corrupte gegevens, waardoor AI-modellen voor altijd kapot kunnen gaan. (Natuurlijk is het niet altijd een kwaadwillende actor die dit probeert. Met behulp van een nieuwe tool genaamd Nightshade kunnen kunstenaars onzichtbare wijzigingen aanbrengen in de pixels in hun kunst voordat ze deze naar internet sturen, dus als deze in een AI-trainingsset wordt ingevoerd, het kan ervoor zorgen dat het resulterende model op chaotische en onvoorspelbare manieren kapot gaat.)

Ondanks deze kwetsbaarheden haasten technologiebedrijven zich om op AI gebaseerde producten te introduceren, zoals assistenten of chatbots die op internet kunnen zoeken. Het is voor hackers vrij eenvoudig om AI-systemen te manipuleren door ze te vergiftigen met twijfelachtige gegevens, dus het is slechts een kwestie van tijd voordat we zien dat een AI-systeem op deze manier wordt gehackt. Daarom was ik blij om te zien dat NIST, het Amerikaanse agentschap voor technologiestandaarden, het bewustzijn over deze problemen vergroot en mitigatietechnieken aanbiedt in nieuwe richtlijnen die eind vorige week zijn uitgebracht. Helaas bestaat er momenteel geen betrouwbare oplossing voor deze beveiligingsproblemen en is er veel meer onderzoek nodig om ze beter te begrijpen.

De rol van kunstmatige intelligentie in onze samenlevingen en levens zal alleen maar groter worden naarmate technologiebedrijven het integreren in de software waar we allemaal dagelijks van afhankelijk zijn, ondanks deze tekortkomingen. Nu de regelgeving zijn inhaalslag maakt, is het belangrijker dan ooit om een ​​open, kritische geest te hebben als het om AI gaat.

Dieper leren

Hoe machine learning aardbevingsvoorspellingen kan ontsluiten