AI beloofde mensachtige machines – 1958

Dit artikel werd oorspronkelijk gepresenteerd op Gesprek.

Een computer ter grootte van een kamer uitgerust met een nieuw type circuit, de Perceptron, werd in 1958 aan de wereld geïntroduceerd in een nieuwsbrief die diep in de New York Times was begraven. Het verhaal zei dat de Amerikaanse marine zei dat de Perceptron zou leiden tot machines die “zouden kunnen lopen, praten, zien, schrijven, reproduceren en zich bewust zouden zijn van het bestaan ​​ervan.”

Meer dan zes decennia later worden soortgelijke beweringen gedaan over de huidige kunstmatige intelligentie. Dus wat is er door de jaren heen veranderd? In zekere zin niet veel.

Het vakgebied van de kunstmatige intelligentie maakt sinds het begin een cyclus van bloei en mislukking door. Nu het veld opnieuw bloeit, lijken veel voorstanders van de technologie de mislukkingen uit het verleden – en de redenen daarvoor – vergeten te zijn. Hoewel optimisme vooruitgang stimuleert, is het de moeite waard om aandacht te schenken aan de geschiedenis.

De Perceptron, uitgevonden door Frank Rosenblatt, heeft misschien wel de basis gelegd voor AI. De elektronische analoge computer was een leermachine die was ontworpen om te voorspellen of een afbeelding tot een van de twee categorieën behoorde. Deze revolutionaire machine was gevuld met draden die de verschillende componenten fysiek met elkaar verbonden. Moderne kunstmatige neurale netwerken die ten grondslag liggen aan beroemde AI zoals ChatGPT en DALL-E zijn softwareversies van Perceptrons, behalve met aanzienlijk meer lagen, knooppunten en verbindingen.

Net als bij modern machinaal leren, zou de Perceptron, als hij het verkeerde antwoord zou geven, zijn verbindingen veranderen om beter te voorspellen wat er daarna komt. Bekende moderne kunstmatige intelligentiesystemen werken op vrijwel dezelfde manier. Met behulp van een op voorspellingen gebaseerd formaat kunnen grote taalmodellen, of LLM’s, indrukwekkende lange tekstreacties produceren en afbeeldingen aan tekst koppelen om nieuwe, op zoekopdrachten gebaseerde afbeeldingen te produceren. Deze systemen worden steeds beter naarmate ze meer interactie hebben met gebruikers.

AI-boom en buste

In het decennium nadat Rosenblatt de Mark I Perceptron introduceerde, beweerden experts als Marvin Minsky dat de wereld halverwege de jaren zeventig ‘een machine zou hebben met de algemene intelligentie van een gemiddeld mens’. Maar ondanks enig succes was menselijke intelligentie nergens te bekennen.

Al snel werd duidelijk dat de AI-systemen niets wisten van hun onderwerp. Zonder de juiste achtergrond- en contextuele kennis is het vrijwel onmogelijk om de dubbelzinnigheden in het dagelijks taalgebruik accuraat op te lossen – een taak die mensen moeiteloos uitvoeren. De eerste ‘winter’ of periode van desillusie op het gebied van kunstmatige intelligentie kwam in 1974 na het waargenomen falen van de Perceptron.

In 1980 was AI echter weer actief en was de eerste officiële AI-boom in volle gang. Er waren nieuwe expertsystemen, AI’s die waren ontworpen om problemen op specifieke kennisgebieden op te lossen, die objecten konden identificeren en ziekten konden diagnosticeren op basis van waarneembare gegevens. Er waren programma’s die complexe conclusies konden trekken uit simpele verhalen, de eerste zelfrijdende auto was klaar om de weg op te gaan, en robots die muziek konden lezen en afspelen die voor live publiek werd gespeeld.

Maar het duurde niet lang voordat dezelfde problemen de opwinding opnieuw temperden. In 1987 de tweede AI-winterhit. Expertsystemen faalden omdat ze de nieuwe informatie niet konden verwerken.

De jaren negentig veranderden de manier waarop experts problemen op het gebied van AI benaderden. Hoewel de definitieve dooi van de tweede winter niet tot een officiële hausse leidde, zag de AI aanzienlijke veranderingen. Onderzoekers hebben het probleem van kennisverwerving aangepakt met datagestuurde machine learning-benaderingen die de manier hebben veranderd waarop AI kennis verwerft.

Deze keer betekende het ook een terugkeer naar de perceptron in neurale netwerkstijl, maar deze versie was veel complexer, dynamischer en vooral digitaal. De terugkeer naar het neurale netwerk, samen met de uitvinding van de webbrowser en de toename van de rekenkracht, maakte het gemakkelijker om afbeeldingen te verzamelen, gegevens te verzamelen en datasets te distribueren voor machine learning-taken.

Beroemde refreinen

Snel vooruit naar vandaag en het vertrouwen in de vooruitgang op het gebied van AI begint opnieuw de beloften te weerspiegelen die bijna 60 jaar geleden zijn gedaan. De term ‘kunstmatige algemene intelligentie’ wordt gebruikt om LLM-activiteiten te beschrijven, zoals de activiteiten die AI-chatbots zoals ChatGPT aandrijven. Kunstmatige algemene intelligentie, of AGI, beschrijft een machine met mensachtige intelligentie, wat betekent dat de machine zelfbewust zou zijn, in staat zou zijn problemen op te lossen, te leren, plannen te maken voor de toekomst en uiteindelijk bewust zou zijn.

Net zoals Rosenblatt dacht dat zijn Perceptron de basis vormde voor een bewuste, mensachtige machine, zo denken sommige moderne AI-theoretici na over de huidige kunstmatige neurale netwerken. In 2023 publiceerde Microsoft een artikel waarin stond dat “de prestaties van GPT-4 opvallend dicht bij de prestaties op menselijk niveau liggen”.

Maar voordat we beweren dat LLM’s intelligentie op menselijk niveau vertonen, kan het helpen om na te denken over de cyclische aard van de vooruitgang op het gebied van AI. Veel van dezelfde problemen die eerdere versies van AI teisterden, zijn nog steeds aanwezig. Het verschil zit hem in de manier waarop deze problemen zich manifesteren.

Het kennisprobleem blijft bijvoorbeeld tot op de dag van vandaag bestaan. ChatGPT worstelt voortdurend met het reageren op idiomen, metaforen, retorische vragen en sarcasme: unieke taalvormen die grammaticale verbanden overstijgen en in plaats daarvan vereisen dat de betekenis van woorden wordt afgeleid op basis van de context.

Kunstmatige neurale netwerken kunnen met indrukwekkende nauwkeurigheid objecten in complexe scènes uitkiezen. Maar geef een AI een foto van een schoolbus die op zijn kant ligt, en hij zal in 97% van de gevallen vol vertrouwen zeggen dat het een sneeuwploeg is.

Lessen om op te letten

Het is zelfs aangetoond dat AI vrij gemakkelijk te misleiden is op manieren die mensen onmiddellijk zouden herkennen. Ik denk dat dit een overweging is die de moeite waard is om serieus te nemen, gezien hoe de dingen in het verleden zijn gegaan.

De kunstmatige intelligentie van nu ziet er heel anders uit dan de AI van weleer, maar de problemen uit het verleden blijven bestaan. Zoals het gezegde luidt: de geschiedenis herhaalt zich misschien niet, maar rijmt vaak.