OpenAI zegt dat de nieuwste ChatGPT kan ‘denken’ – en ik heb gedachten | Technologie

We naderen snel twee jaar in de generatieve AI-revolutie, aangewakkerd door de release van ChatGPT door OpenAI in november 2022. Tot nu toe is het een allegaartje geweest.

OpenAI heeft onlangs aangekondigd dat het de 200 miljoen wekelijkse actieve gebruikers heeft overschreden – niets om aan te merken, maar het kreeg de eerste 100 miljoen binnen twee maanden na de release. Uit recent onderzoek van YouGov is gebleken dat het integreren van AI in een product een potentiële klant net zo goed zal afschrikken als ervoor zal zorgen dat hij of zij zijn geld zal afstaan.

Niettemin blijft er geld de sector binnenstromen en blijven er vorderingen binnenkomen. OpenAI zoekt geld van investeerders om toekomstige ontwikkelingen te financieren die de waarde van het bedrijf op 150 miljard dollar zouden brengen. Dat zou het op één lijn brengen met Cisco, Shell en McDonalds. En vorige week onthulde het zijn nieuwste model, de o1 genaamd, dat het aanprees als een stapsgewijze verandering in de ontwikkeling van generatieve AI.

Het o1-model, voorheen codenaam Strawberry, is ontworpen om beslissingen te redeneren, net zoals mensen dat doen. De nieuwste versie van het model dat ChatGPT ondersteunt, is eigenlijk een stap achteruit als het gaat om uitvoersnelheid en modelgrootte, die voorlopig kleiner is. Zie het als GPT-4.5, en niet als de volgende grote iteratie, GPT-5, die naar verluidt nog in ontwikkeling is.

Missie: onmogelijk?

Hoewel o1 op papier een natte pen is, doet het iets dat Alex eerder in deze nieuwsbrief benadrukte als een probleem met op LLM gebaseerde chatbots, en dat hij het “Tom Cruise-probleem” noemde. Het probleem was dat onderzoekers een vraag over ChatGPT op één manier konden stellen, maar wanneer hen een vraag werd gesteld die direct verband hield met de eerste vraag, bijvoorbeeld: wie is de moeder van Tom Cruise? (Antwoord: Mary Lee Pfeiffer) en dan vragen ze wie de zoon van Mary Lee Pfeiffer is? (Antwoord: Tom Cruise) – zou wankelen.

Stel een paar vragen en het zal je helpen. Het geeft zelfs aanwijzingen over hoe het antwoord tot stand komt – wat OpenAI lastig en onnauwkeurig heeft omdat AI-modellen geen hersenen hebben, die ‘gedachten’ worden genoemd. (Als je wilt weten waarom het antropomorfiseren van AI-modellen een probleem is, lees dan dit verhaal dat ik in februari schreef.) Toen hem de tweede vraag werd gesteld, dacht o1 vier seconden na, inclusief het opsporen van familiebanden en het bevestigen van details.

Tot nu toe gaat het goed. OpenAI zegt dat o1 het kan begrijpen. Velen zijn minder zeker van dit soort declarativiteit, maar laten ze het gebruiken voor marketingdoeleinden. Dit zou een aanzienlijke verandering betekenen in de manier waarop u generatieve AI kunt gebruiken: in plaats van dat het feiten uit de trainingsgegevens haalt of antwoorden geeft waarvan het statistisch gezien denkt dat deze de meeste gebruikers tevreden zullen stellen, zou het de informatie kunnen overwegen en reageren.

‘Kan’ is echter het sleutelwoord. We tasten nog steeds grotendeels in het ongewisse over hoe deze dingen werken – en onder ‘wij’ vallen ook de ontwikkelaars van dergelijke tools. OpenAI heeft gezegd dat dit redeneervermogen een groot probleem is – het bedrijf maakte zelfs de twijfelachtige bewering dat de o1 het gevaarlijkste model tot nu toe is (zie hier hoe dat soms meer een marketingtruc is dan wat dan ook). Degenen die hebben geprobeerd de grenzen van het o1-model te testen, lijken het eens te zijn met hun mening over de grondgedachte, maar minder met het gevaarlijke gedeelte.

Schenk geen aandacht aan die man achter het gordijn!

Gedachten? … OpenAI denkt dat AI kan denken. Foto: Dado Ruvić/Reuters

Nou ja, soort van. Omdat ondervragingen maar zo ver kunnen gaan. Om te proberen de gedachtegang te begrijpen die ten grondslag ligt aan o1 – als je een goed voorbeeld wilt, Simon Willison is altijd betrouwbaar – proberen gebruikers die onder de motorkap willen kijken wat meer details te krijgen over wat o1 “dacht” dat het proces was . De informatie die momenteel aan gebruikers wordt weergegeven, is een korte samenvatting van elke stap in de redeneerketen.

En daarom vroegen ze het model zelf hoe het aan zijn antwoorden kwam – ook al ontvingen ze ook e-mails van OpenAI met het verzoek om te stoppen, anders zouden hun accounts worden opgeschort.

sla de nieuwsbriefpromotie over

Dit alles betekent dat we een beetje in het duister tasten. Dit lijkt op een transformerende verandering in de wereld van kunstmatige intelligentie, en iets dat de tool zou kunnen veranderen van een tool waarvan je de resultaten met argwaan moet bekijken, in een noodzaak om te gebruiken.

Wat vooral interessant is, is dat de dominantie van OpenAI de berichtgeving van alle concurrenten de afgelopen tijd effectief heeft verdrongen. Mistral, een hoog aangeschreven Franse concurrent, kondigde vorige week zijn eerste multimodale model aan. Het Pixtral 12B-model voegt beeldherkenning toe aan het genereren van tekst. Het had enorme lof moeten krijgen. Maar OpenAI en o1 zoog alle zuurstof op.

Toch betekent dit allemaal dat de AI-trein blijft rollen en eindelijk zijn belofte begint waar te maken. Een andere vraag is of degenen die ChatGPT in de beginperiode hebben geprobeerd en vonden dat het ontbrak, overtuigd kunnen worden om terug te komen en de nieuwere modellen te proberen.

Vouw TechScape uit

Liefde doet pijn… Hebben datingapps bijgedragen aan de krimpende economie? Foto: Tero Vesalainen/Alamy