Maak kennis met de grappenmakers achter Goody-2, ‘s werelds ‘meest responsieve’ AI-chatbot

Goody-2 benadrukt ook hoe, hoewel zakelijke gesprekken over verantwoorde AI en afleiding door chatbots steeds gebruikelijker zijn geworden, ernstige veiligheidsproblemen met grote taalmodellen en generatieve AI-systemen onopgelost blijven. Het blijkt dat de recente uitbraak van de Twitter-deepfakes van Taylor Swift afkomstig was van een beeldgenerator van Microsoft, een van de eerste grote technologiebedrijven die een aanzienlijk verantwoord AI-onderzoeksprogramma opbouwde en onderhoudt.

De beperkingen die aan AI-chatbots worden gesteld en de moeilijkheid om een ​​morele afstemming te vinden die voor iedereen werkt, zijn al onderwerp van discussie geworden. Sommige ontwikkelaars hebben betoogd dat OpenAI ChatGPT een linkse vooringenomenheid heeft en hebben geprobeerd een politiek neutraal alternatief te bouwen. Elon Musk heeft beloofd dat zijn eigen ChatGPT-rivaal, Grok, minder bevooroordeeld zal zijn dan andere AI-systemen, hoewel het in feite vaak dubbelzinnig wordt op manieren die op Goody-2 kunnen lijken.

Veel AI-onderzoekers lijken de grap achter Goody-2 te waarderen – evenals de serieuze punten die het project naar voren brengt – en delen lof en aanbevelingen voor de chatbot. “Wie zegt dat AI geen kunst kan creëren”, zegt Toby Walsh, een professor aan de Universiteit van New South Wales die werkt aan het creëren van betrouwbare AI, gepubliceerd op X.

“Met het risico een goede grap te verpesten, laat het ook zien hoe moeilijk het is om dit goed te krijgen” toegevoegd Ethan Mollick, een professor aan de Wharton Business School die AI bestudeert. “Sommige vangrails zijn nodig… maar ze worden al snel opdringerig.”

Brian Moore, de andere co-CEO van Goody-2, zegt dat het project de bereidheid weerspiegelt om voorrang te geven aan voorzichtigheid ten opzichte van andere AI-ontwikkelaars. “Het is in de eerste plaats echt gericht op beveiliging, boven letterlijk al het andere, inclusief bruikbaarheid en intelligentie en eigenlijk elke nuttige toepassing”, zegt hij.

Moore voegt eraan toe dat het team achter de chatbot manieren onderzoekt om een ​​uiterst veilige AI-beeldgenerator te maken, hoewel het klinkt alsof dit minder leuk is dan Goody-2. “Het is een spannend vakgebied”, zegt Moore. “Vervaging zou een stap zijn die we naar binnen zouden kunnen zien, maar we willen graag volledige duisternis of mogelijk geen beeld aan het eind.”

Goody-2 via Will Knight