Downloaden: De grenzen van kunstmatige intelligentie | MIT-technologierecensie

De nieuwe chatbot van de Wereldgezondheidsorganisatie werd op 2 april gelanceerd met de beste bedoelingen. De virtuele avatar, genaamd SARAH, is ontworpen om gezondheidstips over goed eten, stoppen met roken, stress verlichten en meer te delen met miljoenen over de hele wereld. Maar net als alle chatbots kan SARAH zijn reacties veranderen. Al snel bleek dat er onjuiste informatie werd verstrekt. In één geval verscheen er een lijst met valse namen en adressen van niet-bestaande klinieken in San Francisco.

Mislukkingen in chatbots zijn nu een bekende meme. Matts kortstondige wetenschappelijke chatbot Galactica produceerde academische artikelen en genereerde wiki-artikelen over de geschiedenis van beren in de ruimte. In februari kreeg Air Canada de opdracht een restitutiebeleid te volgen dat was opgesteld door de chatbot van de klantenservice. Vorig jaar kreeg een advocaat een boete voor het indienen van gerechtelijke documenten vol valse gerechtelijke adviezen en juridische citaten gemaakt door ChatGPT.

Deze neiging om dingen te verzinnen – bekend als hallucinaties – is een van de grootste obstakels die chatbots ervan weerhouden wijdverbreide adoptie te bewerkstelligen. Waarom doen ze dat? En waarom kunnen we het niet repareren? Lees het volledige verhaal.

-Will Douglas Heaven

Will’s artikel is het nieuwste artikel in MIT Technology Review Explores, onze serie waarin de complexe, rommelige wereld van technologie wordt uitgelegd om u te helpen begrijpen wat de toekomst biedt. Je kunt controleren de rest van de serie hier.

Het verhaal komt ook uit een komende uitgave van MIT Technology Review, waarin het thema van de game wordt onderzocht. De film gaat live op woensdag 26 juni, dus als je dat nog niet hebt gedaan: abonneren nu om een ​​exemplaar te krijgen wanneer het landt.

Waarom kunstenaars steeds minder bang zijn voor kunstmatige intelligentie

Klop klop. Wie is daar? AI met generieke grappen. Onderzoekers van Google DeepMind vroegen twintig professionele cabaretiers om populaire AI-taalmodellen te gebruiken om grappen en komische optredens te schrijven. Hun resultaten waren anders. Hoewel de tools hen hielpen bij het maken van de eerste schetsen en het structureren van hun routines, kon de AI niets produceren dat origineel, stimulerend of, belangrijker nog, grappig was.

Het onderzoek is symptomatisch voor een bredere trend: we beseffen de grenzen van wat AI voor kunstenaars kan doen. Het kan enkele van de saaie, alledaagse, formele aspecten van het creatieve proces overnemen, maar het kan de magie en originaliteit die mensen met zich meebrengen niet vervangen. Lees het volledige verhaal.