Target verontschuldigt zich nadat zijn AI-chatbot zegt dat de schietpartij van Trump niet heeft plaatsgevonden

De AI-assistent van Meta zei ten onrechte dat de recente moordaanslag op voormalig president Donald Trump niet heeft plaatsgevonden, een fout die de CEO van het bedrijf nu de schuld geeft aan de technologie die de chatbot en anderen aandrijft.

In een dinsdag gepubliceerde blogpost van het bedrijf noemde Joel Kaplan, het wereldwijde hoofd beleid van Meta, de antwoorden van de AI op vragen over de schietpartij ‘ongelukkig’. Hij zegt dat Meta AI in eerste instantie was geprogrammeerd om geen vragen over moordpogingen te beantwoorden, maar dat het bedrijf die beperking heeft opgeheven nadat mensen het merkten. Hij erkent ook dat “Meta AI in een klein aantal gevallen onjuiste antwoorden bleef geven, waarbij soms werd beweerd dat de gebeurtenis niet had plaatsgevonden – wat we snel proberen op te lossen.”

“Dit soort reacties worden hallucinaties genoemd, wat een sectorbreed probleem is dat we zien in alle generatieve AI-systemen, en een voortdurende uitdaging is voor de manier waarop AI in de toekomst realtime gebeurtenissen beheert”, vervolgt Kaplan, die leiding geeft aan Meta’s lobbywerk. . pogingen. “Net als alle generatieve AI-systemen kunnen modellen onjuiste of ongepaste resultaten retourneren, en we zullen deze problemen blijven aanpakken en deze functies verbeteren naarmate ze zich ontwikkelen en naarmate meer mensen hun feedback delen.”

Het is niet alleen Meta die hier wordt betrapt: Google moest dinsdag ook de bewering ontkennen dat de functie voor het automatisch aanvullen van zoekopdrachten de resultaten over de moordaanslag censureerde. “Daar gaan we weer, weer een poging om de verkiezingen te manipuleren!!!” Dat zei Trump in een bericht op Truth Social. “GA NAAR META EN GOOGLE.”

Sinds ChatGPT op het toneel verscheen, heeft de technologie-industrie moeite gehad met het beteugelen van de neiging van generatieve AI om te liegen. Sommige spelers, zoals Meta, hebben geprobeerd hun chatbots te baseren op kwaliteitsgegevens en realtime zoekresultaten als een manier om de hallucinaties te compenseren. Maar zoals dit specifieke voorbeeld laat zien, is het nog steeds moeilijk om te overwinnen waarvoor grote taalmodellen inherent zijn ontworpen: dingen verzinnen.