Wanneer AI-modellen zeggen dat ze niet zeker zijn van hun antwoorden, worden mensen voorzichtiger met hun resultaten en zullen ze uiteindelijk de juiste informatie elders opgraven. Maar aangezien geen enkel AI-model momenteel in staat is zijn eigen nauwkeurigheid te beoordelen, vragen sommige onderzoekers zich af of het dwingen van AI om twijfel te uiten een goed idee is.
Hoewel de grote taalmodellen (LLM’s) achter chatbots zoals ChatGPT indrukwekkend overtuigende resultaten opleveren, is keer op keer aangetoond dat ze eenvoudigweg kunnen compenseren…