Google AI-reviews kunnen medische verkeerde informatie opleveren

Google AI-reviews kunnen medische verkeerde informatie opleveren

Toen Google vorige maand zijn nieuwe AI-zoektool onthulde, genaamd AI Overviews, leek het bedrijf ervan overtuigd dat het de tool voldoende had getest, en merkte het in een aankondiging op dat “mensen AI Overviews al miljarden keren hebben gebruikt tijdens ons experiment in Search Labs.” De tool retourneert niet alleen links naar webpagina’s, zoals bij een typische Google-zoekopdracht, maar retourneert een antwoord dat het heeft gegenereerd op basis van verschillende bronnen, waarnaar het onder het antwoord linkt. Maar onmiddellijk na de lancering begonnen gebruikers voorbeelden van enorm foute antwoorden te posten, waaronder een pizzarecept met lijm en het interessante feit dat de hond in de NBA speelde.

Een vrouw met bruin haar in een zwarte jurkRenée DiResta volgt al jaren desinformatie op internet als technisch onderzoeksmanager bij Stanford’s Internet Observatory.

Hoewel het onwaarschijnlijk is dat een pizzarecept iemand zal overtuigen om in te stemmen met die van Elmer, zijn niet alle enorm foute antwoorden van AI Overview zo voor de hand liggend – en sommige kunnen behoorlijk schadelijk zijn. Renée DiResta houdt als technisch onderzoeksmanager bij Stanford’s Internet Observatory al jarenlang desinformatie op het internet op, en heeft een nieuw boek gepubliceerd over online propagandisten die ‘leugens in werkelijkheid omzetten’. Ze bestudeerde de verspreiding van medische desinformatie via sociale media IEEE-spectrum sprak met haar over de vraag of AI-zoekopdrachten waarschijnlijk een golf van verkeerd medisch advies zullen opleveren aan onoplettende gebruikers.

Ik weet dat je al jaren desinformatie op internet volgt. Verwacht u dat de introductie van AI-verbeterde zoekhulpmiddelen zoals Google AI Reviews de situatie erger of beter zal maken?

Renée DiResta: Dat is een hele interessante vraag. Er zijn een aantal beleidsmaatregelen die Google al lange tijd hanteert en die op gespannen voet lijken te staan ​​met wat er uit door AI gegenereerde zoekopdrachten voortkomt. Dus ik heb het gevoel dat Google probeert te volgen waar de markt naartoe is gegaan. Er heeft een ongelooflijke versnelling plaatsgevonden in de release van generatieve AI-tools, en we zien dat de grote tech-jongens hun uiterste best doen om ervoor te zorgen dat ze concurrerend blijven. Ik denk dat dat een van de dingen is die hier aan de hand zijn.

We weten al heel lang dat hallucinaties iets zijn dat voorkomt bij grote taalmodellen. Het is niet nieuw. Ik denk dat hun inzet in de zoekfunctie overhaast en ondoordacht was, omdat mensen verwachten dat zoekmachines hen gezaghebbende informatie geven. Dat is een verwachting die je hebt tijdens het zoeken, maar die je misschien niet hebt op sociaal gebied.

Er zijn veel voorbeelden van komisch slechte resultaten van AI-zoekopdrachten, bijvoorbeeld hoeveel stenen we per dag moeten eten [a response that was drawn for an Onion article]. Maar ik vraag me af of we ons zorgen moeten maken over ernstiger medische desinformatie. Ik kwam een ​​blogpost tegen over de AI Overviews-reacties van Google op stamcelbehandelingen. Het probleem leek te zijn dat de AI-zoektool zijn antwoorden kreeg van beruchte klinieken die onbewezen behandelingen aanboden. Heb je nog meer voorbeelden van dit soort dingen gezien?

DiRest: Ik heb. Het retourneert informatie die is samengesteld uit de gegevens waarop het is getraind. Het probleem is dat het niet lijkt te voldoen aan dezelfde normen die al lang gelden voor de manier waarop Google denkt over het retourneren van zoekresultaten voor gezondheidsinformatie. Dus wat ik daarmee bedoel is dat Google op dit moment al meer dan 10 jaar een zoekbeleid hanteert met de naam Your Money or Your Life. Bent u daarmee bekend?

Ik denk het niet.

DiRest: Your Money or Your Life erkent dat Google voor zoekopdrachten met betrekking tot financiën en gezondheid de verantwoordelijkheid heeft om de zoekresultaten aan een hoge standaard te houden, en vooral dat de informatie accuraat is. Mensen komen naar Google met gevoelige vragen en zoeken informatie om materiële beslissingen over hun leven te nemen. Ze zijn er niet voor de lol als ze bijvoorbeeld vragen stellen over hoe ze moeten reageren op een nieuwe diagnose van kanker, of over welk type pensioenregeling ze moeten afsluiten. Je wilt dus niet dat content farms en willekeurige reddit-posts en rommel de resultaten zijn die terugkomen. U wilt betrouwbare zoekresultaten hebben.

Dat Your Money or Your Life-framework vormt al lang de basis voor het werk van Google op het gebied van deze onderwerpen die veel op het spel staan. En daarom denk ik dat het verontrustend is als mensen zien dat door AI gegenereerde zoekresultaten duidelijk verkeerde gezondheidsinformatie weggooien van sites van lage kwaliteit die mogelijk per ongeluk in de trainingsgegevens terecht zijn gekomen.

Dus AI-reviews lijken niet hetzelfde beleid te volgen – tenminste, zo lijkt het van buitenaf?

DiRest: Zo ziet het er van buitenaf uit. Ik weet niet hoe ze er intern over denken. Maar de screenshots die je ziet – veel van deze gevallen zijn terug te voeren op een geïsoleerd bericht op sociale media of een beruchte maar bestaande kliniek – staan ​​overal op internet. Het is niet alleen maar dingen verzinnen. Maar het levert ook niet op wat wij zouden beschouwen als een resultaat van hoge kwaliteit bij het formuleren van het antwoord.

Ik zag dat Google op een aantal van de problemen reageerde met een blogpost waarin stond dat ze zich bewust waren van deze slechte resultaten en proberen deze te verbeteren. En ik kan u één punt voorlezen dat verband houdt met gezondheid. Er stond: “Voor onderwerpen als nieuws en gezondheid hebben we al sterke vangrails. Op het gebied van de gezondheid hebben we aanvullende verbeteringen gelanceerd om onze kwaliteitsbescherming te verbeteren.” Weet jij wat dat betekend?

DiRest: De blogpost is daar een verklaring voor [AI Overviews] het is niet alleen hallucinant: het feit dat het naar URL’s verwijst zou een vangnet moeten zijn, omdat het de gebruiker in staat stelt het resultaat terug te traceren naar de bron. Dit is iets goeds. Ze moeten deze bronnen opnemen voor transparantie en voor beoordeling door buitenstaanders. Dat is echter ook een behoorlijke last voor het publiek, gezien het vertrouwen dat Google in de loop van de tijd heeft opgebouwd door resultaten van hoge kwaliteit weer te geven in de zoekresultaten op het gebied van gezondheidsinformatie.

Ik weet dat een onderwerp dat u al jaren volgt, desinformatie over de veiligheid van vaccins is. Hebt u enig bewijs gezien dat dit soort desinformatie in AI-zoekopdrachten wordt gebruikt?

DiRest: Dat heb ik niet gedaan, hoewel ik me kan voorstellen dat externe onderzoeksteams nu de resultaten testen om te zien wat er naar voren komt. Vaccins zijn al een tijdje zo’n belangrijk onderwerp in de discussie over verkeerde gezondheidsinformatie. Ik vermoed dat Google mensen specifiek naar dat onderwerp heeft laten kijken in interne beoordelingen, terwijl sommige van deze andere onderwerpen misschien minder op de voorgrond staan ​​van de kwaliteitsteams die ermee belast zijn controleert of er slechte resultaten worden geretourneerd.

Wat zouden volgens jou de volgende stappen van Google moeten zijn om medische desinformatie bij AI-zoekopdrachten te voorkomen?

DiRest: Google heeft een prima beleid om te volgen. Je geld of je leven is een sterke ethische richtlijn die moet worden opgenomen in deze manifestatie van de toekomst van het streven. Het is dus niet zo dat ik denk dat er een nieuwe en nieuwe ethische basis moet komen. Ik denk dat het er meer voor zorgt dat de bestaande ethische basis de basis blijft voor nieuwe AI-zoekhulpmiddelen.