AI voor de gezondheidszorg kan bestellingen dichter bij patiënten en artsen brengen

10 november 2023 – Je hebt ChatGPT-4 of een andere nieuwe AI-chatbot gebruikt om vragen te stellen over je gezondheid. Of misschien gebruikt uw arts ChatGPT-4 om een ​​samenvatting te maken van wat er tijdens uw laatste bezoek is gebeurd. Misschien kan een chatbot nog een keer contact opnemen met uw arts om een ​​diagnose van uw aandoening te stellen.

Maar in dit stadium van de ontwikkeling van deze nieuwe technologie zouden zowel consumenten als artsen er verstandig aan doen om voorzichtig te werk te gaan, zeggen experts. Ondanks het vertrouwen dat een AI-chatbot de gevraagde informatie levert, is deze niet altijd accuraat.

Nu het gebruik van AI-chatbots zich snel verspreidt, zowel in de gezondheidszorg als elders, groeit de roep aan overheden om de technologie te reguleren om het publiek te beschermen tegen de mogelijke onbedoelde gevolgen van AI.

De federale overheid heeft onlangs de eerste stap in deze richting gezet toen president Joe Biden een uitvoerend bevel uitvaardigde dat overheidsinstanties verplichtte manieren te bedenken om het gebruik van AI te beheren. In de wereld van de gezondheidszorg draagt ​​het bevel het ministerie van Volksgezondheid en Human Services op om verantwoorde AI-innovatie te bevorderen die “het welzijn van patiënten en werknemers in de gezondheidszorgsector bevordert.”

Het agentschap is onder meer van plan om binnen een jaar een AI-taskforce voor de gezondheidszorg op te richten. Deze taskforce zal een plan ontwikkelen om het gebruik van AI en AI-gebaseerde toepassingen in de gezondheidszorg, de volksgezondheid, het onderzoek en de ontwikkeling en de veiligheid van geneesmiddelen en medische hulpmiddelen te reguleren.

Het strategische plan zal zich richten op “langetermijnbeveiliging en real-world prestatiemonitoring van AI-compatibele technologieën.” De afdeling moet een manier ontwikkelen om te bepalen of AI-gebaseerde technologieën ‘een passend kwaliteitsniveau behouden’. En in samenwerking met andere instanties en organisaties voor patiëntveiligheid moeten Health and Human Services een raamwerk opzetten om fouten op te sporen “die voortkomen uit AI die in klinische omgevingen wordt ingezet.”

Het uitvoerend bevel van Biden is ‘een goede eerste stap’, zegt Ida Sim, MD, PhD, hoogleraar geneeskunde en computationele precisiegezondheid en hoofdonderzoeksinformatica aan de Universiteit van Californië, San Francisco.

John W. Ayers, PhD, adjunct-directeur informatica bij het Altman Clinical and Translational Research Institute van de Universiteit van Californië in San Diego, was het daarmee eens. Hij zei dat hoewel de gezondheidszorgsector onderworpen is aan streng toezicht, er geen vaste regels zijn voor het gebruik van AI in de gezondheidszorg.

“AI ontwikkelt zich in een snel tempo vanwege deze unieke situatie, en toezichthouders kunnen het niet bijhouden”, zei hij. Het is echter belangrijk om op dit gebied voorzichtig te werk te gaan, anders zouden nieuwe regels de medische vooruitgang kunnen belemmeren, zei hij.

Het ‘hallucinatieprobleem’ achtervolgt AI

Sinds de komst van ChatGPT-4, met zijn mensachtige gesprekken en kennis over veel onderwerpen, hebben chatbots en dergelijke zich ontwikkeld tot verbluffende experts in de gezondheidszorg. Volgens een onderzoek maakt veertien procent van de artsen al gebruik van deze ‘gespreksagenten’ om patiënten te diagnosticeren, behandelplannen op te stellen en online met patiënten te communiceren. Chatbots worden ook gebruikt om vóór bezoeken informatie uit patiëntendossiers te verzamelen en bezoeknotities voor patiënten samen te vatten.

Consumenten zijn ook chatbots gaan gebruiken om gezondheidszorginformatie te zoeken, verzekeringsuitkeringen te begrijpen en cijfers uit laboratoriumtests te analyseren.

Het grootste probleem met dit alles is dat AI-chatbots niet altijd accuraat zijn. Soms bedenken ze dingen die er niet zijn; ze ‘hallucineren’, zoals sommige waarnemers het uitdrukten. Volgens recent onderzoek van Vectara, een startup opgericht door voormalige Google-werknemers, genereren chatbots minstens 3% van de tijd informatie – en ongeveer 27% van de tijd, afhankelijk van de bot. Een ander rapport trok soortgelijke conclusies.

Dat wil niet zeggen dat chatbots meestal niet opmerkelijk goed zijn in het vinden van het juiste antwoord. In één test stelden 33 artsen uit 17 specialismen de chatbot 284 medische vragen van verschillende complexiteit en beoordeelden hun antwoorden. Ruim de helft van de antwoorden werd beoordeeld als vrijwel correct of volledig correct. Maar 15 vragen werden als volkomen fout gescoord.

Google heeft een chatbot ontwikkeld genaamd Med-palm die is ontworpen voor medische kennis. De chatbot, die geslaagd is voor een medisch licentie-examen, heeft een nauwkeurigheidspercentage van 92,6% bij het beantwoorden van medische vragen, ongeveer hetzelfde als dat van artsen, zo blijkt uit een onderzoek van Google.

Ayers en zijn collega’s voerden een onderzoek uit waarbij ze de reacties van chatbots en artsen vergeleken met vragen die online door patiënten werden gesteld. Gezondheidsprofessionals evalueerden de antwoorden en gaven in bijna 80% van de uitwisselingen de voorkeur aan chatbotreacties boven de antwoorden van artsen. De antwoorden van artsen werden laag beoordeeld op kwaliteit en empathie. De onderzoekers suggereerden dat artsen mogelijk minder empathisch waren vanwege de oefendruk waaronder ze stonden.

Afval is afval

Chatbots kunnen worden gebruikt om zeldzame diagnoses te identificeren of ongebruikelijke symptomen uit te leggen, en artsen kunnen worden geraadpleegd om ervoor te zorgen dat ze geen voor de hand liggende diagnostische mogelijkheden missen. Om voor dit doel beschikbaar te zijn, moeten ze worden ingebed in het elektronische patiëntendossiersysteem van een kliniek. Microsoft heeft ChatGPT-4 al ingebed in het meest uitgebreide medische dossiersysteem van Epic Systems.

Een uitdaging voor elke chatbot is dat records onjuiste informatie bevatten en dat gegevens vaak verloren gaan. Veel diagnostische fouten houden verband met slecht vastgelegde patiëntgeschiedenissen en vage lichamelijke onderzoeken gedocumenteerd in elektronische medische dossiers. En deze dossiers bevatten doorgaans weinig of geen informatie uit de dossiers van andere behandelaars die de patiënt hebben gezien. Het kan voor een menselijke of kunstmatige intelligentie moeilijk zijn om in een bepaald geval de juiste conclusies te trekken, alleen op basis van onvoldoende informatie in het dossier van een patiënt, zei Ayers. Dat is waar de ervaring van een arts en de kennis van de patiënt van onschatbare waarde kunnen zijn.

Maar chatbots zijn behoorlijk goed in het communiceren met patiënten, zo blijkt uit onderzoek van Ayers. Bij menselijk toezicht lijkt het waarschijnlijk dat deze gespreksagenten de last van artsen op het gebied van online berichtenverkeer met patiënten kunnen verlichten, zei hij. En, zegt hij, het kan de kwaliteit van de zorg verbeteren.

“Een gespreksagent is niet iets dat je inbox of de lading van je inbox kan beheren. Het kan van je inbox een outbox maken met actieve berichten van patiënten”, zegt Ayers.

Bots kunnen gepersonaliseerde berichten naar patiënten sturen, afgestemd op hun gegevens en op wat artsen denken dat hun behoeften zijn. “Wat zal het voor patiënten betekenen?” Ayers Dr. “Er is hier een enorm potentieel om de manier waarop patiënten omgaan met hun zorgverleners te veranderen.”

Plus- en minpunten van chatbots

Als chatbots kunnen worden gebruikt om berichten op patiënten af ​​te stemmen, kunnen ze een belangrijke rol spelen bij de behandeling van chronische ziekten, die tot 60% van alle Amerikanen treffen.

Sim, die ook huisarts is, legt uit: “Chronische ziekten zijn iets dat je 24/7 hebt. Ik zie mijn ziekste patiënten gemiddeld twintig minuten per maand, dus ik doe niet veel aan het beheer van de chronische zorg.”

Hij vertelt zijn patiënten dat ze moeten sporten, hun gewicht moeten beheersen en hun medicijnen moeten innemen zoals voorgeschreven.

“Maar ik bied thuis geen hulp”, zei Sim. “AI-chatbots kunnen, vanwege hun vermogen om natuurlijke taal te gebruiken, bij patiënten zijn op een manier die wij artsen niet kunnen.”

Naast het adviseren van patiënten en hun zorgverleners, zei hij, kunnen gespreksagenten dagelijks gegevens van monitoringsensoren analyseren en vragen stellen over de toestand van een patiënt. Hoewel niets van dit alles in de nabije toekomst zal gebeuren, zei hij, vertegenwoordigt het een ‘enorme kans’.

Ayers was het daarmee eens, maar waarschuwde dat er gerandomiseerde, gecontroleerde onderzoeken moeten worden uitgevoerd om te bepalen of een door AI ondersteunde berichtenservice de patiëntresultaten daadwerkelijk kan verbeteren.

“Als we geen rigoureus publiek wetenschappelijk onderzoek doen naar deze interacterende agentia, kan ik situaties zien waarin ze zich zullen materialiseren en schade zullen veroorzaken”, zei hij.

Over het algemeen moet volgens Ayers de nationale strategie voor AI patiëntgericht zijn, en niet gericht op de manier waarop chatbots artsen helpen of de administratieve kosten verlagen.

Vanuit consumentenperspectief zegt Ayers dat hij zich zorgen maakt over AI-programma’s die ‘universele aanbevelingen aan patiënten doen die mogelijk onnauwkeurig of zelfs erger zijn’.

Sim benadrukte ook dat consumenten niet op chatbots moeten vertrouwen voor antwoorden op zorgvragen.

“Daar moet grote voorzichtigheid tegenover staan. Deze onderwerpen zijn zeer overtuigend in de manier waarop ze natuurlijke taal gebruiken. Ik denk dat dit een enorm risico is. Het publiek zou op zijn minst moeten zeggen: ‘Er zit een chatbot achter en het zou verkeerd kunnen zijn.’