Voor de gehandicaptengemeenschap is de toekomst van AI somber

In december heeft de US Census wijzigingen voorgesteld in de manier waarop handicaps worden gecategoriseerd. Als ze worden doorgevoerd, zouden de veranderingen het aantal Amerikanen dat als gehandicapt wordt geteld, verminderen, terwijl experts zeggen dat mensen met een handicap al onderbelicht zijn.

Census opende zijn voorstel voor publiek commentaar; Iedereen kan zijn eigen commentaar geven op de regelgeving van een federaal agentschap. Maar in dit specifieke geval hadden de mensen die het meest door het voorstel werden getroffen, meer belemmeringen om hun mening te geven.

“Het was heel belangrijk voor mij om erachter te komen hoe ik die mensen zo goed mogelijk kon laten schrijven en commentaar geven”, zegt Matthew Cortland, senior fellow bij Data for Progress. Met dat in gedachten creëerden ze een GPT-4-helperbot voor mensen die hun opmerkingen wilden indienen. Cortland heeft in het verleden commentaarcampagnes gevoerd die gericht waren op de regelgeving voor gehandicapten, maar dit was de eerste met AI.

“Bedankt, hierdoor kan ik de opmerking maken die ik altijd al wilde maken”, vertelde iemand hen. ‘Te veel hersenmist om dit nu te doen.’

Afhankelijk van wie telt, heeft 12,6 procent of zelfs 25 procent van de bevolking een beperking. Handicap zelf wordt op talloze manieren gedefinieerd, maar omvat in grote lijnen fysieke, intellectuele en cognitieve beperkingen, naast chronische ziekten; een persoon met een lichamelijke beperking kan een rolstoel gebruiken, terwijl een ernstige ziekte die de energie beperkt, zoals langdurige covid, het voor mensen moeilijk kan maken om dagelijkse taken uit te voeren.

AI – of het nu in de vorm is van natuurlijke taalverwerking, computervisie of generatieve AI zoals GPT-4 – kan positieve effecten hebben op de gemeenschap van gehandicapten, maar over het algemeen ziet de toekomst van AI en handicap er behoorlijk somber uit.

“De manier waarop kunstmatige intelligentie vaak wordt benaderd en gebruikt is in wezen frenologie met wiskunde”, zegt Joshua Earle, assistent-professor aan de Universiteit van Virginia, die de geschiedenis van de eugenetica met technologie verbindt. Mensen die niet bekend zijn met handicaps hebben een negatieve houding, gevormd door de media, de popcultuur, regelgevingskaders en de mensen om hen heen, en zien handicaps eerder als een tekort dan als een culturele identiteit. Een systeem dat de levens van mensen met een beperking door ontwerp devalueert, zal deze fouten in technische producten blijven herhalen.

“De manier waarop AI vaak wordt benaderd en gebruikt is in wezen frenologie met wiskunde”

Deze houding werd duidelijk geïllustreerd in de debatten over de rationalisering van de zorg op het hoogtepunt van de covid-19-pandemie. Het verschijnt ook in de vorm van voor kwaliteit gecorrigeerde levensjaren (QALY’s), een AI-ondersteund hulpmiddel voor ‘kosteneffectiviteit’ dat in de gezondheidszorg wordt gebruikt om de ‘kwaliteit van leven’ te bepalen aan de hand van externe maatstaven in plaats van de intrinsieke waarde van iemands leven. Het onvermogen om het huis te verlaten kan bijvoorbeeld als een punt voor iemand gelden, evenals een degeneratieve ziekte die de fysieke activiteit of inzetbaarheid beperkt. Een lage score kan ertoe leiden dat een bepaalde medische interventie in kosten-batenanalyses wordt afgewezen; waarom zou je dure behandelingen ondergaan voor iemand van wie wordt verwacht dat hij een korter leven zal leiden, ontsierd door een handicap?

De belofte van kunstmatige intelligentie is dat automatisering het werk gemakkelijker zal maken, maar wat wordt er eigenlijk gemakkelijker gemaakt? Uit een ProPublica-onderzoek uit 2023 bleek dat verzekeringsgigant Cigna een intern algoritme gebruikte dat automatisch dekkingsaanvragen markeerde, waardoor artsen massale weigeringen konden ondertekenen die onevenredig gericht waren op mensen met een handicap met complexe medische behoeften. Het gezondheidszorgsysteem is niet de enige arena waar algoritmische hulpmiddelen en AI kunnen werken tegen mensen met een handicap. Dit komt steeds vaker voor bij rekrutering, waar tools voor het screenen van vacatures vooroordelen kunnen introduceren, zoals de logische puzzels en spelletjes die door sommige recruiters worden gebruikt, of het volgen van oog- en gezichtsuitdrukkingen waarmee sommige sollicitatiegesprekken gepaard gaan. Over het algemeen, zegt Ashley Shew, universitair hoofddocent bij Virginia Tech en gespecialiseerd in handicaps en technologie, betekent dit “mensen met een handicap extra onder de loep nemen” door middel van technologieën die hen onderscheiden.

Technologieën als deze berusten vaak op twee veronderstellingen: dat veel mensen hun handicap faken of overdrijven, waardoor fraudepreventie van cruciaal belang is, en dat een leven met een handicap niet de moeite waard is om geleefd te worden. Daarom hoeven beslissingen over de toewijzing van middelen en sociale inclusie – of het nu gaat om thuiszorg, toegang tot de werkplek of de mogelijkheid om mensen op sociale netwerken te bereiken – mensen met een handicap niet als gelijkwaardig aan niet-gehandicapten te beschouwen. Deze houding wordt weerspiegeld in de kunstmatige intelligentie-instrumenten die de samenleving bouwt.

Het hoeft niet zo te zijn.

Cortlands creatieve gebruik van GPT-4 om mensen met een beperking te helpen deelnemen aan het politieke proces is illustratief voor hoe AI, in de juiste handen, een waardevol toegankelijkheidsinstrument kan worden. Als je op de juiste plekken kijkt, zijn er talloze voorbeelden hiervan. Midjourney heeft begin 2023 bijvoorbeeld een functie uitgebracht die het genereren van alt-tekst voor afbeeldingenhet vergroten van de toegankelijkheid voor blinden en slechtzienden.

Amy Gaeta, een academicus en dichter die gespecialiseerd is in mens-technologie-interacties, ziet ook het potentieel van kunstmatige intelligentie die ‘echt saaie taken kan overnemen voor mensen’. [disabled people] die al overwerkt of extreem moe zijn” en automatiseer ze door bijvoorbeeld formulieren in te vullen of oefeningen aan te bieden voor sollicitatiegesprekken en sociale situaties. Dezelfde technologieën zouden kunnen worden gebruikt voor activiteiten zoals het bestrijden van verzekeringsmaatschappijen wegens oneerlijke weigeringen.

“De mensen die het gaan gebruiken, zullen waarschijnlijk degenen zijn die het beste zullen begrijpen wanneer er iets misgaat”, merkt Earl op in de context van technologieën die zijn ontwikkeld rond of voor mensen met een handicap, maar niet voor hen. Voor een werkelijk mooie toekomst voor kunstmatige intelligentie moet de technologiegemeenschap mensen met een handicap vanaf het begin omarmen als vernieuwers, programmeurs, ontwerpers, makers en ja, gebruikers die de technologieën die de wereld om hen heen bemiddelen, materieel kunnen vormgeven.