Politieagenten gebruiken AI-software om politierapporten te schrijven

Politiediensten behoren vaak tot de eerste gebruikers van nieuwe producten in de technologie-industrie, zoals drones, gezichtsherkenning, voorspellende software en nu ook kunstmatige intelligentie. Nadat sommige afdelingen AI-audiotranscriptieprogramma’s al hebben omarmd, testen sommige afdelingen nu een nieuwe, uitgebreidere tool: software die technologie gebruikt die vergelijkbaar is met ChatGPT om automatisch politierapporten te genereren. Dat blijkt uit een rapport van 26 augustus Bijbehorende persVeel politieagenten zijn al ‘enthousiast’ over een generatieve AI-tool die beweert 30 tot 45 minuten minder routinematig kantoorwerk te kunnen besparen.

Oorspronkelijk aangekondigd in april door Axon, werd Draft One aangekondigd als “de nieuwste grote sprong naar [the] moonshot-doel om het aantal wapengerelateerde sterfgevallen tussen politie en publiek terug te dringen.” Het bedrijf – vooral bekend van Tasers en zijn populairste lijn lichaamscamera’s – beweert dat de eerste tests gebruikers een uur papierwerk hebben bespaard.

“Als agenten meer tijd kunnen besteden aan het verbinden met de gemeenschap en aan het zorgen voor zichzelf, zowel fysiek als mentaal, kunnen ze betere beslissingen nemen die tot succesvollere de-escalatieresultaten leiden”, aldus Axon in zijn bevindingen.

Het bedrijf zei destijds dat Draft One is gebouwd met het Azure OpenAI-platform van Microsoft en automatisch het geluid van politiecamera’s transcribeert voordat “kunstmatige intelligentie wordt gebruikt om snel een verhaal op te stellen.” De rapporten werden “strikt op basis van het audiotranscript geproduceerd” in overeenstemming met het “basismodel” van het Eerste Ontwerp… om giswerk of verfraaiing te voorkomen. Nadat aanvullende belangrijke informatie is toegevoegd, moeten functionarissen de juistheid van het rapport bevestigen voordat het naar een tweede ronde van menselijke beoordeling gaat. Bij elk rapport wordt ook aangegeven of AI betrokken was bij het schrijven ervan.

[Related: ChatGPT has been generating bizarre nonsense (more than usual).]

Ik praat met AP Maandag beweerde Noah Spitzer-Williams, de AI-productmanager van Axon, dat Draft One “dezelfde onderliggende technologie gebruikt als ChatGPT.” Het onderliggende generatieve model van ChatGPT, ontworpen door OpenAI, is vaak bekritiseerd vanwege de neiging om in zijn antwoorden verkeerde of valse informatie te verstrekken. Spitzer-Williams vergelijkt de mogelijkheden van Axon echter met “een meer knop-en-draai-aanpak” dan beschikbaar is voor gewone ChatGPT-gebruikers. Het aanpassen van de ‘creativiteitsknop’ helpt Draft One naar verluidt om zijn politierapporten feitelijk te houden en de voortdurende problemen van de generatieve AI met hallucinaties te vermijden.

De reikwijdte van Blueprint One blijkt momenteel per afdeling te verschillen. Politiekapitein Jason Bussert van Oklahoma City zei dat zijn afdeling met 1.170 officieren momenteel Draft One alleen gebruikt voor “kleine incidentrapporten” waarbij geen arrestaties betrokken zijn. Maar in Lafayette, Indiana, AP meldt dat de politie die de bijna 71.000 inwoners van de stad bedient, ‘in ieder geval’ de vrije wil heeft om Draft One te gebruiken. Ondertussen beweert de faculteit van de naburige Purdue University in Lafayette dat generatieve AI simpelweg niet betrouwbaar genoeg is om potentieel levensveranderende situaties zoals confrontaties met de politie aan te kunnen.

“De grote taalmodellen die tools als ChatGPT ondersteunen, zijn niet ontworpen om waarheid te genereren. In plaats daarvan voegen ze overtuigende zinnen samen op basis van voorspellende algoritmen”, zegt Lindsey Weinberg, een klinische universitair hoofddocent bij Purdue die zich richt op digitale en technologische ethiek, in een verklaring aan Populaire wetenschap.

[Related: ChatGPT’s accuracy has gotten worse, study shows.]

Weinberg, directeur van het Tech Justice Lab, beweert ook dat “bijna elk algoritmisch hulpmiddel dat je maar kunt bedenken keer op keer is aangetoond dat het bestaande vormen van raciaal onrecht reproduceert en versterkt.” Deskundigen hebben door de jaren heen veel gevallen van raciale en gendervooroordelen in grote taalmodellen gedocumenteerd.

“Het gebruik van tools die het ‘gemakkelijker’ maken om politierapporten te genereren in de context van een rechtssysteem dat momenteel massale opsluiting ondersteunt en bestraft [marginalized populations] moeten zich grote zorgen maken over degenen die geven om privacy, burgerrechten en gerechtigheid”, zegt Weinberg.

In een e-mail aan Populaire wetenschapeen vertegenwoordiger van OpenAI stelde voor om vragen aan Microsoft te richten. Axon, Microsoft en de politie van Lafayette reageerden op het moment van schrijven niet op verzoeken om commentaar.