Nieuw Olympisch evenement: algoritmische videobewaking

Terwijl de skiërs uitgleden en zwenkten in een besneeuwd park buiten Peking tijdens de Olympische Winterspelen van 2022 hebben weinigen onderweg misschien een rij torens opgemerkt. Wisten ze dat die torens golflengten over het hele spectrum verzamelden en de gegevens doorzochten op tekenen van verdachte beweging? Kon het ze schelen dat ze de onwillige proefpersonen waren van een experiment op het gebied van IoT-gebaseerde grensbewaking?

Deze zomer zullen veiligheidsfunctionarissen tijdens de Olympische Spelen in Parijs een veel groter experiment uitvoeren in het hart van de Lichtstad, waarbij de evenementen, het hele Olympisch Dorp en de verbindingswegen en -rails zullen worden bestreken. Het zal worden voortgezet onder een tijdelijke wet die het mogelijk maakt dat geautomatiseerde surveillancesystemen ‘vooraf bepaalde gebeurtenissen’ kunnen detecteren, van het soort dat tot terroristische aanslagen zou kunnen leiden.

Deze keer interesseert het mensen. Nou ja, privacyactivisten wel. “AI-gedreven massasurveillance is een gevaarlijk politiek project dat zou kunnen leiden tot wijdverbreide mensenrechtenschendingen. Elke actie in de publieke ruimte zal worden opgenomen in een netwerk van surveillance-infrastructuur, waardoor fundamentele burgerlijke vrijheden worden ondermijnd”, zei Agnes Callamar, secretaris-generaal van Amnesty International, kort na de aanneming van de wet.

Het grote publiek lijkt zich echter geen zorgen te maken. Toen functionarissen in Seine-Saint-Denis, een van de stadsdelen waar de Olympische Spelen plaatsvinden, informatie onthulden over een voorlopig AI-aangedreven videobewakingssysteem dat asociaal gedrag zoals zwerfvuil zou opsporen en straffen, staken bewoners hun hand op en vroegen waarom het nog niet in hun straatjes lag.

‘Toezicht is geen monolithisch concept. Niet iedereen is tegen surveillance’, zegt Matheus Viegas Ferrari, een antropologiestudent aan de Universidade Federal da Bahia in Brazilië en de Université Paris 8: Saint-Denis in Parijs, die de gemeenschapsbijeenkomst in Seine-Saint-Denis bijwoonde. en publiceerde een onderzoek naar surveillance op de Olympische Spelen van 2024.

Iedereen die boos wordt op buren die hun honden niet oppakken, kan zich vinden in de waakzame inwoners van Seine-Saint-Denis. Als het surveillancesysteem echter de ene nalatige buur meer straft dan de andere, omdat het algoritme de voorkeur geeft aan de ene huidskleur of kledingstijl boven de andere, kunnen de meningen veranderen.

Frankrijk en andere landen in de Europese Unie zijn bezig met het uitwerken van de fijnere details van de Wet op de Kunstmatige Intelligentie van de Europese Unie, die tot doel heeft de privacy en rechten van burgers te beschermen door het reguleren van het overheids- en commerciële gebruik van AI. De slechte implementatie van AI-wetten met betrekking tot sociaal beleid heeft al één Europese regering ten val gebracht.

Landen beschouwen de Olympische Spelen vaak als een veiligheidsbeurs.

De interim-toezichtwet – waarvan de videoverwerkingsclausule in maart 2022 afloopt – lijkt te zijn geschreven om die uitkomst te voorkomen. Hij benadrukt dat de algoritmen onder zijn gezag “geen biometrische gegevens verwerken en geen gezichtsherkenningstechnieken implementeren. Ze kunnen geen enkele matching, interconnectie of geautomatiseerde koppeling uitvoeren met andere verwerkingen van persoonsgegevens.”

Paolo Cirio, een kunstenaar die ooit posters met de gezichten van politieagenten drukte en deze in Parijs verspreidde in een illegale oefening in publieksherkenning, beschouwt dergelijk taalgebruik als vooruitgang. “Het feit dat de overheid zelfs tijdens de Olympische Spelen in Frankrijk in de wet moet schrijven dat ze geen biometrische technologie zullen gebruiken, dat is voor mij al iets ongelooflijks”, zegt hij. “Het is het resultaat van de jarenlange strijd van activisten in Frankrijk, Europa en elders.”

Veiligheid in cijfers?

Wat ambtenaren kunnen doen in plaats van biometrische analyse en gezichtsherkenning, is computers gebruiken om menigten in realtime te analyseren. De techniek gaat ver terug en er zijn veel aspecten van vele soorten publieksgedrag bestudeerd; het werd zelfs gebruikt om te voorkomen dat kippen elkaar zouden doden. En hoewel menigten irrationeel kunnen zijn, is het bestuderen van menigten een wetenschap.

Het publiek biedt echter misschien niet echt anonimiteit aan zijn leden. Europese maatschappelijke groeperingen betoogden in een open brief dat surveillance noodzakelijkerwijs de isolatie en dus de identificatie van individuen zou vereisen, waardoor onschuldige mensen hun recht op privacy zouden worden ontnomen.

Het is onduidelijk of dit waar is; de snelle evolutie van de betrokken technologieën maakt het moeilijk om de vraag te beantwoorden. “Je hoeft mensen niet te identificeren”, zegt datawetenschapper Jonathan Weber van de Universiteit van Haute-Alsace, in Mulhouse, Frankrijk, en co-auteur van de videocrowd-analyserecensie. In plaats daarvan kunnen ontwikkelaars het neurale netwerk trainen op mensachtige vormen totdat het in de volgende video op betrouwbare wijze mensen identificeert. Vervolgens kunnen ze het neurale netwerk trainen op meer geavanceerde patronen, zoals mensen die omrollen, rennen, ruzie maken, zelfs vechten of een mes dragen.

“De waarschuwingen die we hebben ingevoerd zijn niet gebaseerd op biometrie, maar alleen op positie, zoals of de persoon op de grond ligt”, zegt Alan Ferbach, medeoprichter en CEO van Videtics, het in Parijs gevestigde bedrijf dat een rapport heeft ingediend. bod op een deel van het verzekeringscontract van 2024 voor de Olympische Spelen. Videntis verkoopt al software die valpartijen in gebouwen of illegale buitenstortingen detecteert, waarbij geen van beide de identificatie van personen vereist.

Aan een horizontaal armatuur aan de muur hangt een witte eivorm, voor een blauwe vlag met het Olympische logo met vijf ringen, naast het label 'Beijing 2022'.Een bewakingscamera houdt de rodelbaan tijdens de Olympische Winterspelen van 2022 in de gaten.Getty-afbeeldingen

Maar dat is misschien niet genoeg om critici tevreden te stellen. Zelfs het categoriseren van het gedrag van mensen “kan net zo invasief en gevaarlijk zijn als het identificeren van mensen, omdat het kan leiden tot fouten, discriminatie, schendingen van de privacy en anonimiteit in de openbare ruimte en het recht op een eerlijk proces en toegang tot de rechter kan aantasten”, zegt Karolina Iwanska. , een consultant voor Digital Civil Space bij het European Centre for Non-Profit Law, een maatschappelijke organisatie gevestigd in Den Haag, Nederland. Ze diende een amicusbrief over de toezichtwet op de Olympische Spelen in bij de Franse Constitutionele Raad.

Weber maakt zich vooral zorgen over de manier waarop scheve trainingsgegevens kunnen leiden tot problematische AI-crowd-analyse. Toen de ACLU bijvoorbeeld foto’s van vertegenwoordigers van het Amerikaanse Congres vergeleek met foto’s, identificeerde de software mensen met een donkere huidskleur onevenredig ten onrechte als overeenkomsten. De mogelijke vooroordelen in zo’n algoritme zullen afhangen van hoe de softwareontwikkelaars het trainen, zegt Weber: “Je moet heel voorzichtig zijn, en dat is een van de grootste problemen: je zult waarschijnlijk niet heel veel video’s hebben van mensen met gevaarlijk gedrag. beschikbaar om het algoritme te trainen.”

“Naar mijn mening moeten we het trainingsvat certificeren”, zegt Ferbach. Verschillende bedrijven konden vervolgens hun eigen modellen ontwikkelen op basis van gecertificeerde trainingssets. “Als we elk model moeten certificeren, zullen de kosten enorm zijn.” De EU-toezichthouders moeten nog beslissen hoe de AI-wet hiermee om zal gaan.

Als softwareontwikkelaars voldoende echte of gesimuleerde video’s van slecht gedrag kunnen samenstellen om hun algoritmen zonder vooringenomenheid te trainen, zullen ze nog steeds moeten uitzoeken wat ze moeten doen met alle gegevens uit de echte wereld die ze verzamelen. “Hoe meer gegevens je verzamelt, hoe groter het risico in de toekomst dat die gegevens in de publieke belangstelling terechtkomen of in verkeerde handen terechtkomen”, zegt Cirio. Als reactie hierop maken sommige bedrijven gebruik van gezichtsverduisteringstools om de kans op het lekken van gegevens met persoonlijke informatie te verkleinen. Andere onderzoekers stellen voor om video recht boven je hoofd te maken, om te voorkomen dat de gezichten van mensen worden vastgelegd.

Misschien heb je biometrie nodig

Andere onderzoekers gaan de tegenovergestelde kant op door hulpmiddelen te ontwikkelen om individuen te herkennen, of ze op zijn minst van anderen te onderscheiden in video, met behulp van loopanalyse. Als deze techniek zou worden toegepast op videobewaking, zou dit in strijd zijn met de Franse wet op de Olympische Spelen en de privacybeschermende effecten van gezichtsvervaging en video-opnames van bovenaf omzeilen. Dat de wet de verwerking van biometrische gegevens verbiedt en tegelijkertijd algoritmische detectie van gebeurtenissen toestaat, ‘lijkt niets meer dan wensdenken’, zegt Iwanska. “Ik kan me niet voorstellen hoe het systeem zou moeten werken zoals bedoeld zonder biometrische gegevens te verwerken.”

Toezicht Kruip

Een andere vraag die Olympische toeschouwers plaagt, is hoe lang het systeem van kracht moet blijven. “Het is heel gebruikelijk dat regeringen die meer toezicht willen, een triggergebeurtenis gebruiken, zoals een aanval of een aanstaande grote gebeurtenis, om dit te rechtvaardigen”, zegt Matthew Guariglia, senior beleidsanalist bij de Electronic Frontier Foundation, een maatschappelijke organisatie in San Francisco. . “De infrastructuur blijft op zijn plaats en kan gemakkelijk worden hergebruikt voor het dagelijkse politiewerk.”

De Franse Olympische wet kent een vervaldatum, maar Iwanska noemt deze willekeurig. Ze zegt dat het is gedaan “zonder enige beoordeling van de noodzaak of proportionaliteit” met betrekking tot de twee maanden van de Olympische en Paralympische Spelen.

Andere historici op het gebied van veiligheidstechnologie en de Olympische Spelen hebben erop gewezen dat landen de Olympische Spelen vaak als een veiligheidsbeurs beschouwen. Zelfs als Frankrijk stopt met het gebruik van zijn algoritmen om video op openbare plaatsen te verwerken nadat de Olympische wet is verlopen, kunnen andere landen het van Franse bedrijven kopen voor hun eigen binnenlands gebruik. Na de Olympische Spelen van 2008 in China kochten Ecuador en andere landen met een gemengde reputatie op het gebied van de mensenrechten bewakingsapparatuur aan op basis van de systemen die tijdens de Olympische Spelen van 2008 werden gedemonstreerd. De surveillance-industrie, in Frankrijk en elders, heeft veel te winnen bij deze blootstelling. De mensenrechten in andere landen kunnen eronder lijden.

De Olympische Spelen dienden ook als proeftuin voor manieren om vervelende veiligheidsmaatregelen te ondermijnen. Toen ambtenaren in 1980 een hek rond het Lake Placid Olympic Village plaatsten, bleven atleten tegen het hek leunen, waardoor het alarm afging. Na enige tijd merkten de veiligheidsagenten dat de alarmen helemaal niet werkten. Het bleek dat iemand, misschien zelfs een veiligheidsagent, het alarmsysteem had uitgeschakeld.

Dit artikel verschijnt in de gedrukte editie van januari 2024.

Uit artikelen op uw website

Gerelateerde artikelen op internet