De ‘personalisatie’ van Big Tech leidt tot een nieuwe oproep om op profilering gebaseerde inhoud standaard uit te sluiten in de EU

Er zou nog een beleidsstrijd kunnen ontstaan ​​rond de contentaanbevelingssystemen van Big Tech in de Europese Unie, waar de Commissie te maken krijgt met oproepen van een aantal parlementariërs om hard aan te pakken op contentfeeds die gebaseerd zijn op profilering – bekend als ‘personalisatie’-engines die gebruikersgegevens verwerken gegevens om te bepalen wie hen de inhoud zal laten zien.

Het volgen en profileren van gebruikers door reguliere platforms om ‘gepersonaliseerde’ inhoudsfeeds uit te voeren, heeft lange tijd geleid tot bezorgdheid over de mogelijke schade aan individuen en democratische samenlevingen, waarbij critici suggereren dat de technologie sociale-mediaverslaving aanwakkert en een risico vormt voor de geestelijke gezondheid van kwetsbare mensen. . Er bestaat ook bezorgdheid dat technologie de sociale cohesie ondermijnt door de neiging om verdeeldheid zaaiende en polariserende inhoud te versterken die individuen tot politieke extremen kan drijven door hun woede en woede te kanaliseren.

De een brief, ondertekend door 17 parlementsleden van politieke groeperingen, waaronder de S&D, Links, Groenen, de EVP en Renew Europe, roept op om de aanbevelingssystemen van technologieplatforms standaard uit te schakelen – een idee dat naar voren kwam tijdens de onderhandelingen over de Digitale Diensten van het blok Act (DSA), maar die niet in de definitieve verordening is opgenomen omdat deze geen democratische meerderheid had. In plaats daarvan hebben de EU-wetgevers ingestemd met transparantiemaatregelen voor aanbevelingssystemen, samen met de eis dat grotere platforms (zogenaamde VLOP’s) ten minste één inhoudsfeed moeten aanbieden die niet op profilering is gebaseerd.

Maar in hun brief vragen de leden van het Europees Parlement om de technologie volledig uit te schakelen. “Op interactie gebaseerde aanbevelingssystemen, vooral hypergepersonaliseerde systemen, vormen een ernstige bedreiging voor onze burgers en onze samenleving als geheel, omdat ze prioriteit geven aan emotionele en extreme inhoud, vooral gericht op individuen die waarschijnlijk worden geprovoceerd”, schrijven ze.

“De verraderlijke cyclus stelt gebruikers bloot aan sensationele en gevaarlijke inhoud, waardoor hun betrokkenheid op het platform wordt verlengd om de advertentie-inkomsten te maximaliseren. Uit het TikTok-experiment van Amnesty bleek dat een algoritme een nagebootste 13-jarige binnen een uur blootstelde aan video’s waarin zelfmoord werd verheerlijkt.’ Bovendien blijkt uit het interne onderzoek van Meta dat een significante 64% van de toetredingen tot extremistische groeperingen het resultaat is van hun verwijzingsinstrumenten, waardoor de verspreiding van extremistische ideologieën wordt verergerd.”

De oproep volgt de conceptrichtlijnen voor onlineveiligheid voor platforms voor het delen van video’s, eerder deze maand gepubliceerd door de Ierse Mediacommissie (Coimisiún na Meán) – die verantwoordelijk zal zijn voor het lokale toezicht op DSA zodra de verordening in februari van toepassing wordt op inscope-diensten. Coimisiún na Meán adviseert momenteel over richtlijnen die suggereren dat videodeelplatforms “maatregelen moeten nemen om ervoor te zorgen dat op profilering gebaseerde aanbevelingsalgoritmen standaard worden uitgeschakeld”.

De publicatie van de richtlijnen volgt op een episode van gewelddadige burgerlijke onrust in Dublin, waarvan de politie-autoriteiten hebben gesuggereerd dat deze werd aangewakkerd door verkeerde informatie die werd verspreid door extreemrechtse ‘hooligans’ op sociale media en berichtenapps. En eerder deze week riep de Ierse Raad voor Burgerlijke Vrijheden (ICCL) – die lange tijd campagne heeft gevoerd op het gebied van digitale rechten – de Commissie ook op om het voorstel van Coimisiún na Meána te steunen, en om haar eigen rapport te publiceren waarin wordt gepleit voor gepersonaliseerde informatiebronnen voor standaard worden uitgesloten omdat hij beweert dat algoritmen voor sociale media samenlevingen verscheuren.

In hun brief baseren de Europarlementsleden zich ook op het voorstel van de Ierse mediaregulator, waarin wordt gesuggereerd dat dit “effectief” problemen zou aanpakken met verwijzingssystemen die de neiging hebben om “emotionele en extreme inhoud” te promoten, waarvan zij eveneens beweren dat deze de maatschappelijke cohesie kan schaden.

De brief verwijst ook naar het onlangs aangenomen rapport van het Europees Parlement over het ontwerp van verslavende onlinediensten en consumentenbescherming, waarin volgens hen “de schadelijke impact wordt benadrukt van verwijzingssystemen op onlinediensten die zich bezighouden met het profileren van individuen, vooral minderjarigen, met de bedoeling gebruikers te behouden.” op platforms zo lang mogelijk te laten verschijnen, waardoor ze worden gemanipuleerd door de kunstmatige versterking van haat, zelfmoord, zelfbeschadiging en desinformatie”.

“Wij roepen de Europese Commissie op om het voorbeeld van Ierland te volgen en beslissende actie te ondernemen, niet alleen om deze maatregel onder TRIS goed te keuren [Technical Regulations Information System] procedures, maar ook door deze maatregel aan te bevelen als mitigerende maatregel die door zeer grote onlineplatforms moet worden genomen [VLOPs] op grond van artikel 35, lid 1, onder c), van de wet op digitale diensten om ervoor te zorgen dat burgers betekenisvolle controle hebben over hun gegevens en online-omgeving”, schrijven de vertegenwoordigers van het EP en voegen eraan toe: “De bescherming van onze burgers, vooral de jongere generatie, is van het allergrootste belang en wij zijn van mening dat de Europese Commissie een sleutelrol speelt bij het waarborgen van een veilige digitale omgeving voor iedereen. We kijken uit naar uw snelle en beslissende actie in deze kwestie.”

Onder TRIS zijn EU-lidstaten verplicht om de Commissie op de hoogte te stellen van ontwerpen van technische voorschriften voordat deze als nationale wet worden aangenomen, zodat de EU een juridische toetsing kan uitvoeren om ervoor te zorgen dat de voorstellen voldoen aan de regels van het blok – in dit geval de DSA.

Het systeem betekent dat nationale wetten die streven naar ‘gouden’ EU-regelgeving waarschijnlijk zullen worden herzien. Het voorstel van de Ierse Mediacommissie om aanbevelingssystemen voor videoplatforms standaard uit te sluiten, zal het TRIS-proces dus wellicht niet overleven, omdat het verder lijkt te gaan dan de letter van de relevante wetgeving.

Maar zelfs als het voorstel van Coimisiún na Meána de toetsing van de juridische consistentie van de EU niet doorstaat, doet de DSA een verzoek aan grotere platforms (ook bekend als VLOPS) om de risico’s die voortvloeien uit het verwijzingssysteem te beoordelen en te beperken. Zo is het tenminste mogelijk platforms zouden ervoor kunnen kiezen deze systemen zelf uit te schakelen als compliancemaatregel om te voldoen aan hun DSA-verplichtingen voor systeemrisicobeperking.

Hoewel niemand tot nu toe zo ver is gegaan – en het is duidelijk geen stap die een van deze door advertenties en engagement gefinancierde platforms als commerciële standaard zou nemen.

Na ons onderzoek weigerde de commissie publieke commentaren op de brief van het parlementslid (of het ICCL-rapport). In plaats daarvan wees de woordvoerder op wat zij omschrijven als “duidelijke” verplichtingen voor VLOP-aanbevelingssystemen zoals uiteengezet in artikel 38 van de DSA – die vereist dat platforms voor elk van deze systemen ten minste één optie bieden die niet op profilering is gebaseerd. Maar we konden het profileringsdebat bespreken met een EU-functionaris die op de achtergrond sprak om vrijer te kunnen spreken.

Ze waren het erover eens dat platforms ervoor konden kiezen om op profilering gebaseerde aanbevelingssystemen standaard uit te schakelen als onderdeel van hun naleving van DSA-systemische risicobeperking, maar bevestigden dat geen enkele tot nu toe zo ver van zichzelf was afgeweken.

Tot nu toe hebben we alleen gevallen gezien waarin niet-geprofileerde bronnen als optie beschikbaar zijn voor gebruikers – zoals TikTok en Instagram – om te voldoen aan de bovengenoemde (artikel 38) DSA-vereiste om gebruikers de keuze te geven dit soort personalisatie te vermijden van inhoud. Dit vereist echter een actieve opt-out van de gebruiker – terwijl standaard niet-profilerende feeds duidelijk een sterkere vorm van inhoudsregulering zouden zijn, omdat er geen actie van de gebruiker nodig is om effect te hebben.

Een EU-functionaris met wie we spraken, bevestigde dat de Commissie verwijzingssystemen onderzoekt in haar hoedanigheid van DSA-handhaver voor VLOP’s – inclusief een formele procedure die eerder deze week op X werd geopend. Verwijzingssystemen waren ook de focus van enkele formele verzoeken om informatie die door de Commissie naar VLOP’s werden gestuurd, waaronder een verzoek aan Instagram gericht op de risico’s voor de veiligheid van kinderen, zo werd ons verteld. En ze waren het erover eens dat de EU grotere platforms zou kunnen dwingen om gepersonaliseerde feeds standaard uit te schakelen in hun rol als handhavers. gebruik te maken van de bevoegdheden die zij heeft om de wet te handhaven.

Maar zij suggereerden dat de Commissie een dergelijke stap alleen zou ondernemen als zij zou vaststellen dat deze effectief zou zijn bij het beperken van bepaalde risico’s. De ambtenaar wees erop dat er meerdere soorten op profilering gebaseerde inhoudsfeeds zijn, zelfs per platform, en benadrukte de noodzaak om elk in hun context te beschouwen. Meer in het algemeen riepen zij op tot “nuance” in het debat over de risico’s van verwijzingssystemen.

De aanpak van de Commissie hier zal zijn om de zorgen geval per geval te beoordelen, zo stelden zij voor, waarbij zij sprak van beleidsinterventies gebaseerd op gegevens over VLOP’s, in plaats van algemene maatregelen. Dit is tenslotte een groep platforms die divers genoeg is om giganten op het gebied van het delen van video’s en sociale media te omvatten, maar ook detailhandels- en informatiediensten – en (de laatste tijd) pornosites. Het risico dat handhavingsbesluiten ongedaan worden gemaakt door juridische problemen bij gebrek aan solide bewijs ter ondersteuning ervan, is een voor de hand liggende zorg van de Commissie.

De ambtenaar voerde ook aan dat er behoefte is aan het verzamelen van meer gegevens om zelfs de fundamentele aspecten te begrijpen die relevant zijn voor het debat over aanbevelingssystemen, zoals de vraag of personalisatie zou worden uitgesloten als risicobeperkende maatregel. Gedragsaspecten behoeven ook meer onderzoek, suggereerden ze.

Vooral kinderen kunnen zeer gemotiveerd zijn om een ​​dergelijke beperking te omzeilen door simpelweg de instelling uit te schakelen, zo betoogden ze, zoals kinderen hebben laten zien dat ze dat ook kunnen doen als het gaat om het vermijden van ouderlijk toezicht – met het argument dat het niet duidelijk is dat het uitschakelen van op profilering gebaseerde aanbevelingssystemen zou feitelijk net zo effectief zijn als een kinderbeschermingsmaatregel.

Over het geheel genomen was de boodschap van onze EU-bron een pleidooi om de verordening – en de Commissie – de tijd te geven om te werken. De DSA trad pas eind augustus in werking voor de eerste set VLOP’s. Terwijl we deze week nog de opening zagen van het eerste officiële onderzoek (naar X), waarbij een onderdeel van het aanbevelingssysteem betrokken was (gerelateerd aan zorgen over het op sets gebaseerde inhoudmoderatiesysteem van X, bekend als Community Notes).

We hebben de afgelopen weken ook een stroom formele verzoeken om informatie over platforms gezien, nadat ze hun eerste reeks risicobeoordelingsrapporten hadden ingediend – wat erop wijst dat de Commissie niet tevreden is met het detailniveau dat tot nu toe is verstrekt. Dit impliceert dat er spoedig krachtiger actie zou kunnen volgen als de EU haar nieuwe rol als regionale internetsheriff op zich neemt. Kortom: 2024 wordt een belangrijk jaar voor de politieke reactie van het blok om een ​​hap uit de grote technologie te nemen. En om te beoordelen of de implementatie van de EU de resultaten oplevert waar activisten voor digitale rechten naar verlangen.

“Dit zijn zaken waarop we platforms onderzoeken in overeenstemming met onze wettelijke autoriteit – maar het algoritme van Instagram is anders dan dat van X, het is anders dan dat van TikTok – we zullen hierover genuanceerd moeten zijn”, vertelde de functionaris ons, waarmee hij het advies van de Commissie suggereerde De aanpak zal draaien om het maken van een reeks interventies, waaronder het instellen van verschillende standaardwaarden voor VLOP’s, afhankelijk van de context en het risico in verschillende bronnen. “Wij kiezen liever voor een aanpak die elke keer echt rekening houdt met de specifieke kenmerken van de platforms.”

“We starten nu met deze handhavingsactie. En dit is eigenlijk nog een reden te meer om onze energie niet te verdunnen in een soort concurrerend juridisch raamwerk of zoiets”, voegden ze eraan toe, terwijl ze er bij voorstanders van digitale rechten op aandrongen de agenda van de Commissie te omarmen. “Ik zou liever hebben dat we binnen het raamwerk van de DSA werken, die de problemen die ons bezighouden kan oplossen [the MEPs’ letter and ICCL report] het verbetert verwijzingssystemen en stimuleert illegale inhoud.”