Vrouwen in kunstmatige intelligentie: Annika Collier Navaroli werkt eraan om de machtsongelijkheid te veranderen

Om AI-gerichte vrouwelijke academici en anderen hun welverdiende – en veel te late – tijd in de schijnwerpers te geven, lanceert TechCrunch een reeks interviews gericht op buitengewone vrouwen die hebben bijgedragen aan de AI-revolutie.

Anika Collier Navaroli is senior fellow bij het Tow Center for Digital Journalism aan de Columbia University en fellow van het Technology Public Voices Project OpEd, dat wordt gehouden in samenwerking met de MacArthur Foundation.

Ze staat bekend om haar onderzoek en belangenbehartiging op het gebied van technologie. Ze was eerder werkzaam als Race and Technology Practitioner bij het Stanford Center for Philanthropy and Civil Society. Daarvoor leidde ze Trust & Safety bij Twitch en Twitter. Navaroli is misschien het meest bekend vanwege haar getuigenis in het congres over Twitter, waar ze sprak over genegeerde waarschuwingen over dreigend geweld op sociale media in de aanloop naar wat de aanval op het Capitool van 6 januari zou worden.

Kortom, hoe ben je in aanraking gekomen met kunstmatige intelligentie? Wat trok je aan in het veld?

Ongeveer twintig jaar geleden werkte ik tijdens de zomer als copywriter voor de krant in mijn geboortestad, toen deze digitaal werd. Ik heb toen journalistiek gestudeerd. Sociale netwerksites zoals Facebook overspoelden mijn campus, en ik raakte geobsedeerd door het proberen te begrijpen hoe op de drukpers gebaseerde wetten zouden evolueren met nieuwe technologieën. Die nieuwsgierigheid leidde mij naar de rechtenstudie, waar ik naar Twitter migreerde, mediarecht en politiek studeerde en de Arabische Lente en Occupy Wall Street-bewegingen zag ontvouwen. Ik heb het allemaal samengevoegd en een masterscriptie geschreven over hoe nieuwe technologie de manier waarop informatie stroomt en hoe de samenleving gebruik maakt van de vrijheid van meningsuiting heeft getransformeerd.

Na mijn afstuderen werkte ik bij verschillende advocatenkantoren en vond vervolgens mijn weg naar het Institute for Research on Data and Society, waar ik onderzoek deed voor een nieuwe denktank over wat toen ‘big data’, burgerrechten en gelijkheid heette. In mijn werk daar onderzocht ik hoe vroege AI-systemen zoals gezichtsherkenningssoftware, voorspellende politiehulpmiddelen en risicobeoordelingsalgoritmen in het strafrecht vooroordelen repliceerden en onbedoelde gevolgen creëerden die gemarginaliseerde gemeenschappen troffen. Vervolgens ging ik aan de slag bij Color of Change en leidde de eerste burgerrechtenaudit van een technologiebedrijf, ontwikkelde een organisatorisch draaiboek voor campagnes voor technische verantwoordelijkheid en pleitte voor veranderingen in het technologiebeleid bij overheden en toezichthouders. Van daaruit werd ik senior beleidsmedewerker binnen de vertrouwens- en veiligheidsteams van Twitter en Twitch.

Op welk werk ben je het meest trots op het gebied van kunstmatige intelligentie?

Het meest trots ben ik op mijn werk bij technologiebedrijven die de politiek gebruiken om de machtsverhoudingen praktisch te verschuiven en vooroordelen te corrigeren binnen de cultuur en de algoritmische systemen die kennis produceren. Ik heb verschillende campagnes op Twitter gevoerd om individuen te valideren die eerder op schokkende wijze waren uitgesloten van het exclusieve verificatieproces, waaronder zwarte vrouwen, gekleurde mensen en queer mensen. Hiertoe behoorden ook vooraanstaande AI-wetenschappers zoals Safiya Noble, Alondra Nelson, Timnit Gebru en Meredith Broussard. Dit was in 2020, toen Twitter nog Twitter was. Destijds betekende verificatie dat je naam en inhoud onderdeel werden van het kernalgoritme van Twitter, omdat tweets van geverifieerde accounts werden geïnjecteerd in aanbevelingen, zoekresultaten, home-tijdlijnen en bijdroegen aan trending. Het werk van het verifiëren van nieuwe mensen met verschillende perspectieven op AI is dus fundamenteel veranderd wier stemmen autoriteit hebben gegeven als opinieleiders en nieuwe ideeën in het publieke gesprek hebben gebracht tijdens enkele echt kritieke momenten.

Ik ben ook erg trots op het onderzoek dat ik op Stanford heb gedaan en dat met mate bij elkaar kwam als Black. Toen ik bij techbedrijven werkte, merkte ik ook dat niemand echt schreef of sprak over de ervaringen die ik elke dag had als zwarte persoon die in Trust & Safety werkte. Dus toen ik de industrie verliet en terugkeerde naar de academische wereld, besloot ik met zwarte technologiewerkers te praten en hun verhalen aan het licht te brengen. Het onderzoek was uiteindelijk het eerste in zijn soort en leidde tot veel nieuwe en belangrijke gesprekken over de ervaringen van technologiemedewerkers met gemarginaliseerde identiteiten.

Hoe ga je om met de uitdagingen van de door mannen gedomineerde technologie-industrie en, bij uitbreiding, de door mannen gedomineerde AI-industrie?

Als zwarte queervrouw is het navigeren door door mannen gedomineerde en andere ruimtes een onderdeel van mijn hele levensreis. Binnen technologie en kunstmatige intelligentie denk ik dat het meest uitdagende aspect is wat ik in mijn onderzoek ‘geforceerd identiteitswerk’ heb genoemd. Ik heb de term bedacht om de vaak voorkomende situaties te beschrijven waarin werknemers met een gemarginaliseerde identiteit worden behandeld als stemmen en/of vertegenwoordigers van hele gemeenschappen die hun identiteit delen.

Vanwege de hoge inzet die gepaard gaat met de ontwikkeling van nieuwe technologie zoals AI, lijkt het soms bijna onmogelijk om aan dat werk te ontsnappen. Ik moest leren heel specifieke grenzen voor mezelf te stellen over welke problemen ik bereid was aan te pakken en wanneer.

Wat zijn enkele van de meest urgente problemen waarmee AI wordt geconfronteerd naarmate deze zich verder ontwikkelt?

Volgens de onderzoeksjournalistiek hebben de huidige generatieve AI-modellen alle data op internet opgeslokt en zullen ze binnenkort geen beschikbare data meer hebben om te verwerken. Daarom wenden de grootste AI-bedrijven ter wereld zich tot synthetische data, of informatie die door de kunstmatige intelligentie zelf wordt gegenereerd, in plaats van door mensen, om hun systemen te blijven trainen.

Het idee leidde me naar het konijnenhol. Daarom schreef ik onlangs een opiniestuk waarin ik betoogde dat ik denk dat dit gebruik van synthetische data als trainingsdata een van de meest urgente ethische kwesties is waarmee nieuwe AI-ontwikkelingen te maken krijgen. Generatieve AI-systemen hebben al aangetoond dat hun output op basis van hun oorspronkelijke trainingsgegevens vooroordelen repliceert en valse informatie genereert. Het pad van het trainen van nieuwe systemen met synthetische data zou dus betekenen dat vertekende en onnauwkeurige outputdata voortdurend als nieuwe trainingsdata in het systeem worden teruggevoerd. Ik beschreef dit als een mogelijke terugkeer naar de hel.

Sinds ik het artikel heb geschreven, heeft Mark Zuckerberg Meta’s bijgewerkte Llama 3-chatbot geprezen als gedeeltelijk aangedreven door synthetische data en als het “meest intelligente” generatieve AI-product op de markt.

Van welke problemen moeten AI-gebruikers op de hoogte zijn?

AI is tegenwoordig een alomtegenwoordig onderdeel van ons leven, van spellingscontroles en sociale media-inhoud tot chatbots en beeldgeneratoren. In veel opzichten is de samenleving een proefkonijn geworden voor de experimenten met deze nieuwe, onbewezen technologie. Maar AI-gebruikers mogen zich niet machteloos voelen.

Ik betoogde dat voorstanders van technologie zich moeten verenigen en AI-gebruikers moeten organiseren om op te roepen tot een menselijke pauze voor AI. Ik denk dat de Writers Guild of America heeft laten zien dat mensen met organisatie, collectieve actie en geduldige vastberadenheid samen kunnen komen om betekenisvolle grenzen te creëren voor het gebruik van AI-technologieën. Ik geloof ook dat als we nu stoppen met het corrigeren van de fouten uit het verleden en het creëren van nieuwe ethische richtlijnen en regelgeving, AI geen existentiële bedreiging voor onze toekomst hoeft te worden.

Wat is de beste manier om op verantwoorde wijze AI te bouwen??

Mijn ervaring bij technologiebedrijven heeft mij geleerd hoe belangrijk het is wie er in de zaal zit om het beleid te schrijven, de argumenten te presenteren en de beslissingen te nemen. Mijn reis heeft me ook laten zien dat ik de vaardigheden heb ontwikkeld die ik nodig heb om te slagen in de technische industrie, beginnend op de journalistiekschool. Nu ben ik terug op de Columbia Journalism School en ben ik geïnteresseerd in het opleiden van de volgende generatie mensen om het werk van technologische verantwoordelijkheid en verantwoorde AI-ontwikkeling te doen, zowel binnen technologiebedrijven als als externe waakhonden.

ik denk [journalism] de school geeft mensen een unieke training in het onderzoeken van informatie, het zoeken naar de waarheid, het overwegen van meerdere standpunten, het creëren van logische argumenten en het scheiden van feit en werkelijkheid van meningen en verkeerde informatie. Ik geloof dat het een solide basis is voor de mensen die verantwoordelijk zullen zijn voor het schrijven van de regels voor wat de volgende iteraties van AI wel en niet kunnen doen. En ik kijk ernaar uit om een ​​meer platgetreden pad te creëren voor degenen die volgen.

Ik ben ook van mening dat de AI-industrie naast geschoolde Trust & Safety-medewerkers externe regulering nodig heeft. In de VS bepleit ik dat dit zou moeten komen in de vorm van een nieuw agentschap om Amerikaanse technologiebedrijven te reguleren, met de bevoegdheid om basisveiligheids- en privacynormen vast te stellen en af ​​te dwingen. Ik zou ook graag willen blijven werken aan het verbinden van huidige en toekomstige toezichthouders met voormalige techwerkers die de machthebbers kunnen helpen de juiste vragen te stellen en nieuwe genuanceerde en praktische oplossingen te creëren.