Meta Nick Clegg bagatelliseert de bedreiging van kunstmatige intelligentie voor de mondiale democratie | Kunstmatige intelligentie (AI)

Generatieve AI wordt overdreven als een electoraal risico, zegt Nick Clegg van Meta, die stelt dat de technologie nuttiger is voor het verdedigen van de democratie dan voor het aanvallen ervan.

Tijdens zijn toespraak op het Meta AI Day-evenement in Londen op dinsdag zei het hoofd van mondiale zaken van het sociale netwerk dat er aanwijzingen zijn uit grote verkiezingen die dit jaar over de hele wereld zijn gehouden dat technologieën zoals grote taalmodellen, beeld- en videogeneratoren en hulpmiddelen voor spraaksynthese in de praktijk niet gebruikt om de democratie te ondermijnen.

“Het is waar dat we alert en waakzaam moeten zijn”, zei Clegg. “Maar van de grote verkiezingen die dit jaar al hebben plaatsgevonden, in Taiwan, Pakistan, Bangladesh en Indonesië, valt het op hoe weinig van deze instrumenten op systematische basis zijn gebruikt om daadwerkelijk te proberen de verkiezingen te ondermijnen en te ontwrichten.

“Ik zou er bij iedereen op willen aandringen om AI als een zwaard te beschouwen, en niet alleen als een schild, als het om slechte inhoud gaat. De grootste reden dat we steeds beter en beter worden in het verminderen van slechte inhoud die we niet op onze muren willen hebben, op Instagram en Facebook, enzovoort, is om één reden: AI.”

Meta werkt samen met collega’s uit de industrie, voegde Clegg eraan toe, om te proberen deze systemen verder te verbeteren. “Er is een steeds hoger niveau van samenwerking binnen de sector, vooral dit jaar, met een ongekend aantal keuzes.”

Het landschap zal de komende maand echter waarschijnlijk veranderen als gevolg van Meta’s eigen acties in de ruimte. Het bedrijf zal de Llama 3, het meest geavanceerde model met grote tong in GPT-stijl, de komende weken lanceren, met een volledige release verwacht tegen de zomer, zei Clegg.

In tegenstelling tot veel van zijn collega’s heeft Meta deze AI-modellen historisch gezien als open source uitgebracht, met weinig beperkingen op het gebruik ervan. Dit maakt het moeilijk om te voorkomen dat ze opnieuw worden gebruikt door slechte actoren, maar stelt externe waarnemers ook in staat de nauwkeurigheid en vertekening van het systeem nauwkeuriger te controleren.

Clegg zei: “Een van de redenen waarom de hele cybersecurity-industrie op open source-technologie is gebouwd, is juist omdat als je de wijsheid van de massa toepast op nieuwe technologieën, je meer van de potentiële tekortkomingen zult zien dan alleen maar vertrouwen op één bedrijfsentiteit die speelt Whac-A – Ze bidden met hun eigen systemen”.

Yann LeCun, Meta’s hoofd AI-wetenschapper en een van de drie mensen die bekend staan ​​als de ‘peetvaders van AI’, betoogde dat er een groter risico is voor de democratie dan AI: de potentiële dominantie van een paar gesloten modellen. “In de nabije toekomst zal elke interactie die we hebben met de digitale wereld plaatsvinden via een AI-assistent”, voorspelde LeCun. “Als ons hele digitale dieet wordt gemedieerd door AI-systemen, hebben we ze nodig om divers te zijn, om dezelfde reden dat we een vrije en diverse pers nodig hebben. Elk AI-systeem is op de een of andere manier bevooroordeeld; het is getraind op bepaalde gegevens.

‘Wie zal zorgen voor alle talen, culturen, waardesystemen en belangencentra in de wereld? “Een handvol bedrijven aan de westkust van de VS kan dat niet”, zei LeCun.