Waarom we een betere verdediging nodig hebben tegen VR-cyberaanvallen

Dit verhaal verscheen oorspronkelijk in Algorithm, onze wekelijkse AI-nieuwsbrief. Om dit soort verhalen als eerste in je inbox te ontvangen, Registreer hier.

Ik herinner me de eerste keer dat ik een VR-headset probeerde. Het was de eerste Oculus Rift en ik viel bijna flauw na het ervaren van de intense maar visueel ongemakkelijke VR-achtbaan. Maar dat was tien jaar geleden en de ervaring is sindsdien veel soepeler en realistischer geworden. Dat indrukwekkende niveau van onderdompeling kan echter een probleem zijn: het maakt ons bijzonder kwetsbaar voor cyberaanvallen in VR.

Ik heb zojuist een verhaal gepost over een nieuw type beveiligingsprobleem ontdekt door onderzoekers van de Universiteit van Chicago. Geïnspireerd door de Christopher Nolan-film Inception, stelt de aanval hackers in staat een app te maken die kwaadaardige code in het Meta Quest VR-systeem injecteert. Vervolgens wordt een kloon van het startscherm en apps gestart die er identiek uitzien als het originele scherm van de gebruiker. Eenmaal binnen kunnen aanvallers alles wat een persoon doet met een VR-headset zien, opnemen en wijzigen: stem, gebaren, bewegingen, toetsaanslagen, browse-activiteit en zelfs interacties met andere mensen in realtime volgen. Nieuwe angst = ontgrendeld.

De bevindingen zijn behoorlijk verbazingwekkend, deels omdat de nietsvermoedende proefpersonen van de onderzoekers geen idee hadden dat ze werden aangevallen. Je kunt er meer over lezen in mijn verhaal hier.

Het is schokkend om te zien hoe kwetsbaar en onveilig deze VR-systemen zijn, vooral gezien het feit dat Meta’s Quest-headset het populairste product op de markt is en door miljoenen mensen wordt gebruikt.

Maar misschien nog verontrustender is dat dergelijke aanvallen kunnen plaatsvinden zonder dat we het merken en ons realiteitsbesef kunnen vervormen. Eerdere studies hebben aangetoond hoe snel mensen dingen in AR of VR als echt beginnen te beschouwen, zegt Franzi Roesner, universitair hoofddocent computerwetenschappen aan de Universiteit van Washington, die veiligheid en privacy bestudeert maar geen deel uitmaakte van het onderzoek. Zelfs in zeer eenvoudige virtuele omgevingen beginnen mensen rond objecten te lopen alsof ze er echt zijn.

VR heeft het potentieel om verkeerde informatie, bedrog en andere problematische inhoud op steroïden te plaatsen, omdat het de hersenen van mensen uitbuit en hen fysiologisch en onbewust misleidt, zegt Roesner: “Onderdompeling is echt krachtig.”

En aangezien VR-technologie relatief nieuw is, zijn mensen zich niet bewust van beveiligingsfouten of valkuilen tijdens het gebruik ervan. Om te testen hoe onopvallend de eerste aanval was, rekruteerden onderzoekers van de Universiteit van Chicago 27 vrijwillige VR-experts om deze te ervaren. Een van de deelnemers was Jasmine Lu, PhD in computerwetenschappen aan de Universiteit van Chicago. Hij vertelt dat hij sinds 2017 regelmatig VR-systemen gebruikt, leert en ermee werkt. Toch verraste de aanval haar en bijna alle anderen.

“Voor zover ik kon zien, was er geen enkel verschil behalve iets langzamere laadtijden – dingen waarvan ik denk dat de meeste mensen ze gewoon zouden vertalen als kleine foutjes in het systeem”, zegt Lu.

Een van de fundamentele vragen waarmee mensen te maken kunnen krijgen bij het gebruik van VR is of ze kunnen geloven wat ze zien, zegt Roesner.

Lou is het daarmee eens. Ze zegt dat we met internetbrowsers zijn getraind om te herkennen wat legitiem lijkt en wat niet, maar met VR zijn we dat gewoon niet. Mensen weten niet hoe een aanval eruit ziet.

Dit sluit aan bij een groeiend probleem dat we zien met de opkomst van generatieve AI, en zelfs met tekst, audio en video: het is notoir moeilijk om echte van AI-inhoud te onderscheiden. De eerste aanval laat zien dat we VR moeten beschouwen als een nieuwe dimensie in een wereld waarin het steeds moeilijker wordt om te weten wat echt is en wat niet.

Naarmate meer mensen deze systemen gebruiken en er meer producten op de markt komen, is het aan de technologiesector om manieren te ontwikkelen om ze veiliger en betrouwbaarder te maken.

Goed nieuws? Hoewel VR-technologieën commercieel verkrijgbaar zijn, worden ze niet allemaal op grote schaal gebruikt, zegt Roesner. Dit is dus het moment om de verdediging te versterken.


Lees nu de rest van het algoritme

Dieper leren

De OpenAI-spin-off heeft een AI-model gebouwd dat robots helpt mensachtige taken te leren

In de zomer van 2021 sloot OpenAI stilletjes zijn robotica-team af en kondigde aan dat de vooruitgang werd onderdrukt door een gebrek aan gegevens die nodig waren om robots te trainen in het bewegen en denken met behulp van kunstmatige intelligentie. Nu zeggen drie nieuwe OpenAI-onderzoekers dat een startup die ze in 2017 hebben gelanceerd, Covariant genaamd, dat probleem heeft opgelost en een systeem heeft geïntroduceerd dat de redeneervaardigheden van grote taalmodellen combineert met de fysieke behendigheid van een geavanceerde robot.

Multimodale oproep:Het nieuwe model, RFM-1 genaamd, is getraind op basis van jarenlange gegevens verzameld uit de kleine vloot pick-uprobots van Covariant die klanten als Crate & Barrel en Bonprix in magazijnen over de hele wereld gebruiken, evenals op woorden en video’s van internet. Gebruikers kunnen een model zoeken met behulp van vijf verschillende invoertypen: tekst, afbeeldingen, video, robotinstructies en metingen. Het bedrijf hoopt dat het systeem capabeler en efficiënter zal worden naarmate het in de echte wereld wordt gebruikt. Lees hier meer van James O’Donnell.

Bits en bytes

Nu kunt u generatieve kunstmatige intelligentie gebruiken om uw verhalen in strips om te zetten
Door verschillende generatieve modellen te combineren in een gebruiksvriendelijk pakket met drukknoppen, luidt Lore Machine de komst van AI met één klik in. (MIT-technologierecensie)

Voormalig Google-ingenieur beschuldigd van het stelen van AI-bedrijfsgeheimen voor Chinese bedrijven
De race om steeds krachtigere AI-systemen te ontwikkelen wordt steeds vuiler. Een Chinese ingenieur downloadde vertrouwelijke bestanden over de supercomputerdatacenters van Google naar zijn persoonlijke Google Cloud-account terwijl hij voor Chinese bedrijven werkte. (Amerikaanse ministerie van Justitie)

Er was nog meer drama in de OpenAI-saga
Dit verhaal is echt het geschenk dat blijft geven. OpenAI heeft teruggeslagen tegen Elon Musk en zijn rechtszaak, waarin wordt beweerd dat het bedrijf zijn oorspronkelijke missie om goed te doen voor de wereld heeft verraden door e-mails vrij te geven waaruit blijkt dat Musk ook OpenAI wilde commercialiseren. Ondertussen is Sam Altman na zijn tijdelijke afzetting teruggekeerd in het bestuur van OpenAI, en het blijkt dat Chief Technology Officer Mira Murati een grotere rol speelde in de staatsgreep tegen Altman dan oorspronkelijk werd gerapporteerd.

Een klokkenluider van Microsoft heeft gewaarschuwd dat de AI-tool van het bedrijf gewelddadige en seksuele beelden creëert en het auteursrecht negeert
Shane Jones, een ingenieur die bij Microsoft werkt, zegt dat zijn tests met de Copilot Designer van het bedrijf hem zorgwekkende en verontrustende resultaten opleverden. Hij zegt dat het bedrijf zijn zorgen erkende, maar het product niet van de markt haalde. Jones stuurde vervolgens een brief waarin hij deze zorgen uitlegde aan de Federal Trade Commission, en Microsoft is sindsdien begonnen met het blokkeren van enkele termen die giftige inhoud genereerden. (CNBC)

Silicon Valley waardeert academici in onderzoek naar kunstmatige intelligentie
Onderzoek naar kunstmatige intelligentie is erg duur, en Big Tech, met zijn enorme salarissen en computerbronnen, zuigt de academische gemeenschap van toptalent af. Dit heeft ernstige gevolgen voor de technologie en daarom is deze gericht op commercieel gebruik in plaats van op wetenschap. (De Washington Post)