Door AI aangedreven oplichting en wat u eraan kunt doen

AI is er om u te helpen, of u nu een e-mail opstelt, concept art maakt of kwetsbare mensen oplicht door ze te laten denken dat u een vriend of familielid in nood bent. AI is zo veelzijdig! Maar aangezien sommige mensen liever niet worden opgelicht, laten we het even hebben over waar we op moeten letten.

De afgelopen jaren is niet alleen de kwaliteit van de gegenereerde media enorm toegenomen, van tekst tot audio, afbeeldingen en video, maar ook in hoe goedkoop en gemakkelijk die media kunnen worden gemaakt. Hetzelfde type hulpmiddel dat een conceptkunstenaar helpt fantastische monsters of ruimteschepen te verzinnen, of een niet-moedertaalspreker in staat stelt zijn zakelijk Engels te verbeteren, kan ook kwaadwillig worden gebruikt.

Verwacht niet dat de Terminator bij je aanklopt en je een Ponzi-plan verkoopt – het zijn dezelfde oude oplichting waar we al jaren mee te maken hebben, maar met een generatieve AI-draai die ze gemakkelijker, goedkoper of meer maakt. overtuigend.

Dit is geenszins een uitputtende lijst, maar slechts enkele van de meest voor de hand liggende trucs die AI kan overwinnen. We zullen zeker nieuws toevoegen zodra dit in het wild opduikt, of eventuele aanvullende stappen die u kunt nemen om uzelf te beschermen.

Stemklonen van familie en vrienden

Synthetische stemmen bestaan ​​al tientallen jaren, maar pas de afgelopen twee jaar hebben technologische ontwikkelingen het mogelijk gemaakt om uit slechts een paar seconden geluid een nieuwe stem te genereren. Dit betekent dat iedereen wiens stem ooit openbaar wordt gemaakt – bijvoorbeeld in een reportage, een YouTube-video of op sociale media – kwetsbaar is voor stemklonen.

Fraudeurs kunnen deze technologie gebruiken en hebben deze ook gebruikt om overtuigende nepversies van dierbaren of vrienden te produceren. Ze kunnen zichzelf natuurlijk dwingen alles te zeggen, maar in dienst van fraude zullen ze hoogstwaarschijnlijk een stemopname maken waarin ze om hulp vragen.

Een ouder kan bijvoorbeeld een voicemail krijgen van een onbekend nummer dat op zijn zoon lijkt, waarin staat dat hun bezittingen zijn gestolen terwijl ze op reis waren, dat iemand hen hun telefoon heeft laten gebruiken en of mama of papa wat geld naar dit adres kunnen sturen , Venmo-ontvanger, bedrijf, enz. Er zijn gemakkelijk varianten denkbaar met autoproblemen (“ze laten mijn auto pas gaan als iemand ze betaalt”), gezondheidsproblemen (“deze behandeling wordt niet vergoed door de verzekering”), enz.

Dit soort fraude is al gepleegd met behulp van de stem van president Biden. Ze hebben de daders erachter opgepakt, maar toekomstige oplichters zullen voorzichtiger zijn.

Hoe kun je stemklonen bestrijden?

Ten eerste: doe geen moeite om een ​​valse stem op te merken. Ze worden elke dag beter en er zijn veel manieren om kwaliteitsproblemen te verdoezelen. Zelfs de experts laten zich voor de gek houden.

Alles wat afkomstig is van een onbekend nummer, e-mailadres of account moet automatisch als verdacht worden beschouwd. Als iemand zegt dat hij of zij je vriend of geliefde is, neem dan contact op met die persoon zoals je normaal zou doen. Ze zullen je waarschijnlijk vertellen dat het goed met ze gaat en dat het (zoals je al vermoedde) oplichterij is.

Oplichters komen meestal niet in actie als ze hen negeren, terwijl een familielid dat waarschijnlijk wel zal doen. Het is prima om een ​​twijfelachtig bericht achter te laten terwijl je nadenkt.

Gepersonaliseerde phishing- en spam-e-mails en -berichten

We krijgen allemaal wel eens spam, maar kunstmatige intelligentie die tekst genereert, maakt het mogelijk om massale e-mails te verzenden die op maat zijn gemaakt voor elk individu. Omdat er regelmatig datalekken voorkomen, is veel van uw persoonlijke informatie openbaar.

Het is één ding om zo’n “Klik hier om uw factuur te zien!” te krijgen! oplichtings-e-mails met ogenschijnlijk vreselijke bijlagen die zo weinig moeite lijken. Maar zelfs met weinig context worden ze plotseling heel geloofwaardig, waarbij recente locaties, aankopen en gewoonten worden gebruikt om over te komen als een echt persoon of een echt probleem. Gewapend met een paar persoonlijke feiten kan het taalmodel binnen enkele seconden generieke e-mailberichten afstemmen op duizenden ontvangers.

Dus wat vroeger “Beste klant, zoek de bijgevoegde factuur” was, wordt zoiets als “Hallo Doris! Ik werk bij Etsy’s promotieteam. Het artikel dat je onlangs hebt bekeken, heeft nu 50% korting! En verzending naar uw Bellingham-adres is gratis als u deze link gebruikt om uw korting te claimen.” Een simpel voorbeeld, maar toch. Met echte naam, winkelgedrag (makkelijk te achterhalen), algemene locatie (idem) enzovoort, is de boodschap ineens veel minder voor de hand liggend.

Uiteindelijk is dit nog steeds gewoon spam. Maar dit soort op maat gemaakte spam moest vroeger worden gedaan door laagbetaalde mensen op inhoudboerderijen in het buitenland. Nu kan het in grote hoeveelheden worden gedaan door promovendi met betere prozavaardigheden dan veel professionele schrijvers.

Hoe kun je spam bestrijden?

Net als bij traditionele spam is waakzaamheid uw beste wapen. Maar verwacht niet dat je gegenereerde tekst uit door mensen geschreven tekst in de natuur zult ontdekken. Weinigen kunnen dat, en zeker geen ander AI-model.

Hoezeer de tekst ook is verbeterd, dit soort oplichting heeft nog steeds de fundamentele uitdaging om u vage bijlagen of links te laten openen. Zoals altijd: klik of open niets, tenzij u 100% zeker bent van de authenticiteit en identiteit van de afzender. Als je zelfs maar enigszins onzeker bent – ​​en dit is een goed gevoel voor cultivatie – klik dan niet, en als je iemand de opdracht hebt gegeven om het aan een ander paar ogen door te geven, doe het dan.

‘Je bent nep’ identificeert en verifieert fraude

Vanwege het aantal datalekken van de afgelopen jaren (bedankt, Equifax), kunnen we met zekerheid zeggen dat we bijna allemaal een behoorlijke hoeveelheid persoonlijke gegevens op het dark web hebben rondzwerven. Als u goede online beveiligingspraktijken volgt, worden veel gevaren beperkt door wachtwoorden te wijzigen, multi-factor authenticatie in te schakelen, enzovoort. Maar generatieve AI zou op dit gebied een nieuwe en ernstige bedreiging kunnen vormen.

Nu er zoveel gegevens over iemand online beschikbaar zijn, en voor velen zelfs maar een paar fragmenten van hun stem, wordt het steeds gemakkelijker om een ​​AI-persona te creëren die als een doelwit klinkt en toegang heeft tot veel van de feiten die worden gebruikt om de identiteit te verifiëren.

Denk er op deze manier over na. Wat zou u doen als u problemen ondervindt bij het inloggen, uw authenticatie-app niet correct kunt configureren of uw telefoon bent kwijtgeraakt? Bel waarschijnlijk de klantenservice, en zij zullen uw identiteit ‘verifiëren’ aan de hand van een triviaal feit, zoals uw geboortedatum, telefoonnummer of burgerservicenummer. Zelfs geavanceerdere methoden zoals “maak een selfie” worden steeds gemakkelijker te spelen.

Een medewerker van de klantenservice – voor zover wij weten ook een AI – kan je heel goed verplichten om het te vervalsen en het alle privileges te geven die je zou hebben als je daadwerkelijk zou bellen. Wat ze vanuit die positie kunnen doen, varieert sterk, maar niets daarvan is goed.

Net als bij anderen op deze lijst is het gevaar niet zozeer hoe realistisch deze nep zou zijn, maar hoe gemakkelijk het is voor oplichters om dit soort aanvallen op grote schaal en herhaaldelijk uit te voeren. Nog niet zo lang geleden was dit type phishing-aanval duur en tijdrovend, en als gevolg daarvan zou het beperkt zijn gebleven tot waardevolle doelwitten zoals rijke mensen en CEO’s. Tegenwoordig kunt u een workflow bouwen die duizenden imitatieagenten creëert met minimaal toezicht, en deze agenten kunnen autonoom de klantenservicenummers bellen op alle bekende accounts van een persoon – of zelfs nieuwe aanmaken. Slechts een paar daarvan hoeven succesvol te zijn om de kosten van de aanval te rechtvaardigen.

Hoe kun je identiteitsfraude tegengaan?

Net zoals het was voordat AI op de markt kwam om de inspanningen van fraudeurs te vergroten, is “Cybersecurity 101” de beste keuze. Uw gegevens staan ​​er al; je kunt de tandpasta niet terug in de tube doen. Maar jij ik kan zorg ervoor dat uw accounts voldoende beschermd zijn tegen de meest voor de hand liggende aanvallen.

Multi-factor authenticatie is simpelweg de allerbelangrijkste stap die iemand hier kan zetten. Elke vorm van serieuze accountactiviteit wordt rechtstreeks naar uw telefoon geleid en verdachte logins of pogingen om wachtwoorden te wijzigen zullen in uw e-mail verschijnen. Negeer deze waarschuwingen niet en markeer ze niet als spam, zelfs (vooral) als u er veel krijgt.

Deep fakes en chantage gegenereerd door kunstmatige intelligentie

Misschien wel de meest angstaanjagende vorm van AI-fraude is de mogelijkheid van chantage met behulp van valse afbeeldingen van jou of een geliefde. Je kunt de snelle wereld van open-beeldmodellen bedanken voor dit futuristische en angstaanjagende vooruitzicht. Mensen die geïnteresseerd zijn in bepaalde aspecten van de modernste beeldgeneratie hebben niet alleen workflows gecreëerd voor het weergeven van naakte lichamen, maar ook voor het bevestigen ervan aan elk gezicht dat ze kunnen vastleggen. Ik hoef niet uit te leggen hoe het al wordt gebruikt.

Maar een onbedoeld gevolg is de uitbreiding van een vorm van oplichting die gewoonlijk ‘wraakporno’ wordt genoemd, maar nauwkeuriger wordt beschreven als de niet-consensuele verspreiding van intieme beelden (hoewel het, net als bij ‘deepfake’, moeilijk kan zijn om de oorspronkelijke term te vervangen). Wanneer iemands privéfoto’s worden gepubliceerd door hacking of door een wraakzuchtige ex, kunnen ze worden gebruikt als chantage door een derde partij die dreigt ze op grote schaal te publiceren als er niet voor wordt betaald.

AI verbetert dit bedrog door ervoor te zorgen dat er helemaal geen behoefte is aan daadwerkelijke intieme beelden. Ieders gezicht kan worden toegevoegd aan een door AI gegenereerd lichaam, en hoewel de resultaten niet altijd overtuigend zijn, is het waarschijnlijk genoeg om u of anderen voor de gek te houden als het gepixeleerd is, een lage resolutie heeft of op een andere manier gedeeltelijk wazig is. En dat is alles wat nodig is om iemand bang te maken om te betalen om undercover te gaan – hoewel, zoals bij de meeste chantagefraude, de eerste betaling waarschijnlijk niet de laatste zal zijn.

Hoe kun je deepfakes bestrijden die door kunstmatige intelligentie worden gegenereerd?

Helaas is de wereld waar we naartoe gaan er een waar nep-naaktfoto’s voor bijna iedereen op aanvraag beschikbaar zullen zijn. Het is eng en raar en vies, maar helaas is de kat hier eruit gegooid.

Niemand is blij met deze situatie, behalve de slechteriken. Maar er zijn een paar dingen die van toepassing zijn op potentiële slachtoffers. Deze beeldmodellen kunnen tot op zekere hoogte realistische lichamen produceren, maar net als andere generatieve AI weten ze alleen waarvoor ze zijn opgeleid. Zo zullen valse afbeeldingen bijvoorbeeld geen enkel onderscheidend kenmerk missen en zullen ze waarschijnlijk ook op andere manieren duidelijk verkeerd zijn.

En hoewel de dreiging waarschijnlijk nooit volledig zal afnemen, is er steeds meer verhaal voor slachtoffers, die de hosts van afbeeldingen legaal kunnen dwingen afbeeldingen te verwijderen of oplichters kunnen verbieden van de sites waarop ze posten. Naarmate het probleem groeit, zullen ook de juridische en particuliere middelen om het te bestrijden toenemen.

TechCrunch is geen advocaat. Maar bent u hiervan het slachtoffer, meld dit dan bij de politie. Het is niet zomaar oplichterij, het is intimidatie, en hoewel je niet kunt verwachten dat de politie het soort diepgaande internetdetectivewerk doet dat nodig is om iemand op te sporen, worden deze zaken soms opgelost of worden de oplichters afgeschrikt door de verzoeken die worden gedaan. aan hun ISP of forumhost.