Kako izbjeći da vas zavaraju dezinformacije generirane umjetnom inteligencijom

Slika porodice koja pozira vani sa planinom u daljini koju je stvorila umjetna inteligencija

Mnoge slike generirane umjetnom inteligencijom izgledaju realno dok ih ne pogledate izbliza

MidJourney

Jeste li primijetili da je gornju sliku stvorila umjetna inteligencija? Može biti teško uočiti slike, video, audio i tekst generirane umjetnom inteligencijom u vrijeme kada ih tehnološki napredak čini sve više nerazlučivim od većine sadržaja koji su stvorili ljudi, ostavljajući nas otvorenim za manipulaciju dezinformacijama. Ali poznavanjem trenutnog stanja AI tehnologija koje se koriste za stvaranje dezinformacija i niza znakova da je ono što gledate možda lažno, možete pomoći da se zaštitite od toga da budete uhvaćeni.

Svjetski lideri su zabrinuti. Prema izvještaju Svjetskog ekonomskog foruma, dezinformacije i dezinformacije mogu “radikalno poremetiti izborne procese u nekoliko ekonomija u naredne dvije godine”, dok je lakši pristup AI alatima “već omogućio eksploziju falsifikovanih informacija i tzv. ‘ sadržaja, od sofisticiranog kloniranja glasa do krivotvorenih web stranica”.

Izrazi dezinformacije i dezinformacije se odnose na lažne ili netačne informacije, ali dezinformacije su one koje su namjerno usmjerene na obmanu ili zabludu.

„Problem s dezinformacijama koje pokreće umjetna inteligencija je obim, brzina i lakoća s kojima se kampanje mogu pokrenuti“, kaže Hany Farid sa Univerziteta Kalifornije, Berkeley. “Ovi napadi više neće uzeti aktere koje sponzorira država ili dobro financirane organizacije – pojedinac s pristupom skromnoj računarskoj snazi ​​može stvoriti ogromne količine lažnog sadržaja.”

On kaže da generativna AI (vidi pojmovnik, ispod) „zagađuje čitav informacioni ekosistem, dovodeći u sumnju sve što čitamo, vidimo i čujemo“. On kaže da njegovo istraživanje sugerira da se u mnogim slučajevima slike i zvuk generirani umjetnom inteligencijom “gotovo ne razlikuju od stvarnosti”.

Međutim, istraživanje Farida i drugih otkriva da postoje strategije koje možete slijediti kako biste smanjili rizik od pada na dezinformacije ili dezinformacije društvenih medija koje stvara AI.

Kako uočiti lažne AI slike

Sjećate se da ste vidjeli fotografiju pape Franje kako nosi pufer jaknu? Takve lažne AI slike postale su sve češće jer su novi alati zasnovani na modelima difuzije (pogledajte pojmovnik ispod) omogućili svima da počnu stvarati slike iz jednostavnih tekstualnih upita. Jedna studija koju je proveo Nicholas Dufour iz Googlea i njegovih kolega otkrila je brz porast udjela slika generiranih umjetnom inteligencijom u tvrdnjama o dezinformacijama provjerenih činjenica od početka 2023. nadalje.

„U današnje vrijeme medijska pismenost zahtijeva AI pismenost“, kaže Negar Kamali sa Univerziteta Northwestern u Ilinoisu. U studiji iz 2024. godine, ona i njene kolege identifikovale su pet različitih kategorija grešaka u slikama generisanim veštačkom inteligencijom (navedene u nastavku) i dale smernice o tome kako ljudi mogu sami da ih uoče. Dobra vijest je da njihovo istraživanje pokazuje da su ljudi trenutno oko 70 posto precizni u otkrivanju lažnih AI slika ljudi. Možete koristiti njihov online test slika kako biste procijenili svoje vještine otkrivanja.

5 uobičajenih tipova grešaka u slikama generiranim umjetnom inteligencijom:

  1. Sociokulturne neuvjerljivosti: Da li scena prikazuje rijetko, neobično ili iznenađujuće ponašanje za određene kulture ili istorijske ličnosti?
  2. Anatomske nedostatke: Pogledajte izbliza: da li su dijelovi tijela poput ruku neobičnog oblika ili veličine? Da li oči ili usta izgledaju čudno? Jesu li spojeni neki dijelovi tijela?
  3. Stilski artefakti: Da li slika izgleda neprirodno, gotovo previše savršeno ili stilski? Da li pozadina izgleda čudno ili kao da joj nešto nedostaje? Da li je osvetljenje čudno ili promenljivo?
  4. Funkcionalne nedostatke: Da li neki predmeti izgledaju bizarno ili kao da možda nisu stvarni ili ne rade? Na primjer, da li su dugmad ili kopče za pojas na čudnim mjestima?
  5. Prekršaji fizike: Da li su sjene usmjerene u različitim smjerovima? Da li su odrazi ogledala u skladu sa svijetom prikazanim na slici?

Čudni objekti i ponašanje mogu biti tragovi da je sliku stvorila AI

MidJourney

Kako prepoznati duboke lažne videozapise

Tehnologija umjetne inteligencije poznata kao generativne adversarial mreže (pogledajte pojmovnik, dolje) omogućila je tehnološki upućenim pojedincima da kreiraju video-fajkove od 2014. – digitalno manipulišući postojećim videozapisima ljudi kako bi se zamijenili različitim licima, kreirali nove izraze lica i umetali novi govorni zvuk usklađen s podudaranjem sinhronizacija usana. Ovo je omogućilo sve većem broju prevaranata, hakera koje podržava država i korisnika interneta da proizvode video-fajkove u kojima se slavne osobe poput Taylor Swift i obični ljudi mogu nevoljno naći u dubokoj pornografiji bez pristanka, prevarama i političkim dezinformacijama ili dezinformacijama.

Tehnike za uočavanje lažnih slika AI (vidi gore) mogu se primijeniti i na sumnjive video zapise. Osim toga, istraživači sa Massachusetts Institute of Technology i Northwestern University u Illinoisu sastavili su nekoliko savjeta kako da uoče takve deepfakes, ali su priznali da ne postoji metoda bez greške koja uvijek funkcionira.

6 savjeta za uočavanje videa generiranog umjetnom inteligencijom:

  1. Pokreti usta i usana: Postoje li trenuci kada video i audio nisu u potpunosti sinhronizirani?
  2. Anatomske greške: Da li lice ili tijelo izgledaju čudno ili se kreću neprirodno?
  3. lice: Potražite nedosljednosti u glatkoći lica ili bore oko čela i obraza, zajedno sa mladežima na licu.
  4. rasvjeta: Da li je osvetljenje nedosledno? Da li se sjene ponašaju kako biste očekivali? Obratite posebnu pažnju na oči, obrve i naočare osobe.
  5. kosa: Da li dlake na licu izgledaju čudno ili se kreću na čudan način?
  6. Trepće: Previše ili premalo treptanja može biti znak dubokog lažiranja.

Novija kategorija videofajkova zasnovana je na modelima difuzije (pogledajte pojmovnik dole) – istoj AI tehnologiji koja stoji iza mnogih generatora slika – koji mogu kreirati video klipove generisane potpuno veštačkom inteligencijom na osnovu tekstualnih upita. Kompanije već testiraju i objavljuju komercijalne verzije AI video generatora koji bi svima mogli olakšati ovo bez potrebe za posebnim tehničkim znanjem. Do sada, rezultirajući video snimci obično prikazuju iskrivljena lica ili bizarne pokrete tijela.

„Ove video zapise generisane umjetnom inteligencijom vjerovatno je ljudima lakše otkriti nego slike, jer ima puno pokreta i mnogo je više mogućnosti za artefakte i nemogućnosti koje je generirala umjetna inteligencija“, kaže Kamali.


Kako prepoznati AI botove

Nalozi na društvenim mrežama koje kontrolišu kompjuterski botovi postali su uobičajeni na mnogim društvenim medijima i platformama za razmenu poruka. Sve veći broj ovih botova također koristi prednosti generativnih AI tehnologija kao što su modeli velikih jezika (pogledajte pojmovnik ispod) od 2022. Oni čine lakim i jeftinim stvaranje sadržaja napisanog umjetnom inteligencijom kroz hiljade botova koji su gramatički korektno i uvjerljivo prilagođeno različitim situacijama.

Postalo je mnogo lakše „prilagoditi ove velike jezičke modele za određenu publiku sa specifičnim porukama“, kaže Paul Brenner sa Univerziteta Notre Dame u Indijani.

Brenner i njegove kolege su u svom istraživanju otkrili da su volonteri mogli razlikovati botove sa umjetnom inteligencijom od ljudi samo u oko 42 posto vremena – uprkos tome što je sudionicima rečeno da potencijalno stupaju u interakciju s botovima. Ovdje možete testirati vlastite vještine otkrivanja botova.

Neke strategije mogu pomoći u identifikaciji manje sofisticiranih AI robota, kaže Brenner.

5 načina da utvrdite je li račun na društvenim mrežama AI bot:

  1. Emoji i hashtagovi: Prekomjerna upotreba ovih može biti znak.
  2. Neuobičajene fraze, izbor riječi ili analogije: Neobična formulacija može ukazivati ​​na AI bota.
  3. Ponavljanje i struktura: Botovi mogu koristiti ponovljene formulacije koje slijede slične ili krute forme i mogu previše koristiti određene žargonske izraze.
  4. Postavite pitanja: Ovo može otkriti nedostatak znanja bota o nekoj temi – posebno kada su u pitanju lokalna mjesta i situacije.
  5. Pretpostavimo najgore: Ako nalog na društvenim mrežama nije lični kontakt i njihov identitet nije jasno potvrđen ili verificiran, to bi mogao biti AI bot.

Kako otkriti kloniranje zvuka i deepfakes govora

Kloniranje glasa (pogledajte pojmovnik ispod) AI alati su olakšali generiranje novog govornog zvuka koji može oponašati praktično svakoga. To je dovelo do porasta audio lažnih prevara koje kloniraju glasove članova porodice, rukovodilaca kompanija i političkih lidera kao što je američki predsjednik Joe Biden. Ovo može biti mnogo teže identificirati u usporedbi s video zapisima ili slikama generiranim umjetnom inteligencijom.

„Kloniranje glasa je posebno izazovno za razlikovanje stvarnog i lažnog jer ne postoje vizuelne komponente koje bi podržale naš mozak u donošenju te odluke“, kaže Rachel Tobac, suosnivač SocialProof Security, hakerske organizacije bijelih šešira.

Otkrivanje takvih AI audio fajkova može biti posebno teško kada se koriste u video i telefonskim pozivima. Ali postoje neki zdravorazumski koraci koje možete slijediti kako biste razlikovali autentične ljude od glasova koje je stvorila umjetna inteligencija.

4 koraka za prepoznavanje je li zvuk kloniran ili lažiran pomoću AI:

  1. Javne ličnosti: Ako je audio snimak izabranog zvaničnika ili slavne osobe, provjerite je li ono što govore u skladu s onim što je već javno objavljeno ili podijeljeno o njihovim stavovima i ponašanju.
  2. Potražite nedosljednosti: Uporedite audio snimak sa prethodno potvrđenim video ili audio zapisima koji sadrže glas iste osobe. Ima li nekonzistentnosti u zvuku njihovog glasa ili njihovom govoru?
  3. Neugodne tišine: Ako slušate telefonski poziv ili govornu poštu, a zvučnik pravi neuobičajeno duge pauze dok govori, možda koristi tehnologiju kloniranja glasa koju pokreće umjetna inteligencija.
  4. Čudno i riječi: Bilo koji robotski govorni obrasci ili neobično opsežan način govora mogli bi ukazivati ​​na to da neko koristi kombinaciju kloniranja glasa da oponaša nečiji glas i velikog jezičkog modela kako bi generirao točnu formulaciju.
Video snimak verzije generisane umjetnom inteligencijom Narendre Modija kako pleše uz pjesmu Gangnam Style

Javne ličnosti kao što je Narendra Modi koje se ponašaju van karaktera mogu biti AI poklon

@the_indian_deepfaker

Tehnologija će biti samo bolja

Kako sada stoji, ne postoje dosljedna pravila koja uvijek mogu razlikovati sadržaj generiran umjetnom inteligencijom od autentičnog ljudskog sadržaja. AI modeli koji mogu generirati tekst, slike, video i audio će se gotovo sigurno nastaviti poboljšavati i često mogu brzo proizvesti autentični sadržaj bez ikakvih očiglednih artefakata ili grešaka. „Budite ljubazni paranoični i shvatite da AI brzo manipuliše i fabrikuje slike, video zapise i audio zapise – pričamo završeni za 30 sekundi ili manje“, kaže Tobac. “Ovo olakšava zlonamjernim pojedincima koji žele prevariti ljude da brzo preokrenu dezinformacije generirane umjetnom inteligencijom, pogađajući društvene mreže u roku od nekoliko minuta nakon najnovijih vijesti.”

Iako je važno izbušiti oko za lažne informacije koje generiše umjetna inteligencija i naučiti postavljati više pitanja o onome što čitate, vidite i čujete, u konačnici to neće biti dovoljno da zaustavi štetu i odgovornost za otkrivanje lažiranja ne može u potpunosti pasti na pojedince. Farid je među istraživačima koji kažu da vladina regulatorna tijela moraju držati na odgovornost najveće tehnološke kompanije – zajedno sa start-upima koje podržavaju istaknuti investitori iz Silicijumske doline – koje su razvile mnoge alate koji preplavljuju internet lažnim sadržajem generiranim umjetnom inteligencijom. „Tehnologija nije neutralna“, kaže Farid. “Ovu liniju koju nam je tehnološki sektor prodao da nekako ne moraju apsorbirati odgovornost kao što to čini svaka druga industrija, jednostavno je odbacujem.”

Difuzijski modeli: AI modeli koji uče tako što prvo dodaju nasumični šum podacima – kao što je zamućenje slike – a zatim preokrenu proces za oporavak originalnih podataka.

Generativne suparničke mreže: Metoda strojnog učenja zasnovana na dvije neuronske mreže koje se nadmeću modificiranjem originalnih podataka, a zatim pokušavaju predvidjeti jesu li generirani podaci autentični ili stvarni.

Generativna AI: Široka klasa AI modela koji mogu proizvesti tekst, slike, audio i video nakon što su obučeni za slične oblike takvog sadržaja.

Veliki jezički modeli: Podskup generativnih AI modela koji mogu proizvesti različite oblike pisanog sadržaja kao odgovor na tekstualne upite i ponekad prevoditi između različitih jezika.

Kloniranje glasa: Metoda korištenja AI modela za kreiranje digitalne kopije glasa osobe i potom potencijalno generiranje novih uzoraka govora u tom glasu.

Teme: