L
upa

Umjetna inteligencija kao novi front u (dez)informacijskom kaosu

Piše: Dora Pavković
Politika i društvo
14.7.2025.
Foto: Snimka zaslona/X

Koliko nam korištenje umjetne inteligencije može pomoći u razumijevanju aktualne političke situacije i vojnih sukoba - i koliko nas, pak, može zavarati? Donosimo prijevod teksta koji su za američki nezavisni, neprofitni medij NPR napisale novinarke Huo Jingnan i Lisa Hagen. Tekst se bavi nepouzdanošću chatbotova koji na razne načine posreduju u praćenju i interpretaciji aktualnih događaja i ratnih zbivanja te zasićenjem digitalnih prostora sadržajima generiranim umjetnom inteligencijom. 

U prvim danima nakon iznenadnih izraelskih zračnih napada na Iran, na platformi X počeo se širiti jedan videozapis. Vijest, napisana na azerskom jeziku, prikazuje razrušenu zračnu luku snimanu dronom. Videozapis je na X-u pregledan gotovo sedam milijuna puta.

Stotine korisnika označile su integriranog AI bota Grok, koji je dio platforme X, s pitanjem: „Je li ovo stvarno?“

Nije - video je nastao pomoću generativne umjetne inteligencije. No, Grokovi su odgovori varirali, ponekad čak iz minute u minutu. 

„Video vjerojatno prikazuje stvarnu štetu“, navodi se u jednom odgovoru; „vjerojatno nije autentičan“, navodi drugi.

U novom izvještaju, istraživači iz Laboratorija za digitalnu forenzičku analizu (Digital Forensic Research Lab – DFRLab) pobrojali su više od 300 Grokovih odgovora na navedenu objavu.

„Ono što vidimo jest da umjetna inteligencija posreduje u iskustvu ratovanja“, rekao je Emerson Brooking, direktor strategije u DFRLabu, koji je dio Atlantic Councila - nestranačke organizacije za javne politike. Brooking je koautor knjige o tome kako društveni mediji oblikuju percepciju rata.

„Postoji razlika između doživljavanja sukoba isključivo putem društvenih mreža i doživljavanja istog uz sugovornika, koji je beskrajno strpljiv, kojemu možete postaviti bilo koje pitanje“, rekao je Brooking i dodao: „Ovo je još jedna prekretnica u tome kako će javnost procesuirati i razumijevati oružane sukobe i rat. A tek smo na početku.“

Kako fotografije i videozapisi generirani umjetnom inteligencijom postaju sve realističniji, istraživači koji proučavaju sukobe i informacije kažu da je određenim motiviranim akterima postalo lakše širiti lažne tvrdnje, a svima ostalima sve teže razumjeti sukobe na temelju onoga što vide online. Brooking prati tu eskalaciju još od napada Hamasa na Izrael 7. listopada 2023. godine.

„U početku je mnogo materijala generiranih AI-em bilo dio ranih izraelskih javno-diplomatskih pokušaja da se opravdaju pojačani napadi na Gazu“, rekao je Brooking, pa nastavio: „Ali kako je vrijeme prolazilo, počevši od prošle godine i prvih razmjena vatre između Irana i Izraela, i Iran je počeo zasićivati digitalni prostor ratnim sadržajima generiranim AI-em.“

Srušene zgrade i oboreni zrakoplovi nalaze se među fotografijama i videozapisima generiranima umjetnom inteligencijom koji su se proširili internetom – neki s očitim znakovima da su stvoreni pomoću AI-a, dok su drugi imali suptilnije pokazatelje.

„Ovo je potencijalno najgore stanje informacijskog okruženja koje sam vidjela u posljednje dvije godine“, izjavila je Isabelle Frances-Wright, direktorica za tehnologiju i društvo u neprofitnom Institutu za strateški dijalog (Institute for Strategic Dialogue). 

„Mogu samo zamisliti kako je prosječnom korisniku društvenih mreža kad se nađe u ovakvom feedu“, dodala je.

Društvene mreže i proizvođači AI chatbotova nisu objavili podatke o tome koliko često ljudi koriste chatbotove za traženje informacija o aktualnim događajima, ali izvješće Reuters Instituta objavljeno u lipnju pokazalo je da oko sedam posto korisnika u desecima zemalja koje je institut istraživao koristi AI za dobivanje vijesti. X, OpenAI, Google i Anthropic nisu odgovorili na upit za komentar.

Od ožujka korisnici X-a mogu postavljati pitanja Groku tako što ga označe u odgovorima. Izvješće DFRLaba analiziralo je više od 100.000 objava korisnika koji su označili Grok i pitali ga o ratu između Izraela i Irana u prva tri dana nakon početka sukoba.

Izvješće je pokazalo da se Grok, kada ga se zatraži da provjeri činjenice, poziva na Community Notes – kolektivni sustav provjere činjenica na X-u. To je učinilo odgovore chatbota dosljednijima, ali i dalje je dolazilo do proturječnosti. NPR je poslao slične upite drugim chatbotovima o autentičnosti fotografija i videozapisa za koje se tvrdilo da prikazuju rat između Izraela i Irana. ChatGPT tvrtke OpenAI i Gemini kompanije Google ispravno su odgovorili da jedna slika koju im je NPR dostavio nije iz aktualnog sukoba, ali su je zatim pogrešno pripisali drugim vojnim operacijama. Claude tvrtke Anthropic rekao je da nikako ne može potvrditi autentičnost sadržaja. 

Čak i postavljanje chatbotovima pitanja složenijih od „je li ovo stvarno?“ nosi svoje zamke, kaže Mike Caulfield, istraživač digitalne pismenosti i dezinformacija. 

„Ljudi će uzeti sliku i reći: ‘Analiziraj mi ovo kao da si vojni analitičar’“, objašnjava Caulfield.

Kaže da chatbotovi mogu impresionirati u odgovorima i mogu biti korisni alati za stručnjake, ali „to nije nešto što će uvijek pomoći početniku“.

„Ne znam zašto ljudima ovo moram govoriti, ali ne možete dobiti pouzdane informacije s društvenih mreža ili od AI bota“, upozorio je Hany Farid, profesor specijaliziran za medijsku forenziku na Sveučilištu Kalifornije u Berkeleyju.

Farid, koji je razvio pionirske tehnike za otkrivanje digitalnih sintetskih medija, upozorava na olako korištenje chatbotova za provjeru autentičnosti fotografija ili videa. 

„Ako ne znate kada su ti alati dobri, a kada nisu, i kako to uravnotežiti s klasičnim forenzičkim tehnikama, onda kao da ste tražili da vam se laže“, objašnjava.

I sam je koristio neke od tih chatbotova u svom radu. 

„Zapravo su dobri u prepoznavanju objekata i uzoraka“, rekao je Farid, ističući da chatbotovi mogu analizirati stil zgrada i vrste automobila karakteristične za neko područje.

AI chatbotove sve više ljudi koristi kao izvore vijesti, a videozapisi generirani AI-em postaju sve realističniji. Ove tehnologije predstavljaju sve veći izvor zabrinutosti za istraživače.

„Prije godinu dana, uglavnom smo viđali fotografije. Ljudi su postali pomalo umorni - ili bolje rečeno, oprezni – što se tiče fotografija. No sada imamo prave videozapise, sa zvučnim efektima - to je potpuno druga stvar“, izjavio je Farid, ukazujući na nedavno predstavljeni Googleov generator teksta u video, Veo 3.

Nove tehnologije su impresivne, kaže, ali on i drugi istraživači već dugo upozoravaju na potencijal umjetne inteligencije da pojača ono što se naziva „dobitkom za lažljivce” („the liar’s dividend“). To je situacija u kojoj je vjerojatnije da će osobi koja pokušava izbjeći odgovornost drugi povjerovati kad tvrdi da su kompromitirajući ili inkriminirajući vizualni dokazi protiv nje - lažirani.

Farida zabrinjava i sposobnost umjetne inteligencije da značajno zamuti percepciju aktualnih događaja. Ukazuje na primjer s nedavnih prosvjeda protiv imigracijskih racija koje je proveo američki predsjednik Donald Trump: guverner Kalifornije Gavin Newsom podijelio je fotografiju pripadnika Nacionalne garde koji spavaju na podu u Los Angelesu. U svojoj objavi, Newsom je kritizirao Trumpovo vodstvo, napisavši: „Poslao si svoje vojnike ovdje bez goriva, hrane, vode ili mjesta za spavanje“.

Farid kaže da su korisnici interneta počeli dovoditi u pitanje autentičnost fotografije, neki tvrdeći da je generirana umjetnom inteligencijom. Drugi su je unijeli u ChatGPT i dobili odgovor da je slika lažna.

„I odjednom je internet poludio: 'Guverner Newsom uhvaćen kako dijeli lažnu sliku'“, rekao je Farid, čiji je tim uspio potvrditi autentičnost fotografije

„Dakle, sada ne samo da ljudi dobivaju nepouzdane informacije od ChatGPT-a, već unose slike koje ne odgovaraju njihovom narativu, ne uklapaju se u priču koju žele ispričati, i onda ChatGPT kaže: 'Ah, to je lažno.' I sad stvar izmiče kontroli“, rezimira ovaj stručnjak za medijsku forenziku sa Berkeleya.

Kako često upozorava, ti dodatni slojevi nesigurnosti zasigurno će imati opasne posljedice

„Kad se pojavi pravi videozapis koji prikazuje kršenje ljudskih prava, bombardiranje, ili kako netko kaže nešto neprimjereno - tko će još tome vjerovati?“, naveo je. 

„Ako ja kažem: ‘1 plus 1 je 2’, a ti kažeš: ‘Ne, nije. To je umak od jabuke’ - jer takav je ton razgovora danas - onda stvarno ne znam gdje smo“, poentira Farid.

Iako generativna umjetna inteligencija može kreirati uvjerljive nove stvarnosti, Brooking iz DFRLaba kaže da se u kontekstu sukoba jedan od najučinkovitijih načina korištenja AI-ja svodi na izradu svojevrsne političke karikature ili očite propagandne poruke. Brooking kaže da ljudi ne moraju nužno vjerovati da je neki vizualni sadržaj autentičan kako bi ga dijelili. Humor, na primjer, privlači velik broj korisnika. On smatra da sadržaji generirani AI-em slijede sličan obrazac kao politička satira, poput viralnih naslova iz satiričnog medija The Onion.

„Korisnici interneta su dijeljenjem takvih sadržaja pokazivali određenu pripadnost ili set uvjerenja“, rekao je Brooking, „izražavali su ideju koju su već imali“.

Generativne sposobnosti umjetne inteligencije savršeno su pogodne za korištenje u svim vrstama propagande, prema riječima Darrena Linvilla, profesora sa Sveučilišta Clemson koji proučava kako države poput Kine, Irana i Rusije koriste digitalne alate u propagandne svrhe.

„Postoji jedna vrlo poznata kampanja u kojoj su Rusi još 1980-ih plasirali priču u jedan indijski list“, rekao je Linvill. KGB je nastojao proširiti lažnu tvrdnju da je Pentagon odgovoran za stvaranje virusa AIDS-a, pa je „KGB tu priču podmetnuo u novinama koje su sami pokrenuli, a zatim su tu izvornu priču koristili za daljnje širenje putem ciljane kampanje 'pranja narativa' u drugim medijima tijekom vremena, međutim, trebale su proći godine da se ta priča proširi“.

S razvojem tehnologije, kampanje utjecaja znatno su ubrzane. 

„Danas provode isti proces u roku od nekoliko dana, pa čak i sati“, kaže Linvill.

Njegovo istraživanje pokazalo je da je jedno rusko propagandno glasilo uspjelo zadržati svoju uvjerljivost, a pritom više nego udvostručiti količinu objavljenih sadržaja, nakon što je počelo koristiti ChatGPT za pomoć u pisanju članaka.

Linvill tvrdi da umjetna inteligencija može pomoći u stranim kampanjama utjecaja na mnogo načina, ali da te poruke najučinkovitije dopiru do publike upravo putem istaknutih osoba ili influencera, koje državni akteri ponekad plaćaju.

„Oni bace puno 'kruha u vodu', a jedan dio toga se primi i postane istaknuti dio javnog diskursa“, izjavio je.

Bilo da je riječ o propagandi ili potrazi za informacijama u trenucima nesigurnosti, Linvill i drugi istraživači slažu se da su najsnažnije ideje koje AI može pomoći širiti upravo one koje potvrđuju ono u što ljudi već ionako žele vjerovati.

Verificirani član EFCSN-a (Europska mreža organizacija za provjeru činjenične točnosti)


Verified EFCSN member (European Fact-Checking Standards Network)

Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Europske unije ili Europske komisije. Ni Europska unija ni Europska komisija ne mogu se smatrati odgovornima za njih.
Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Agencije za elektroničke medije. Agencija za elektroničke medije ne može se smatrati odgovornima za njih.