L
upa

AI sažeci Google Lensa dijelili su netočne i obmanjujuće informacije o nekim važnim temama

Piše: Dora Pavković
Politika i društvo
03.9.2025.
Foto: Snimka zaslona/GoogleLens

Sažeci pretraga putem Google Lensa generirani umjetnom inteligencijom (AI) korisnicima daju netočne i obmanjujuće informacije o određenim slikama i kadrovima iz videa koji se masovno dijele na društvenim mrežama, otkrilo je nedavno istraživanje fact-checking organizacije Full Fact. 

Google Lens je alat za vizualnu pretragu koji analizira fotografije i može prikazati slične fotografije pronađene na internetu, kao i tekst ili objekte povezane s fotografijom. Često je prvo sredstvo koje koriste fact-checkeri kada pokušavaju provjeriti autentičnost snimki, te je upravo zbog toga posebno zabrinjavajuća netočnost AI sažetaka koji se ponekad pojavljuju na vrhu rezultata pretraživanja Google Lensa. Naime, lažne ili obmanjujuće tvrdnje mogle bi biti prvo što korisnici vide. 

AI sažeci Google Lensa sadrže i napomenu na dnu koja glasi: „AI odgovori mogu sadržavati pogreške“. Prema samom Googleu, AI sažetak „objedinjuje najrelevantnije informacije s interneta“ o fotografiji, uključujući poveznice na srodne stranice. 

Sporni AI sažeci pojavili su se kod važnih i osjetljivih tema - videozapisa za koje se tvrdi da se odnose na ratove u Ukrajini i Gazi, sukob između Indije i Pakistana, nesreću zrakoplova Air India u lipnju 2025. godine te dolaske malih brodova s izbjeglicama u Ujedinjeno Kraljevstvo. 

Organizacija Full Fact provela je niz provjera koristeći Google Lens, pri čemu su analizirali snimke zaslona ključnih trenutaka iz obmanjujućih videa koje su ranije istraživali. Utvrdili su da AI sažeci kod najmanje deset takvih isječaka nisu uspjeli prepoznati da se radi o lažnom sadržaju ili su davali netočne tvrdnje o onome što je prikazano na fotografijama. 

U četiri primjera, AI sažeci su doslovno ponavljali iste lažne tvrdnje koje su već kružile uz te videozapise na društvenim mrežama – tvrdnje koje je Full Fact prethodno opovrgnuo. Također je zabilježeno da se AI sažeci razlikuju iz pretrage u pretragu, čak i kad se pretražuje potpuno ista fotografija, pa je bilo teško dobiti stalne i dosljedne rezultate. 

Kada su iz Full Facta pitali Google o tim pogreškama, glasnogovornik je priznao da su neki netočni AI sažeci rezultat problema u vizualnim rezultatima pretrage, međutim, ne i u samom AI-u, te da se lažne informacije šire jer pretraga povlači izvore s interneta i društvenih mreža. Istaknuo je da im je cilj pružati točne i kvalitetne podatke te da greške koriste za daljnja poboljšanja i prilagodbu sustava. Dodao je i da su da su AI sažeci potkrijepljeni rezultatima pretrage te da rijetko „haluciniraju“.

Halucinacija se u ovom kontekstu odnosi na pojavu dezinformacija unutar sustava umjetne inteligencije, to jest na situaciju kada model generira netočne ili proturječne („iskrivljene“) informacije, često predstavljene uvjerljivo, ili pak „izmišlja“ stvari. AI može percipirati obrasce ili objekte koji zapravo ne postoje ili su neprimjetni ljudskom oku, stvarajući tako rezultate koji su besmisleni ili netočni. AI algoritmi ponekad proizvode rezultate koji nisu utemeljeni na podacima iz učenja, koji su pogrešno dekodirani ili ne slijede nikakav prepoznatljiv obrazac. Drugim riječima, AI „halucinira“ odgovor. Pojedini istraživači tvrde da halucinacija predstavlja inherentno svojstvo ovih modela te smatraju da je potpuno uklanjanje halucinacija bez narušavanja kvalitete izvedbe gotovo nemoguće, odnosno da je njihovo potpuno iskorjenjivanje neizvedivo. 

Full Fact je i javno objavio nekoliko primjera gdje su AI sažeci ponavljali tvrdnje koje je ova organizacija već opovrgnula, a koje su se odnosile na stvarne snimke pogrešno opisane na društvenim mrežama.

Jedan viralni video tvrdio je da prikazuje tražitelje azila koji stižu u Dover u Ujedinjenom Kraljevstvu, no to nije točno – snimka zapravo prikazuje mnoštvo ljudi na plaži u Goi u Indiji. Unatoč tome, AI sažetak generiran kada su iz Full Facta pretražili kadar iz tog videa ponovio je lažnu tvrdnju, navodeći: „Slika prikazuje skupinu ljudi okupljenih na Dover Beachu, šljunčanoj plaži na obali Engleske“.

(Snimka zaslona/Full Fact)

Još jedan isječak kružio je društvenim mrežama uz tvrdnje da prikazuje zrakoplov kompanije Air India koji se srušio u indijskom Ahmedabadu 12. lipnja ove godine. AI sažetak je za ključni kadar također naveo: „Fotografija prikazuje zrakoplov Air India Boeing 787 Dreamliner koji se srušio ubrzo nakon polijetanja iz Ahmedabada u Indiji, 12. lipnja 2025. godine, na letu prema London Gatwicku“. No, to nije točno – snimka zapravo prikazuje zrakoplov koji polijeće s Heathrowa u svibnju 2024. godine. Spomenuta zrakoplovna nesreća, inače, bila je povod za vrlo veliki broj dezinformacija – primjerice, zvučni zapis iz 2009. godine lažno je predstavljen kao snimka iz „crne kutije“ palog aviona, video koji pokazuje posadu aviona koji se srušio zapravo je snimljen nekoliko dana prije nesreće, video koji navodno prikazuje unutrašnjost zrakoplova nekoliko trenutaka prije nesreće ustvari prikazuje turbulenciju na letu u Pakistanu iz svibnja 2025. godine … 

Googleovi AI sažeci u još su dva slučaja ponovili lažne tvrdnje koje su kružile društvenim mrežama, netočno ih smjestivši na pogrešno mjesto ili u pogrešno vrijeme. Riječ je o videozapisu za koji se tvrdilo da prikazuje džamiju koja gori u Barceloni, a zapravo je snimljen u Indoneziji, te videu mnoštva ljudi koji mašu palestinskim zastavama na sprovodu pape Franje u travnju 2025. godine, iako je video nastao znatno prije njegove smrti, u prosincu 2023. godine.

Full Fact je u lipnju pisao o videozapisu za kojega se u brojnim objavama na društvenim mrežama tvrdilo da prikazuje „uništene ruske vojne zrakoplove“ nakon ukrajinskih napada dronovima na ruske letjelice. Međutim, taj isječak nije autentičan i gotovo sigurno je generiran umjetnom inteligencijom.

Korištenjem Google Lensa za pretraživanje više ključnih kadrova tog videa, Full Fact je dobio niz različitih AI sažetaka – niti jedan od njih nije naveo da je riječ o lažnom sadržaju ili da je video vjerojatno stvoren umjetnom inteligencijom. Jedan sažetak čak je ponovio lažnu tvrdnju koja se širila na društvenim mrežama o tome da je riječ o uništenim ruskim zrakoplovima koji su napali vojnu bazu u Sibiru. Full Fact je primijetio da je, premda je istina da su u ukrajinskom napadu doista oštećeni zrakoplovi u ruskoj vojnoj bazi Belaya u Sibiru, „nelogično sugerirati da su ruski zrakoplovi napali vojnu bazu u Sibiru, koja se nalazi unutar same Rusije“. 

Snimke igranja iz vojne simulacijske videoigre „Arma 3“ kruže društvenim mrežama uz tvrdnje da prikazuju stvarne prizore sukoba. Video pada helikoptera u „Ukrajini“ zapravo je iz ove videoigre, kao i isječak u kojem rakete „pogađaju brodove u Crvenom moru“ te isječak koji navodno prikazuje novi obrambeni sustav „Iron Beam“ u Izraelu. 

Full Fact je pronašao i nekoliko primjera u kojima AI sažeci Google Lensa nisu uspjeli razlikovati ključne kadrove tih isječaka od stvarnih snimki, već su umjesto toga „halucinirali“ određene scenarije koji se labavo povezuju s globalnim događajima.

Jedan isječak iz „Arma 3“ podijeljen je na internetu uz lažne tvrdnje da prikazuje izraelske helikoptere oborene nad Gazom. Kada je Full Fact pomoću Google Lensa pretražio ključni kadar, AI sažetak je naveo da prikazuje „borbeni zrakoplov izraelskog ratnog zrakoplovstva (IAF) koji ispaljuje mamce, vjerojatno tijekom nedavnih napada na Iran“. No, sažetak nije uspio utvrditi da snimka nije stvarna.

(Snimka zaslona/Full Fact)

Drugi isječak iz videoigre „Arma 3“ dijeljen je u svibnju tijekom sukoba između Indije i Pakistana uz lažne tvrdnje da prikazuje Pakistan kako obara indijski borbeni zrakoplov Rafale u blizini grada Bahawalpura u Pakistanu. Niti u ovom slučaju AI sažetak nije naveo da se radi o videoigri, a ne o stvarnosti.

U svijetlu ovakvih dezinformacija ili „halucinacija“ unutar AI-a, Full Fact savjetuje da Google Lens, kao i AI sažetke koji se pojavljuju na vrhu rezultata pretraživanja ovog alata, koristite s oprezom

„Iako ovi AI sažeci mogu biti korisna početna točka, oni ne mogu zamijeniti ulogu fact-checkera ili ljudske prosudbe općenito“, zaključuju u Full Factu te preporučuju svima koji pokušavaju provjeriti informacije – bile to fotografije, videozapisi ili statistike – da se ne oslanjaju isključivo na ove AI sažetke, već da potraže vjerodostojne, primarne izvore informacija koje se mogu usporediti i potvrditi kako bi se dobila šira i točnija slika.

Verificirani član EFCSN-a (Europska mreža organizacija za provjeru činjenične točnosti)


Verified EFCSN member (European Fact-Checking Standards Network)

Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Europske unije ili Europske komisije. Ni Europska unija ni Europska komisija ne mogu se smatrati odgovornima za njih.
Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Agencije za elektroničke medije. Agencija za elektroničke medije ne može se smatrati odgovornima za njih.