L
upa

Mračna strana algoritama društvenih mreža

Piše: Dora Pavković
Politika i društvo
31.3.2025.
Foto: Ilustracija/AI

Sve češće čujemo da živimo u „algoritamskom društvu“ – društvu u kojemu društvene mreže i tražilice oblikuju diskurs na sličan način na koji su to nekoć činile države. U ovom tekstu analizirat ćemo što su točno algoritmi, kako utječu na ono što nam se prikazuje na društvenim mrežama i koji su njihovi problematični aspekti, a posebice njihov utjecaj na rastuću radikalizaciju i širenje dezinformacija.

Algoritam je matematički skup pravila koji određuje ponašanje podataka. Na društvenim mrežama oni služe za sortiranje sadržaja u korisničkim feedovima. Facebook je još 2009. godine počeo koristi algoritam koji određuje kojim redoslijedom će se korisnicima prikazivati sadržaj, odnosno „feed“. S obzirom na ogromnu količinu dostupnog sadržaja, društvene mreže koriste algoritme kako bi prioritizirale sadržaj za koji procjenjuju da će se korisniku svidjeti ili biti relevantan, uzimajući u obzir različite faktore. Cilj je prikazati sadržaj koji će korisnika dulje zadržati na platformi

Algoritmi su uglavnom dizajnirani da amplificiraju informacije koje održavaju angažman (engagement) korisnika, što znači da ih potiču da nastave klikati na sadržaj i vraćati se na platforme. Oni bilježe korisničke interakcije – od „lajkova“, to jest oznaka „sviđa mi se“ i „ne sviđa mi se“, do vremena provedenog na objavama – kako bi neprestano generirali sadržaj koji će povećati ili održati angažman korisnika. Društvene mreže iznimno su učinkovite u zadržavanju pažnje korisnika pomoću hiper-personaliziranog sadržaja. 

Efekt „echo chambera“, to jest stvaranja okruženja u kojima su korisnici izloženi samo informacijama koje potvrđuju njihova postojeća uvjerenja, koje algoritmi nužno ne stvaraju, ali ih pojačavaju, može dovesti do povećane izloženosti ekstremnom i polarizirajućem sadržaju i dezinformacijama. Ovdje algoritmi igraju veliku ulogu. Primjerice, YouTube preporuke mogu voditi korisnike prema ekstremnijem sadržaju. TikTok-ov algoritam, pak, može „naučiti“ promovirati dezinformacije o izborima, ekstremne političke ideje i teorije zavjere ako korisnik pogleda samo 20 sličnih videa, dok je Facebook 2018. godine promijenio algoritam kako bi povećao angažman korisnika, što je dovelo do veće viralnosti senzacionalističkog i dezinformativnog sadržaja

Pomoću algoritama otkriveno je da su mržnja, dezinformacije i politika ključni za povećanje angažmana. Algoritmi favoriziraju objave koje privlače najviše interakcija, što je dovelo do toga da su teme koje izazivaju kontroverze postale najvidljivije

„Budući da algoritmi češće favoriziraju sporan i kontroverzan sadržaj, postoji mogućnost da su ekstremni politički stavovi na društvenim mrežama prekomjerno zastupljeni. Kritičari tvrde da društvene mreže, umjesto da budu otvoreni javni forumi, nude iskrivljenu i senzacionalističku sliku javnog mnijenja, pretjerujući u prikazu neslaganja i potiskujući glas većine“, objašnjava se u nedavnoj BBC-jevoj analizi ove teme.

Pojam algoritamske radikalizacije odnosi se na ideju da algoritmi preporuka na društvenim mrežama postupno vode korisnike prema sve ekstremnijem sadržaju, potencijalno oblikujući radikalizirane političke stavove. Istraživanja pokazuju da samo manji dio korisnika dospijeva do takvog sadržaja isključivo zbog algoritama, no s obzirom na golem broj korisnika društvenih mreža, milijuni mogu putem algoritamskih preporuka biti izloženi radikalizirajućem sadržaju.

Studija objavljena 2018. godine u časopisu Science otkriva da se lažne vijesti na internetu šire „dalje, brže, dublje i šire od istine“. Učinak je posebno izražen kod lažnih političkih vijesti. Istraživači su utvrdili da je 70 posto više vjerojatno da će se lažne informacije „retvitati“ na Twitteru (današnjem X-u) nego istinite. Također, lažne vijesti dosegnu brojku od 1.500 ljudi otprilike šest puta brže od istinitih vijesti. 

Primjerice, YouTube svojim korisnicima obično preporučuje videozapise slične onima koje su već gledali. Novo istraživanje otkrilo je da te preporuke mogu dovesti korisnike u takozvani „rabbit hole“ (situaciju u kojoj postanete toliko zainteresirani za temu ili aktivnost da ne možete prestati pokušavati doznati više o njoj) ekstremnog političkog sadržaja. 

Multidisciplinarni istraživački tim sa Sveučilišta California Davis proveo je sustavnu analizu YouTube video preporuka tijekom 2021. i 2022. godine. Ispitivali su kako ideološka orijentacija korisnika može utjecati na to koje će im videozapise algoritmi preporučiti. Za korisnike sklone desnim političkim stavovima, preporučeni videozapisi češće dolaze s kanala koji dijele politički ekstremizam, teorije zavjere i drugi problematičan sadržaj. S druge strane, preporuka za lijevo orijentirane korisnike bilo je znatno manje, navode istraživači. Cijela studija dostupna je na ovoj poveznici.

Prema studiji Mozilla Foundationa, neprofitne organizacije posvećene očuvanju interneta kao javnog dobra koje je otvoreno i dostupno svima, iz 2022. godine, korisnici YouTubea imaju vrlo malo kontrole nad time da spriječe prikazivanje neželjenih videozapisa u preporučenom sadržaju. To uključuje i videozapise koji sadrže govor mržnje.

YouTube je prepoznat kao utjecajna platforma za širenje radikaliziranog sadržaja. Ekstremističke organizacije poput Al-Qaede koriste ga za regrutaciju i angažman s međunarodnim medijima.

Više studija, (vidi ovdje ili ovdje) međutim, pokazalo je malo ili nimalo dokaza koji bi sugerirali da YouTubeovi algoritmi usmjeravaju pažnju prema krajnje desnom sadržaju kod korisnika koji se njime već nisu ranije bavili. U članku iz 2022. godine, Megan A. Brown sa sveučilišta New York i kolege pišu o svojem istraživanju u kojemu su otkrili da YouTubeov algoritam preporuka ne vodi većinu korisnika u ekstremističke „rabbit holes“, iako potiče sve korisnike na konzumaciju sve užeg ideološkog spektra sadržaja – što bi se moglo nazvati blagim oblikom ideološkog echo chambera. Također su otkrili da YouTubeov algoritam preporuka u prosjeku povlači korisnike blago udesno na političkom spektru. 

„Iako nismo pronašli snažne dokaze da su ove 'zečje rupe' široko rasprostranjene, to ne znači da iskustva malog broja korisnika koji doista naiđu na ekstremistički sadržaj putem algoritamskih preporuka nisu značajna. Također, ne znači da ne bismo trebali biti zabrinuti zbog mogućnosti da korisnici lako pronađu štetan sadržaj na internetu ako ga aktivno traže“, zaključuju autori. 

U drugom istraživanju koje su proveli timovi s University Collegea u Londonu i Sveučilišta u Kentu, ističe se da se štetan sadržaj putem algoritama društvenih mreža predstavlja kao zabava

„Algoritmi koje koriste platforme društvenih mreža ubrzano pojačavaju ekstremno mizogini sadržaj, koji se s ekrana tinejdžera širi na školska igrališta, gdje postaje normaliziran“, navodi se u tom istraživanju.

Studija tvrdi da se toksičan, mrziteljski ili mizogini materijal „gura“ mladima, pri čemu su dječaci koji pate od anksioznosti i lošeg mentalnog zdravlja u povećanom riziku.

Asha Rangappa, američka odvjetnica i predavačica globalnih odnosa na Sveučilištu Yale, tvrdi da društvene mreže poput X-a „uopće ne nalikuju pravom javnom trgu“, kakvim ih, primjerice, vlasnik X-a Elon Musk voli predstavljati. Naprotiv, ona naglašava da „mehanizmi društvenih mreža ne dopuštaju slobodnu i fer konkurenciju ideja … 'vrijednost' ideje na društvenim mrežama nije odraz njene kvalitete, već posljedica rada algoritma koji određuje njezinu vidljivost“.

Važno je osvijestiti korisnike društvenih mreža da je ono što svakodnevno konzumiraju, čitaju i gledaju u velikoj mjeri određeno algoritmima koji su dizajnirani tako da maksimalno povećaju „angažman“ korisnika i, kao takvi, prioritiziraju senzacionalistički, kontroverzan, ponekad čak i mrzilački sadržaj. Ovo je posebno zabrinjavajuće uzimajući u obzir utjecaj koji društvene mreže imaju na mlađe generacije u njihovim formativnim godinama. 

Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Europske unije ili Europske komisije. Ni Europska unija ni Europska komisija ne mogu se smatrati odgovornima za njih.
Izneseni stavovi i mišljenja samo su autorova i ne odražavaju nužno službena stajališta Agencije za elektroničke medije. Agencija za elektroničke medije ne može se smatrati odgovornima za njih.