U borbi protiv dezinformacija Facebook surađuje s vladama i zakonodavcima, financira provjeravatelje činjenica i projekte medijske pismenosti te potiče kvalitetno novinarstvo, ali prema tvrdnjama zviždačice Frences Haugen i internim studijama koje su procurile u javnost to sve jedva da čini razliku
Piše: Marija Lalić
Interne Facebookove studije o utjecaju društvenih mreža na mentalno zdravlje te o borbi protiv širenja dezinformacija i teorija zavjere privukle su najviše pažnje među dokumentacijom koju je objavio Wall Street Journal.
Što Facebookove interne studije otkrivaju o mentalnom zdravlju mladih
Upravo brojnost i utjecaj dezinformacija na Facebooku, kao i njegova nemoć, ali i nevoljkost da se uhvati u koštac s ovim problemom pod cijenu promjene svog poslovnog modela, motivirala je Frances Haugen da javno progovori o škakljivim temama o kojima se u Facebooku, prema njenim riječima, mnogo zna, ali nedovoljno poduzima.
Haugen tvrdi da su promjene koje je Facebook u dobroj namjeri unio u rad svog algoritma 2019., želeći pozitivno utjecati na dobrobit svojih korisnika, zapravo polučile suprotne rezultate.
Interne studije koje je objavio Wall Street Journal pokazuju da je Facebook prema procjenama njihovih stručnjaka detektirao 3 do 5 % slučajeva govora mržnje i da je reagirao na manje od 1 % poziva na nasilje. Veliku pažnju je privukla i analiza rada novog algoritma, prema kojoj su se u news feedu profila fiktivnog korisnika, napravljenog za potrebe studije, koji je odlučio pratiti Donalda i Melaniju Trump, već drugog dana korištenja počele javljati dezinformacije, a za manje od tjedan dana nuđene su mu QAnon grupe i stranice.
I dok zviždačica optužuje Facebook da je unatoč svim ovim podacima odbio promijeniti svoj poslovni model, ne želeći ugroziti zaradu, iz Facebooka tvrde da je upravo studija s fiktivnim korisničkim računom bila povod za zabranu stranica i grupa povezanih s QAnonom, dok poražavajuće rezultate u detektiranju i uklanjaju štetnog sadržaja pravdaju pozitivnom statistikom, ističući da govor mržnje čini svega 0.05 % pregledanog sadržaja na Facebooku i da je u zadnjih devet mjeseci ta brojka pala za 50 %.
Facebook redovito ističe svoje napore u borbi protiv štetnih sadržaja i dezinformacija, no činjenica je da ti podaci imaju i svoju drugu stranu i da su deseci milijuna uklonjenih postova samo kap u moru dezinformacija koje se šire ovom mrežom.
Facebook, kao i druge društvene mreže, dominantno se oslanja na ljudsko ponašanje kako bi odlučio koji će sadržaj ponuditi korisnicima. Algoritmi preporuke pri tome posebnu pažnju pridaju sadržaju na koji ljudi reagiraju likeovima, komentarima ili dijeljenjem.
Gdje se dezinformacije najčešće i najučinkovitije dijele i plasiraju javnosti?
Filippo Menczer, profesor informatike i računalnih studija sa Sveučilišta u Indiani, ističe kako se ti algoritmi u svom radu oslanjaju na tzv. “mudrost gomile” koja se temelji na pretpostavci da će osoba prateći i interpretirajući signale drugih jedinki iz svoje okoline donijeti zdravorazumsku odluku. U stvarnom životu ovaj princip dobro funkcionira, ali na društvenim mrežama gdje je stvarnost često iskrivljena djelovanjem botova i farmi trolova, a pojedinac je izložen stavovima znatno većeg broja ljudi od kojih mnoge niti ne poznaje, načelo popularnosti nije se pokazalo kao dobar kriterij preporuke sadržaja.
Menczer je sa svojim kolegama testirao algoritam koji rangira objave koristeći kriterij kvalitete i popularnosti. Otkrili su da u većini slučajeva kriterij popularnosti snižava kvalitetu preporučenog sadržaja.
Načelo “mudrosti gomile” u slučaju društvenih mreža “ne drži vodu” iz više razloga, ističe, a prvenstveno jer se temelji na pretpostavci da tu “gomilu” čine raznoliki, nezavisni izvori. Više je razloga za to.
Prvo, ljudi su skloni povezati se sa sebi sličnima, stoga njihovo online okruženje i nije tako raznoliko. Na društvenim mrežama je lakše ignorirati i izbjegavati one s kojima se ne slažeš.
Drugo, studije su pokazale da tendencija da se uklopimo u neku zajednicu utječe na prosudbu pojedinca. Prijatelji jednog korisnika su prijatelji drugog korisnika i oni međusobno utječu na preferencije jednih i drugih.
I treće, a možda i najvažnije, utjecaj tzv. farmi linkova i drugih nepoštenih praksi kao bi se utjecalo na rad algoritma. Postoje ljudi koje žele manipulirati informacijama i u tu svrhu se koriste različitim metodama, od lažnih računa, farmi botova i trolova, koji su preplavili društvene mreže ne bi li stvorili privid popularnosti neke teorije zavjere ili nekog političkog kandidata.
Facebook, Instagram, Twitter i YouTube bez pravog odgovora na manipulacije
Društvene mreže su tijekom pandemije Covida-19 znatno pooštrile svoje standarde zajednice i blokirale i ugasile više korisničkih računa nego ikad prije, ali čini se da to nije dovoljno.
Izvještaj o učinkovitosti platformi u borbi protiv dezinformacija
Studije pokazuju da bi se kroz usporavanje procesa dijeljenja informacija ovaj problem mogao znatno učinkovitije riješiti. Ograničavanje broja osoba s kojima se neka objava može podijeliti ili uvođenjem CAPTCHA testa prije nego se neka informacija podjeli, znatno bi se usporilo širenje informacija, a s manje informacija u svom news feedu, korisnici bi mogli više pažnje posvetiti onima koje dođu do njih.
Upravo je to ono na što je zviždačica iz Facebook upozorila – postoje učinkovitiji načini za borbu protiv dezinformacija, ali strah od gubitka profita priječi primjenu nekih novih rješenja.