Iznenađenje: Facebook kaže da je Facebook u redu za vijesti!

Studija je objavljena prošlog tjedna u časopisu Znanost što pokazuje da algoritam Facebooka nije uzrok hipotetskog "filtrira" - gdje ljudi vide samo vijesti koje se podudaraju s njihovim političkim sklonostima na društvenoj mreži.

Jedini problem? To je Facebook studija koju su proveli ljudi koji su zaposleni na Facebooku.

Trebamo li se zaista toliko čuditi da Facebook istraživači minimaliziraju utjecaj manipulacija svoje vijesti vijestima ljudi?

Studija, Izloženost ideološki raznolikim vijestima i mišljenjima na Facebooku, Eytan Bakshy i kolege na Facebooku objavljeni su prošlog tjedna u Znanost, Kako bi se ova studija mogla objaviti u prestižnom časopisu Znanost? 1 Ne bi li recenzija trebala obuhvatiti samoposlužne studije koje su objavile tvrtke koje samo pokazuju ono što tvrtka želi da podaci pokazuju?

Treba se zapitati kako su recenzenti prošli ovu studiju kako je objavljena. Mnoge kritike studije već su objavljene, pa ću samo izvršiti kratki pregled problema koje su drugi naveli. Ova kritika Christiana Sandviga u velikoj mjeri sumira problem s načinom na koji su istraživači Facebooka okrenuli vlastita otkrića u objavljenoj studiji:

Na temu usporedbe, studija nastavlja da kaže:

"Definitivno utvrđujemo da ... pojedinačni odabir više od algoritma ograničava izloženost sadržaju izazovnom stavu."

"U usporedbi s algoritamskim rangiranjem, odabir pojedinaca o tome što će konzumirati imao je snažniji učinak"

Zvone mi alarmi. Duhanska industrija možda je nekoć financirala studiju koja kaže da je pušenje manje opasno od vađenja ugljena, ali ovdje imamo studiju o pušenju rudara ugljena. Vjerojatno dok su u rudniku ugljena.

Ono što želim reći jest da ne postoji scenarij u kojem se mogu mijenjati „odabiri korisnika“ nasuprot „algoritmu“, jer se događaju zajedno […]. Korisnici biraju između onoga što im je algoritam već filtrirao. To je slijed.

Mislim da je ispravna izjava o ove dvije stvari da su obje loše - oboje povećavaju polarizaciju i selektivnost. Kao što sam gore rekao, čini se da algoritam skromno povećava selektivnost korisnika.

Doista, pomislili biste da bi istraživači Facebooka koji, znate, rade na Facebooku, razumjeli da ne možete zafrkavati i odvajati algoritam od ponašanja korisnika, jer jedan ovisi o drugom. Bez manipuliranja algoritmom (za što je Facebook istraživanje Adam Kramer otkrio da nije dobro raditi bez prethodnog pribavljanja informiranog pristanka korisnika), zapravo ne možete reći zašto korisnici klikću na jednu stvar više nego na nešto drugo.

Ali ovaj pregled Facebook studije Zeynep Tufekci, profesorice sa Sveučilišta Sjeverne Karoline, Chapel Hill napisao je da su ono što su podaci studije zaista pronađeni pokopani u dodatku studije:

Što je viša veza, više (puno više) vjerojatno će se na nju kliknuti. Živite i umirete smještajem, određenim algoritmom za unos vijesti. (Učinak je, kako ispravno primjećuje Sean J. Taylor, kombinacija smještaja i činjenice da algoritam pogađa što biste željeli).

To je već bilo poznato, uglavnom, ali sjajno je što su to potvrdili Facebook istraživači (autori studije su samo zaposlenici Facebooka). [...]

Jedno novo otkriće je da algoritam feedova vijesti (skromno) potiskuje raznolike sadržaje, a drugo presudno i ujedno novo otkriće je da smještaj u feedu (jako) utječe na stopu klikanja.

Facebook vam prikazuje vijesti koje ćete vjerojatnije pročitati (jer se slažu s vašim političkim stajalištem) i da je što je veća u vašem feedu vijesti, veća je vjerojatnost da ćete kliknuti na nju.

Drugim riječima, Facebook-ova manipulacija vašim feedom vijesti i dalje je važan faktor koji određuje što ćete vjerojatno kliknuti. I nastavljaju manipulirati tim feedom kako bi vam prikazivali politički usklađene vijesti više nego da u njihovom algoritmu uopće nema pristranosti.

I, kao što Tufekci važno napominje, ovo je bila mala, odabrana grupa korisnika Facebooka, samo zato što je istraživačima Facebooka bilo prikladnije (i jeftinije) proučavati ih. Gledali su samo korisnike koji su sami prepoznali svoju političku pripadnost na Facebooku i redovito se prijavljuju na uslugu (oko 4 posto ukupnih korisnika Facebooka [samo 9 posto korisnika izjavljuje svoju političku pripadnost na Facebooku, što znači da ovo nije uzorak koji možete generalizirati bilo što od]). Ne govori ništa o korisnicima Facebooka koji se ne izjašnjavaju o svojoj političkoj pripadnosti na Facebooku - što je većina nas.

Je li Facebook mogao provesti robusniju studiju? Svakako, ali bile bi potrebne više tradicionalnih istraživačkih tehnika, poput zapošljavanja u ankete na web mjestu u kombinaciji s randomiziranim zapošljavanjem e-pošte izvan mjesta.

Dakle, evo nefiltriranog, nepristranog nalaza iz podataka (ljubaznošću Tufekcija) koje su se istraživači Facebooka naizgled okrenuli kako bi rekli da ono što vidite u njihovom feedu vijesti nije njihova krivnja:

Istraživači Facebooka definitivno pokazuju da Facebookov algoritam za feedove vijesti smanjuje ideološki raznolik, presječni sadržaj koji ljudi vide sa svojih društvenih mreža na Facebooku za mjerljiv iznos. Istraživači izvještavaju da Facebook-ov algoritam suzbija izloženost različitim sadržajima za 8% za samoidentificirane liberale i za 5% za samoidentificirane konzervativce.

Ili, kako kaže Christian Sandvig, „algoritam filtrira 1 od 20 presječnih vijesti o tvrdim vijestima koje samoidentificirani konzervativac vidi (ili 5%) i 1 od 13 presječnih vijesti o teškim vijestima da je samoidentificirani liberal vidi (8%). " Vidite manje vijesti s kojima se ne biste složili, a dijele ih vaši prijatelji, jer vam ih algoritam ne prikazuje.

Nažalost, izvan New York Times i nekoliko odabranih medija, većina web stranica s glavnim vijestima upravo je izvijestila o onome što su istraživači Facebooka tvrdili u svojoj studiji, bez sumnje.

Ali sada znate istinu - Facebook je proučio mali, nereprezentativni uzorak, a zatim je umanjio ono što su njihovi podaci zapravo pokazali kako bi naglasio rezultat koji je pozitivniji prema tvrtki. Za mene je ovo još jedan primjer da istraživači Facebooka zapravo ne razumiju poantu znanstvenog istraživanja - dijeliti znanje sa svijetom koji nije pristran i kojim se ne manipulira.

Za daljnje čitanje ...

Zeynep Tufekci: Kako Facebook algoritam suzbija raznolikost sadržaja (skromno) i kako Newsfeed upravlja vašim klikovima

Christian Sandvig: Facebook studija "Nismo mi krivi"

NY Times: Facebook koristi polarizaciju? Web mjesto se razlikuje

fusnote:

  1. Nažalost, sada moram dodati još jedan časopis na svoj popis cijenjenih znanstvenih publikacija koje trebaju daljnji nadzor. Kao što znaju dugogodišnji čitatelji Svijeta psihologije, taj se popis svake godine sve više povećava: pedijatrija (Pedijatrija objavljuje studije o tehnologiji koje očito ne pregledava nitko tko je upoznat s uzročnim vezama osnovnih istraživanja.), Kiberpsihologija, ponašanje i društvene mreže (Cyberpsychology očito objavljuje bilo koju studiju o ovisnosti o Internetu ili društvenim mrežama, bez obzira na njihovu kvalitetu.) I sada, Znanost. [↩]

!-- GDPR -->