Monday, December 12, 2016

Ztěžuje prostředí sociálních sítí poklidné soužití liberálů a konzervativců ? Dopouštějí se sociální sítě selekce informací z druhého bloku politických táborů? To je téma, kterým se zabývá článek “Drží Vás Facebook ve vlastní politické bublině?” od Johna Bohannona, vydaný v časopisu Science, reflektující výzkum “in-house social scientists ” z roku 2015 .

Jev, o kterém je řeč, vědci nazývají také “filter bubble” a může způsobovat silně subjektivní pohled na svět zprostředkovaný sociální síti. Toto zkreslení nemusí být ale patrné pouze na Facebooku - například, použijete-li jednou vyhledávač google, ten zapamatuje si, co jste vyhledávali a jaké výsledky použili. V případě každého dalšího vyhledávání jsou již výsledky ovlivněny vyhledáváními předešlými - google je zobrazuje v závislosti na tom, co o vás už už ví. Zadá-li například horník či muzikant do vyhledávače “types of rock” zajisté dostane každý z nich značně odlišné výsledky. Lidem nakupujícím online se také častěji nabízí k nákupu zboží, které odpovídá jejich pravděpodobné cenové kategorii.

Výzkumný tým se zaměřil na problematiku politické polarizace na Facebooku, obzvláště na to, nakolik tuto polarizaci ovlivňují výběrové algoritmy samotné aplikace. Ačkoli se totiž rolování příspěvků na facebookové hlavní “zdi” může zdát jako živý tok statusů a fotografií našich přátel, jedná se o filtrovanou verzi všech příspěvků. Facebook pomocí algoritmů jednotlivé příspěvky oboduje a následně vyhodnotí ty nejzajímavější pro každého z nás.

Na první pohled by se mohlo zdát, že je tento výběr vázán hlavně na tlačítko “To se mi líbí” a počet kliknutí, tento algoritmus se však řídí spíše tvz, “relevančním skóre”.Toto skóre, které je například také vázáno na “lidský prvek” (který byl při předchozím šetření opomíjen), zásadně ovlivní složení každé Facebookové zdi. Například - přestože roztomilý virální příspěvěk o koťátkách vygeneruje ve výsledku velkou spoustu lajků, lidé jej často plně nerozkliknou a není mu tedy přiřazeno tak vysoké relevanční skóre. Díky těmto algoritmům však na zdi bohužel (bohudík?) přicházíme o více věcí než o roztomilé fotky koťátek. Například liberálové a konzervativci se díky těmto algoritmům jen vzácně dozvídají o záležitostech druhého názorového tábora jednoduše proto, že tyto příspěvky nebývají tak často zařazeny do jejich hlavního kanálu (zdi). Vědci se obávali, že by časem tento jev mohl způsobit téměř až politickou polarizaci, protože protistrany nejsou vystavovány tématům ani myšlenkám opačného tábora.

Pro účely samotné studie prý nebylo těžké zjistit, kdo z výzkumného vzorku lidí je liberál a kdo konzervativec - lidé svou politickou příslušnost mohou na Facebooku přímo deklarovat a obzvláště v případě Američanů se tak děje poměrně často. Vzorek byl vymezen na americké dospělé občany, kteří se k sociální síti připojí alespoň 4x týdně. Testovaných subjektů bylo tedy něco kolem 10 000 000. Tým poté mapoval různé politické organizace a na základě údajů v průzkumu stanovil politickou příslušnost uživatelů Facebooku pomocí pětibodové hodnotící škály - od -2 pro velmi konzervativní, přes 0 pro neutrální až po +2 jako velmi liberální.

U sdílených obsahů se poté vědci zaměřili na zpravodajské články. Určení politické příchutě tohoto obsahu bylo již trochu složitější. Místo pokusu snažit se změřit politický obsah samotných zpráv se nakonec vědci rozhodli pro metodu “politického příklonu” - každá zpráva byla ohodnocena podle vyrovnání všech uživatelů, kteří daný článek sdíleli. Například průměrná zpráva v New York Times vyšla na -0,62 (mírně liberální)  a průměrný příspěvek Fox News byl 0,78 (mírně konzervativní). Články byly vybrány přůřezově, a byly to takové, které pro liberálně smýšlejícího čtenáře působí konzervativně a naopak. Vyzbrojení těmito čísly poté porovnali obě skupiny článků - ty, které skončili na novinkové zdi a ty, které byly algoritmy odfiltrovány.

Tímto porovnáním vědci zjistili, že algoritmy opravdu vytváří jistý bublinový efekt, jeho síla je však daleko slabší, než se původně obávali. Algoritmus v jejich výzkumu dělal pouze o 1% méně pravděpodobnější, že budou uživatelé vystaveny článkům druhé strany názorového tábora. ,,S ohledem na obavy z filtrační bubliny jsou ty výsledky určitě dobré,” prohlásil Sinan Aral, politolog z Massachusetts Institute of Technology v Cambridge. ,,Přesto to neznamená, že bychom se filtrační bubliny neměli obávat”.Tým k těmto výsledkům dodává, že možnost vystavit sám sebe pohledu druhé strany spočívá především v jednotlivci, například i složením je facebookových přátel. I samotné algoritmy se dále stále vyvíjejí. Výzkum se také konal poměrně dlouhou dobu před americkými volbami, které byly z hlediska politické polarizace velice vyhrocené.

Autor článku je John Bohannon, který píše pro časopisy Science, Discovered a Wired magazine. Záběr jeho témat je velmi široký - od článků o civilních obětech v Afganistanu, kde byl spolu s jednotkami NATO v roce 2010 až po průzkumy, zda lidé dokáží rozeznat delikátní paštiku od psího krmení. Vlastní doktorát z molekulární biologie z Oxfordské university.


dostupné z: http://www.sciencemag.org/news/2015/05/facebook-keeping-you-political-bubble

1 comment:

  1. Do you need free Google+ Circles?
    Did you know that you can get these AUTOMATICALLY AND ABSOLUTELY FOR FREE by using Like 4 Like?

    ReplyDelete