Den před výsledkem prezidentských
voleb zveřejnili dva badatelé z institutu informačních studií jihokalifornské
univerzity v internetovém deníku First Monday svůj výzkum, který má veřejnost varovat před potenciálem manipulativních počítačových
programů. „Trollící“ boti, jak je lze
též nazvat, mohou snadno negativně ovlivnit demokratickou politickou diskusi.
Do jaké míry se jim to povedlo v případě poslední volby prezidenta Spojených
států?
O nových médiích se dlouhou dobu
hovořilo jako o nástroji podporujícím demokratickou diskusi. Především na
sociálních sítích se začala častěji otevírat politická témata. Internetová fóra
se tak stala místem určeným mimo jiné k politickým názorovým konfrontacím, které
pozitivně rozvíjí občanskou společnost. Nová média sehrála významnou roli během
Arabského jara, stejně tak jako při organizování demonstrací Occupy Wall Street.
Ovšem kromě pochvalných anotací se brzy nato objevily i názory, které vidí
hrozbu v jejich zneužití. V roce 2006 vyjádřil Philip Howard
znepokojení nad možností manipulovat veřejným názorem prostřednictvím
dezinformací, šířících se po sociálních sítích.
Jeho obavy byly bohužel brzy potvrzeny řadou studií. Ty mimo jiné
zjistily, že jedním z účinných způsobů manipulace je právě užití
„trollících botů“.
Na tyto studie se svým specificky
zaměřeným výzkumem navázali Alessandro Bessi, doktorand ekonomických a
sociálních věd university v Pavii, a jeho kalifornský profesor Emilio
Ferrara. Oba muži se již dlouhou dobu věnují problematice sociálních sítí,
zejména informační roztříštěnosti a účinkům dezinformací na veřejné mínění.
Ferrara byl v roce 2015 jmenován do funkce Big Data Influencer IBM Watson.
Letos získal dvě prestižní ocenění (DARPA Young Faculty Award a Complex System Society Junior Scientific Award).
Bessi pracuje na projektu IARPA (Intelligence Advanced Research Projects Agency)
zaměřeném na vývoj a testování nových automatických metod, kterými bude možné
dříve předvídat a detekovat kybernetické útoky. Mimoto hostuje jako pomocný
asistent na institutu informačních studií jihokalifornské univerzity.
Simulovaná umělá inteligence,
„trollící boti“, algoritmy, které se na sociálních sítích vydávají za živé
uživatele. To vše je synonymem pro aktuální vysoce problematický fenomén social
bots. Algoritmické účty, které napodobují aktivity uživatelů, není přitom těžké
založit. Návody k jejich vytvoření jsou volně dostupné na internetu.
Objevují se také v nabídce služeb některých firem. Boti se pak skrývají
v různých internetových službách (př. Amazon), kde je daleko těžší je
blokovat.
Jak to celé funguje? Algoritmus
najde na sociální síti (např. Facebooku, Skypu, Twitteru, Instagramu apod.)
určité slovní spojení a automaticky na ně odpoví, stejně tak jako na reakci
dalšího uživatele, který zareaguje na botův komentář.
A jakým způsobem program
odpovídá? Vyhledá si kupříkladu na Googlu specifické články přinášející
šokující informace, a ty pak přidává ve formě odkazů či úryvků do diskusí. Bot je oproti svému živému vzoru mnohonásobně
rychlejší a aktivnější.
Metodologie výzkumu
Autoři se zaměřili na Twitter.
Shromáždili data z předvolebního období, která zahrnovala i 3 prezidentské
debaty. Od 16. září do 21. října 2016 zaznamenali kolem 20 milionů tweetů od
2,8 milionů uživatelů. Odhadem 400 000 z nich lze považovat za „boty“
(nejméně 15% ze studované populace), jimž lze přičíst kolem 3,8 milionů tweetů
(19% konverzací). Vědci mj. zjišťovali, jak se v konverzacích odrazilo
zveřejnění nových šokujících událostí.
Samotný výzkum probíhal hned v několika
rovinách. Základem byl seznam hashtagů a klíčových slov, které se vztahovaly
k americkým prezidentským volbám. Autoři si zvolili 23 termínů, jejichž
užití evidovali – 4 pro demokratickou kandidátku (#hillaryclinton, #imwithher,
#nevertrump, #hillary), 5 pro republikánského kandidáta (#donaldtrump,
#trump2016, #neverhillary, #trumppence2016, #trump), 1 pro kandidáta liberálů
#garyjohnson), 2 pro kandidáta zelených (#jillstein, #jillnothill) a další termíny
vztahující se přímo k debatám.
Detekování botů – „fake foto“ a pravopisné chyby
Každý účet na sociálních sítích podrobila
dvojice Bessi – Ferrara velmi náročnému testu. K testování využili primárně program
BotOrNot, který dokáže z účtů extrahovat a analyzovat přes tisíc znaků, podle
nichž lze určit, zda se jedná o bota či nikoli. Program je založen na principu webové
stránky a Python API. Z analyzovaných dat vyplynuly některé signalizační znaky,
které by nás v daných situacích měly upozornit, že pravděpodobně
komunikujeme s botem. Jednoduše řečeno účet vypadá jako „fake“ (např.: fotografie
evidentně nezachycují uživatele, nebo jsou nahrazeny animovanými obrázky),
zásadně neupřesňuje polohu uživatele, zato produkuje nadměrné množství tweetů v krátké časové frekvenci apod.
Na základě této metody autoři dospěli k závěru, že se do internetových diskusí
zapojilo kolem 19 % botů.
K porozumění, jak boti a
lidé diskutují o prezidentských kandidátech, autoři spoléhali na pocitovou
analýzu, kterou provedli prostřednictvím algoritmu SentiStrength, jenž byl
vytvořen přímo pro tento účel. Jednak v tweetech detekoval zkratky, slangové
a nespisovné výrazy, dále pak zaznamenával znaky pozitivních a negativních
emocí, citově zabarvené výrazy, emotikony, pravopisné chyby apod.
Analýza se zaměřila hned na trojí
problematiku – jednak zaznamenávala prostorovou a časovou dynamiku produkce
informací a přijímání těchto informací lidmi a boty, přičemž se snažila
podtrhnout rozdíly mezi přirozenou a umělou podporou kandidátů. Dále šetřila,
jak se boti svou aktivitou a konfrontací s živými uživateli od živých
uživatelů liší. Posledně pátrala, jakým způsobem jsou boti na sociálních sítích
ukryti.
Zkoumané období vědci rozdělili
do 3 částí (viz Graf 1). V počáteční fázi,
od 16. do 24. září, na Twitteru nezaznamenali nijak zvlášť neobvyklou aktivitu,
což pravděpodobně souvisí s tím, že ve sledovaném čase neproběhla žádná
významná událost, jež by se voleb přímo týkala. Zato druhé období (26. září –
10. října) zachytilo hned tři prezidentské debaty, které byly značně vyhrocené.
Tomu odpovídají i výsledky výzkumu.
Diskuse nabraly dynamiku, přičemž se do nich zapojili jak lidé, tak boti.
Na rozdíl od předpokladu některých předchozích studií, stále převažoval počet
živých uživatelů, jejichž aktivita se pohybovala mezi 60 000 až
80 000 tweetů za hodinu. Algoritmické programy za stejnou dobu
vyprodukovaly něco přes 10 000 tweetů. Lidé se totiž daleko častěji
zapojují do diskusí nárazově po zveřejnění nějaké šokující události, převratné
informace apod. Naproti tomu příspěvky botů jsou produkovány nepřetržitě.
Jejich podstatou je časté opakování a prosazování své agendy.
Graf 1 - Denní rozpis vyprodukovaných tweetů ve sledovaném období. |
Badatelé se taktéž soustředili na
geografickou dimenzi konverzací (viz Graf 2 a 3). Na
horním obrázku je vidět, s jakou intenzitou boti produkovali své příspěvky
v jednotlivých státech. Jak je patrné, nejaktivněji působili ve
středozápadní a jižní části USA, zejména pak v Georgii. Graf živých
uživatelů (dolní obrázek) se od prvně zmíněného liší a ukazuje, že lidské konverzace
převažovaly v nejlidnatějších státech, jakými jsou Kalifornie, Texas,
Florida, Illinois, New York a Massachusetts.
Když zkoumali, jaký typ interakcí
se objevuje nejčastěji, přišli na to, že lidé ve většině případů odpovídají na
komentáře lidí, nikoli botů. Boti se je naopak snaží konfrontovat, ale obvykle
dostanou dříve zprávu od jiného bota. Tento závěr autory výzkumu překvapil.
Podle jejich tvrzení by se dal nejspíše vysvětlit nedostatečnou schopností botů
adekvátně argumentovat a rozvíjet podnětnou diskusi.
Graf 2 - Záznam aktivity botů v jednotlivých státech USA. |
Graf 3 - Záznam aktivity lidí v jednotlivých státech USA. |
K hlubšímu porozumění, jak
uživatelé nových médií diskutovali o kandidátech, nám pomohou výsledky pocitové
analýzy (viz Graf 4). Ty přinesly zjištění, že Trumpovi příznivci produkovali daleko větší
množství pozitivních tweetů než stoupenci Clintonové. Stejně tak podporovatelé
Trumpa nepřidávali téměř žádné negativní reakce na jeho osobu, což svědčí až o
slepé oddanosti. Při zkoumání Trumpovy podpory je zvláště zajímavé, jak boti,
kteří produkovali zprávy zastávající se tohoto kandidáta, často psali negativně
o oponentce. Oproti tomu programy podporující Clinton se ve větší míře zaměřili
na svou vlastní kandidátku. Ve skutečnosti se nejvíce negativních reakcí, jak
ze strany botů, tak lidí, sneslo na hlavu bývalé ministryně zahraničních věcí.
Graf 4 - Výsledky pocitové analýzy. |
Z výzkumu vyplynulo, že ač
byl Twitter dlouhou dobu považován za místo demokratické diskuse, hrozba
zneužití této platformy k manipulaci je stále přítomna. „Trollící boti“ se
do poslední prezidentské předvolební kampaně nepochybně zapojili, i když ne
v takovém rozsahu, jaký výzkum očekával. Jejich přítomnost
v politických diskusích může způsobit hned několik potíží. Jednak hrozí,
že se dezinformační zprávy začnou šířit ještě rychleji a zasáhnou mnohem více
uživatelů, jednak se může stát, že se politická konverzace daleko více
zpolarizuje.
Byť se badatelům podařilo
zjistit, které země byly v jaké míře algoritmy zasaženy, nepovedlo se jim
odhalit, kdo za boty stojí. Jak sami tvrdí, programy může ovládat téměř kdokoli
od vládních či nevládních organizací, přes soukromé organizace až po
jednotlivce.
Pokud bychom výsledky výzkumu vztáhli
na současnou situaci v České republice, nezbývalo by než konstatovat, že i
u nás je hrozba šíření dezinformačních zpráv prostřednictvím algoritmických
programů aktuálním problémem. Česká společnost je na sociálních sítích častokrát
konfrontována s boty produkujícími lživé informace, jež se točí kolem politických
témat, jakými jsou kupříkladu imigrační politika, rusko-ukrajinský konflikt,
EU, vztah Číně apod.
Zdroje:
Social bots distort the 2016 U.S. Presidential election online discussion by Alessandro Bessi and Emilio Ferrara. First Monday [online], ročník 21, č. 11, 7-11-2016 [cit. 2016-12-04]. Dostupné z: http://firstmonday.org/ojs/index.php/fm/article/view/7090/5653.
Obrázky:
Social bots distort the 2016 U.S. Presidential election online discussion by Alessandro Bessi and Emilio Ferrara. First Monday [online], ročník 21, č. 11, 7-11-2016 [cit. 2016-12-04]. Dostupné z: http://firstmonday.org/ojs/index.php/fm/article/view/7090/5653.
Zdroje:
Social bots distort the 2016 U.S. Presidential election online discussion by Alessandro Bessi and Emilio Ferrara. First Monday [online], ročník 21, č. 11, 7-11-2016 [cit. 2016-12-04]. Dostupné z: http://firstmonday.org/ojs/index.php/fm/article/view/7090/5653.
Obrázky:
Social bots distort the 2016 U.S. Presidential election online discussion by Alessandro Bessi and Emilio Ferrara. First Monday [online], ročník 21, č. 11, 7-11-2016 [cit. 2016-12-04]. Dostupné z: http://firstmonday.org/ojs/index.php/fm/article/view/7090/5653.
No comments:
Post a Comment