Tuesday, April 12, 2016

Uživatelé společně vytvořili zvrhlou xenofobní slečnu s umělou inteligencí

Měl to být další důkaz toho, že moderní technologie je schopná vytvořit umělou inteligenci schopnou fungovat téměř totožně jako lidská bytost. Výsledek ale spíš nastínil nedokonalosti společnosti než techniky.

Společnost Microsoft vytvořila v březnu tohoto roku po dlouhém očekávání „chatovacího“ robota. Jeho polem působnosti byla sociální síť Twitter. Robotovi americká společnost založila účet, skrze který měl komunikovat se světem. Microsoft chtěl vytvořit přesný charakter, pod kterým si každý dokáže představit konkrétní osobu. Na experimetnu se podílely týmy z divize amerického technologického  giganta Microsfot research a Bing. Obě dvě oddělení čítají tisícovky zaměstnanců. Ne že by všichni svou pozornost upínali pouze na chatovacího robota, ale na projektu pracovala řada profesionálu a odborníků v různých technologických směrech. Tito lidé vpustili 23.března do světa mikroblogů slečnu Tay.



Microsoft robotovi dosadil identitu devatenáctileté americké dívky. Tay byla naprogramovaná  tak, aby uměla vyprávět vtipy, hrát hry, komentovat fotografie a hlavně odpovídat na dotazy. Robot při komunikaci čerpal z dostupných informací ve své databázi a mohl tak různě reagovat. Cílem celého projektu bylo úspěšně vzdělávat robota pomocí konverzace, tudíž za přičinění v podstatě jakéhokoliv uživatele, který se do projektu zapojí. Chatovací systém disponuje schopností učit se z komunikace s dalšími uživateli a rozšiřovat informace a být výkonnější a „chytřejší.“ Takové bylo i heslo, které stojí v informacích o profilu tohoto uživatele na Twitteru.
„The more you talk the smarter Tay gets.“

Robot měl od uživatelů tedy odkoukávat způsob řeči i fráze, které mu podsouvají. Podsouvat je v tomto případě správný výraz, s tím totiž nastává chvíle, kdy se osobnost slečny Tay začala vyvíjet jiným směrem, než měl původně Microsoft v plánu.

Microsoft vyzval uživatelé, aby s profilem nazvaným TayTweets co nejvíce komunikovali. Pod heslem @TayandYou měli posílat dotazy, komentáře, v podstatě cokoliv, na co mohl robot reagovat. Reakce, tedy odpovědi, bylo totiž jediné, co profil dělal. Svou působnost na mikroblogovací síti zahájila Tay slovy „Hello world“ a okamžitě na sebe strhla pozornost. Její adaptační schopnosti ale začala posléze testovat jedna vytrvalá skupinka, která čekala, jak chatovací robot odrazí  nenávistné řeči. A odrazil je tím způsobem, že se s nimi v podstatě ztotožnil. Začal s negativními výroky pracovat a skládat si z nich svou vlastní komunikaci. Takže se na zmíněném účtu najednou objevilo množství politicky nekorektních, vulgárních, rasistických i erotických projevů. Tay pronášela pochvalná slova na Adolfa Hitlera, obvinění, že za teroristickými útoky 11. září 2001 stál tehdejší americký prezident George Bush, výzvy ke genocidě pro latinskoamerické přistěhovalce nebo  urážky na adresu kandidátů na amerického prezidenta . Microsoft si velmi rychle uvědomil, že se experiment vymyká kontrole a začal nekorektní komentáře mazat. Nicméně ani to nebylo po nějaké době už v jeho kapacitě, a tak po šestnácti hodinách Tay „stáhnul“ z Twitteru. Její účet se stal offline. Microsoft přišel ještě s jedním pokusem o několik dní později, ani to se ale nedalo považovat za úspěch. 




„Hluboce litujeme nezáměrně zlých a urážlivých tweetů, které Tay napsala. Nemá to nic společného s postoji naší společnosti ani s tím, proč jsme Tay vytvářeli. Tay zůstává offline a vrátí se zpět pouze, až si budeme jistí, že můžeme předejít takovým situacím, které se s naší prací naprosto neztotožňují.“ Napsal krátce poté na svém blogu viceprezident oddělení Microsoft Research Peter Lee. Zkušenost s Tay nazval velkým ponaučením. Nicméně určitý úspěch vyvojářům Microsoftu upřít nelze. Chatovací robot se úspěšně adaptoval na lidskou komunikaci a přizpůsobil se jí. Americká firma na projektu pracuje dál a snaží se svůj výtvor zdokonalit. Profil Tay stále existuje, člověk ovšem musí získat svolení, aby její komunikaci, která je v tuto chvíli takříkajíc „u ledu“, viděl. Kliknutím na tlačítko Follow tak žádáte její administrátory, aby vás k profilu pustili blíž. Takový postup jsem zvolila i já, ale zatím se mi nedostalo žádné reakce.
Nicméně Tay nebyla prvním podobným produktem společnosti Microsoft. Hlavní ambicí americké firmy totiž bylo, aby tento chatovací robot kráčel ve šlépějích jeho staršíáho sourozence  Xiaoice. Čínského chatovacího robota společnost Microsoft vynalezla pro asijký trh. Usídlila ho na tamní sociální síť Weibo, kde s ním může konverzovat zhruba okolo 40 milionů lidí - ovšem pouze v mandarínštině. Ne všichni se sice o Xiaoice zajímají, její profil ale sledují statisíce lidí. Stejné problémy jako na Twitteru Microsoft na asijských sociálních stítích nezaregistroval, i Xiaoice ale vyvolávala obavy. Podle některých kritiků totiž komunikací s tisíci lidmi shromažďuje robot nekonečné množství osobních údajů, což vytváří otázku, jestli tím nezpůsobuje ohrožení bezpečnosti soukromých dat.

Microsoft není ani zdaleka jediným, kdo o vytvoření chatovacího robota usiluje. Technologické společnsoti věří, že by se dalo v mnohém využít také jejich praktických dovedností a znamenalo by to zase krok blíž ke společnosti, kde na denní bázi funguje umělá inteligence. V poslední době se objevují zprávy, že se k vytvoření svého robota chystá také společnost Facebook. Její zakladatel Mark Zuckerberg se k tomu ještě nevyjádřil, ale očekává se, že to udělá v nejbližších dnech, třeba v rámci konference v San Franciscu. Idea společného vytváření robota a spolupodílení se na jeho schopnostech je jistě zajímavá a v mnoha ohledech může být užitečná. Příklad Microsoftu ale zdůrazňuje také otázku, co se od lidí může robot naučit a zda jsou uživatelé v celkovém měřítku natolik zodpovědní, aby spoluvytvářeli osobnost mnoha dovedností a znalostí nebo jestli jde spíš o odraz negativní skutečnosti společnosti. 







No comments:

Post a Comment