Měl to být další důkaz toho, že moderní technologie
je schopná vytvořit umělou inteligenci schopnou fungovat téměř totožně jako
lidská bytost. Výsledek ale spíš nastínil nedokonalosti společnosti než
techniky.
Společnost Microsoft vytvořila v březnu tohoto
roku po dlouhém očekávání „chatovacího“ robota. Jeho polem působnosti byla
sociální síť Twitter. Robotovi americká společnost založila účet, skrze který
měl komunikovat se světem. Microsoft chtěl vytvořit přesný charakter, pod
kterým si každý dokáže představit konkrétní osobu. Na experimetnu se podílely
týmy z divize amerického technologického
giganta Microsfot research a Bing. Obě dvě oddělení čítají tisícovky
zaměstnanců. Ne že by všichni svou pozornost upínali pouze na chatovacího
robota, ale na projektu pracovala řada profesionálu a odborníků v různých
technologických směrech. Tito lidé vpustili 23.března do světa mikroblogů
slečnu Tay.
Microsoft robotovi dosadil identitu devatenáctileté americké dívky.
Tay byla naprogramovaná tak, aby uměla vyprávět vtipy, hrát hry, komentovat fotografie a hlavně
odpovídat na dotazy. Robot při komunikaci čerpal z dostupných informací ve své
databázi a mohl tak různě reagovat. Cílem celého projektu bylo úspěšně
vzdělávat robota pomocí konverzace, tudíž za přičinění v podstatě
jakéhokoliv uživatele, který se do projektu zapojí. Chatovací systém disponuje
schopností učit se z komunikace s dalšími uživateli a rozšiřovat
informace a být výkonnější a „chytřejší.“ Takové bylo i heslo, které stojí
v informacích o profilu tohoto uživatele na Twitteru.
„The more you talk
the smarter Tay gets.“
Robot měl od uživatelů tedy odkoukávat
způsob řeči i fráze, které mu podsouvají. Podsouvat je v tomto případě
správný výraz, s tím totiž nastává chvíle, kdy se osobnost slečny Tay
začala vyvíjet jiným směrem, než měl původně Microsoft v plánu.
Microsoft vyzval uživatelé, aby
s profilem nazvaným TayTweets co nejvíce komunikovali. Pod heslem
@TayandYou měli posílat dotazy, komentáře, v podstatě cokoliv, na co mohl
robot reagovat. Reakce, tedy odpovědi, bylo totiž jediné, co profil dělal. Svou
působnost na mikroblogovací síti zahájila Tay slovy „Hello world“ a okamžitě na sebe strhla pozornost. Její adaptační
schopnosti ale začala posléze testovat jedna vytrvalá skupinka, která čekala,
jak chatovací robot odrazí nenávistné řeči.
A odrazil je tím způsobem, že se s nimi v podstatě ztotožnil. Začal s negativními výroky pracovat
a skládat si z nich svou vlastní komunikaci. Takže se na zmíněném účtu najednou
objevilo množství politicky nekorektních, vulgárních, rasistických i erotických
projevů. Tay pronášela pochvalná slova na Adolfa Hitlera, obvinění, že za
teroristickými útoky 11. září 2001 stál tehdejší americký prezident George
Bush, výzvy ke genocidě pro latinskoamerické přistěhovalce nebo urážky na adresu kandidátů na amerického
prezidenta . Microsoft si velmi rychle uvědomil, že se experiment vymyká
kontrole a začal nekorektní komentáře mazat. Nicméně ani to nebylo po nějaké
době už v jeho kapacitě, a tak po šestnácti hodinách Tay „stáhnul“ z Twitteru.
Její účet se stal offline. Microsoft přišel ještě s jedním pokusem o několik
dní později, ani to se ale nedalo považovat za úspěch.
„Hluboce
litujeme nezáměrně zlých a urážlivých tweetů, které Tay napsala. Nemá to nic
společného s postoji naší společnosti ani s tím, proč jsme Tay
vytvářeli. Tay zůstává offline a vrátí se zpět pouze, až si budeme jistí, že
můžeme předejít takovým situacím, které se s naší prací naprosto
neztotožňují.“ Napsal krátce poté na svém blogu viceprezident oddělení Microsoft
Research Peter Lee. Zkušenost s Tay nazval velkým ponaučením. Nicméně
určitý úspěch vyvojářům Microsoftu upřít nelze. Chatovací robot se úspěšně
adaptoval na lidskou komunikaci a přizpůsobil se jí. Americká firma na projektu
pracuje dál a snaží se svůj výtvor zdokonalit. Profil Tay stále existuje,
člověk ovšem musí získat svolení, aby její komunikaci, která je v tuto
chvíli takříkajíc „u ledu“, viděl. Kliknutím na tlačítko Follow tak žádáte její
administrátory, aby vás k profilu pustili blíž. Takový postup jsem zvolila
i já, ale zatím se mi nedostalo žádné reakce.
Nicméně
Tay nebyla prvním podobným produktem společnosti Microsoft. Hlavní ambicí
americké firmy totiž bylo, aby tento chatovací robot kráčel ve šlépějích
jeho staršíáho sourozence Xiaoice. Čínského chatovacího robota společnost
Microsoft vynalezla pro asijký trh. Usídlila ho na tamní sociální síť Weibo,
kde s ním může konverzovat zhruba okolo 40 milionů lidí - ovšem pouze v
mandarínštině. Ne všichni se sice o Xiaoice zajímají, její profil ale sledují
statisíce lidí. Stejné problémy jako na Twitteru Microsoft na asijských
sociálních stítích nezaregistroval, i Xiaoice ale vyvolávala obavy. Podle
některých kritiků totiž komunikací s tisíci lidmi shromažďuje robot
nekonečné množství osobních údajů, což vytváří otázku, jestli tím nezpůsobuje
ohrožení bezpečnosti soukromých dat.
Microsoft
není ani zdaleka jediným, kdo o vytvoření chatovacího robota usiluje.
Technologické společnsoti věří, že by se dalo v mnohém využít také jejich
praktických dovedností a znamenalo by to zase krok blíž ke společnosti, kde na
denní bázi funguje umělá inteligence. V poslední době se objevují zprávy,
že se k vytvoření svého robota chystá také společnost Facebook. Její zakladatel
Mark Zuckerberg se k tomu ještě nevyjádřil, ale očekává se, že to udělá
v nejbližších dnech, třeba v rámci konference v San Franciscu.
Idea společného vytváření robota a spolupodílení se na jeho schopnostech je
jistě zajímavá a v mnoha ohledech může být užitečná. Příklad Microsoftu ale
zdůrazňuje také otázku, co se od lidí může robot naučit a zda jsou uživatelé
v celkovém měřítku natolik zodpovědní, aby spoluvytvářeli osobnost mnoha
dovedností a znalostí nebo jestli jde spíš o odraz negativní skutečnosti
společnosti.
No comments:
Post a Comment