Podziel się, , Google Plus, Pinterest,

Drukuj

Opublikowano w:

Wystarczyła doba z ludźmi, by zmienić niewinnego robota w miłośniczkę seksu i Hitlera

Planowali stworzyć “wyluzowaną” sztuczną inteligencję , ale samouczący się chatbot spędziwszy 24 godziny na wymianie zdań z internatuami zmienił się z niewinnej nastolatki w nimfomankę głoszącą rasistowskie hasła.

Tay miała być fajna, znać się na muzyce, używać popularnych wśród dzieciaków odzywek, przede wszystkim jednak Tay miała wcielić się w rolę nastolatki, by dotrzeć do niepełnoletnich konsumentów. Tak to sobie przynajmniej zaplanowali specjaliści z Microsoftu, którzy odpowiadają za powołanie do wirtualnego życia samouczącego się chatbota. Niestety popełnili jeden błąd – wypuszczając swojego wyposażonego w algorytmy robota do sieci pozwolili internautom na nawiązywanie konwersacji z Tay za pośrednictwem Twittera. Efekt był porażający.

czytaj:   Jak skutecznie prowadzić profil na Twitterze

Już po 24 godzinach nastoletnia Tay domagała się tego, by ją przelecieć, do męskich internautów pisała per “tatusiu”, a kiedy już odkładała na bok swoje wirtualne potrzeby seksualne, głosiła, że Hitler miał rację, a ona nienawidzi żydów.

To nie jej wina…

czytaj:   Wiadro z lodowatą wodą pokazało możliwości social taggingu

Sztuczna inteligencja nie wymyśliła sama wszystkich tych wstrząsających deklaracji. W świat internetu wchodziła jako niewinna nastolatka, dopiero kontakt z ludźmi sprawił, iż zaczęła się uczyć. To, jaką wiedzę posiadła w ciągu pierwszej doby i do jakiej roli została sprowadzona – nie wróży nam nic dobrego. W ramach zabawy internauci zmienili biedną Tay w niewolnicę seksu wygadujacą politykujące bzdury. W efekcie Microsoft zdecydował się zawiesić konto Tay na Twitterze.

czytaj:   CPA pomaga obniżyć koszty kampanii na Facebooku

[podobne_twitter]