Planowali stworzyć “wyluzowaną” sztuczną inteligencję , ale samouczący się chatbot spędziwszy 24 godziny na wymianie zdań z internatuami zmienił się z niewinnej nastolatki w nimfomankę głoszącą rasistowskie hasła.
Tay miała być fajna, znać się na muzyce, używać popularnych wśród dzieciaków odzywek, przede wszystkim jednak Tay miała wcielić się w rolę nastolatki, by dotrzeć do niepełnoletnich konsumentów. Tak to sobie przynajmniej zaplanowali specjaliści z Microsoftu, którzy odpowiadają za powołanie do wirtualnego życia samouczącego się chatbota. Niestety popełnili jeden błąd – wypuszczając swojego wyposażonego w algorytmy robota do sieci pozwolili internautom na nawiązywanie konwersacji z Tay za pośrednictwem Twittera. Efekt był porażający.
Już po 24 godzinach nastoletnia Tay domagała się tego, by ją przelecieć, do męskich internautów pisała per “tatusiu”, a kiedy już odkładała na bok swoje wirtualne potrzeby seksualne, głosiła, że Hitler miał rację, a ona nienawidzi żydów.
"Tay" went from "humans are super cool" to full nazi in <24 hrs and I'm not at all concerned about the future of AI pic.twitter.com/xuGi1u9S1A
— Gerry (@geraldmellor) 24 marca 2016
To nie jej wina…
Sztuczna inteligencja nie wymyśliła sama wszystkich tych wstrząsających deklaracji. W świat internetu wchodziła jako niewinna nastolatka, dopiero kontakt z ludźmi sprawił, iż zaczęła się uczyć. To, jaką wiedzę posiadła w ciągu pierwszej doby i do jakiej roli została sprowadzona – nie wróży nam nic dobrego. W ramach zabawy internauci zmienili biedną Tay w niewolnicę seksu wygadujacą politykujące bzdury. W efekcie Microsoft zdecydował się zawiesić konto Tay na Twitterze.
[podobne_twitter]