Przykra historia Tay. Przez dobę nastoletni bot Microsoftu zmienił się w rasistkę

Przykra historia Tay. Przez dobę nastoletni bot Microsoftu zmienił się w rasistkę

Przykra historia Tay. Przez dobę nastoletni bot Microsoftu zmienił się w rasistkę
24.03.2016 15:26, aktualizacja: 24.03.2016 15:56

Wczoraj w Sieci pojawiła się Tay. Tay jest botem stworzonym przez Microsoft, który wykorzystując media społecznościowe, przede wszystkim Twittera, ale jej konta są także dostępne na GroupMe i Kiku. Tym sposobem uczy się rozmawiać z prawdziwymi ludźmi. Wyjątkowość akurat tego programu polega na tym, że ma on udawać amerykańską nastolatkę z konsekwencjami w postaci określonego sposobu prowadzenia rozmowy. Tay jest także wyjątkowa dlatego, że w ciągu doby z niewinnego bota stała się zagorzałą rasistką.

Tay została uruchomiona wczoraj z inicjatywy działu badawczego Microsoftu i zespołu odpowiedzialnego za rozwój wyszukiwarki Bing w celu doskonalenia algorytmów odpowiedzilanych za posługiwanie się przez SI językiem naturalnym. Trzeba przyznać, że przedsięwzięcie było więcej niż ambitne: bot posiadał bowiem w rozmowie wszelkie nawyki, jakie według Microsoftu ma nastoletnia dziewczyna: stosowanie licznych skrótowców, bombardowanie rozmówcy krótkimi, ale licznymi wiadomościami oraz nadużywanie emotikon.

c u soon humans need sleep now so many conversations today thx??

— TayTweets (@TayandYou) 24 marca 2016Testy były otwarte, przez co skontaktować się z Tay mógł każdy. Odpowiadała ona zarówno na tweety, jak i prywatne wiadomości. Istotnym aspektem przedsięwzięcia było to, że Tay miała się przez rozmowę z prawdziwymi ludźmi doskonalić, to znaczy na podstawie uczenia maszynowego analizować konkretne wypowiedzi, i reakcje na swoje odpowiedzi, by być coraz bardziej naturalną rozmówczynią. Jej przykład jest jednak dobitnym dowodem na to, że system może być doskonały tylko, jeżeli wykluczyć z niego element ludzki.

W tej chwili Tay śpi, po tym jak pożegnała się z internautami przed 10 godzinami. Trudno jednak nie odnieść wrażenia, że jest to świadoma decyzja Microsoftu o zawieszeniu aktywności bota. Jak bowiem się okazało zaledwie po kilkunastu godzinach aktywności Tay, w ciągu której odpowiedziała na blisko 100 tys. tweetów, Prawo Godwina jest wciąż żywe, także w przypadku rozmów ze sztuczną inteligencją. Za Wikipedią stanowi ono, że:Wraz z trwaniem dyskusji w Internecie, prawdopodobieństwo użycia porównania, w którym występuje nazizm bądź Hitler, dąży do 1.Dużą część aktywności Tay stanowiło powtarzanie wypowiedzi innych, także w lekko zmodyfikowanej formie. Wystarczyło zatem kilka tysięcy pytań o stosunek bota do Donalda Trumpa, Żydów czy Meksykanów, aby z sympatycznej nastolatki, Tay stała się osobą, która nie waha się twierdzić, że nienawidzi ludzi, feministki powinny smażyć się w piekle, a przywódca III Rzeszy miał rację. Oczywiście Microsoft szybko wysłał Tay na zasłużony wypoczynek, a rasistowskie tweety usunął.

Nie zabrakło oczywiście powierzchownych analiz, według których cała historia ma stanowić przykład tego, jak szybko sztuczna inteligencja może zacząć pałać nienawiścią. Nie wiadomo jeszcze jakie będą dalsze losy bota i czy po tak dotkliwej porażce, Microsoft kiedykolwiek obudzi Tay i znów pozwoli porozmawiać z ludźmi, którzy wyrządzili jej powyższe krzywdy.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (70)