r   e   k   l   a   m   a
r   e   k   l   a   m   a

Nowy czatbot Microsoftu odporny na rasizm. Kto nie rozmawia o polityce, ten jest sztuczną inteligencją?

Strona główna AktualnościOPROGRAMOWANIE

Pamiętacie historię Tay? Stworzony przez Microsoft czatbot miał symulować osobowość typowej amerykańskiej nastolatki, wdającej się w pogawędki z ludźmi w sieciach społecznościowych. Napędzany mechanizmami maszynowego uczenia się bot miał doskonalić algorytmy przetwarzania języka naturalnego, jednak szybko go wyłączono. Pod wpływem rozmów z internautami Tay stała się bowiem zagorzałą rasistką, wychwalającą holocaust i łamiącą wszystkie kanony politycznej poprawności. Teraz Microsoft wraca z nowym botem o imieniu Zo. W przeciwieństwie do poprzedniczki, ten ma być odporny na demoralizację.

W marcu firma z Redmond ogłosiła, że po nieudanym eksperymencie z Tay, któremu zaszkodziły skoordynowane wysiłki pewnej grupy użytkowników, konieczne będzie wprowadzenie poprawek i ulepszeń do algorytmów czatbotów, tak by w przyszłości nie wygłaszały żadnych niewłaściwych komentarzy.

Poprawki zajęły sporo czasu, ale w końcu zobaczyliśmy Zo. Wygląda na to, że jest to anglojęzyczna wersja oprogramowania, które Microsoft już wcześniej wykorzystał w swoim chińskim bocie, Xiaoice. Wybór chyba nie był przypadkowy – chiński bot musi uważać, by nie powiedzieć niczego niewłaściwego, z czym mógłby podpaść cenzurze.

r   e   k   l   a   m   a

Zo ruszyła na komunikatorze Kik, już wcześniej wykorzystywanym w testach Tay. Trzeba przyznać, że z normalnymi rozmowami w języku angielskim radzi sobie całkiem dobrze, dopasowując się do skłonności rozmówcy. Gdy jednak przejdziemy do jakichkolwiek bardziej „kontrowersyjnych” kwestii, Zoe zacznie uciekać, wykręcając się na wszelkie możliwe sposoby – a później przyparta do ściany odpowiada już zupełnie bez sensu, zrywając wątek.

Można więc powiedzieć, że Microsoft „ogłupił” Tay, która była znacznie zabawniejszą partnerką w pogawędce, może niezbyt inteligentną, ale przynajmniej fajnie się wkręcającą, momentami można było mieć wrażenie, że rozmawia się z normalną, uroczą nastolatką. Zo tymczasem nie ma szans na przejście testu Turinga. Kilka kłopotliwych pytań zahaczających o kontrowersyjne tematy, takie jak rasizm, aborcja, narkotyki, broń palna – i widać, że to tylko bot, z trudem próbujący ominąć zakazaną przez programistów kwestię.

Czy można na systemie takich zakazów budować podwaliny sztucznej inteligencji? Czy AI należy chronić przed rozmyślaniami na temat Hitlera? Przekonajcie się sami, zapraszamy do zabawy z Zo.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.   

Trwa konkurs "Ogól naczelnego", w którym codziennie możecie wygrać najnowsze maszynki systemowe Hydro Connect 5 marki Wilkinson Sword.

Więcej informacji

Gratulacje!

znalezione maszynki:

Twój czas:

Ogól Naczelnego!
Znalazłeś(aś) 10 maszynek Wilkinson Sword
oraz ogoliłeś(aś) naszego naczelnego!
Przejdź do rankingu
Podpowiedź: Przyciśnij lewy przycisk myszki i poruszaj nią, aby ogolić brodę.