Nowy czatbot Microsoftu odporny na rasizm. Kto nie rozmawia o polityce, ten jest sztuczną inteligencją?

Pamiętacie historięTay? Stworzony przez Microsoft czatbot miał symulować osobowośćtypowej amerykańskiej nastolatki, wdającej się w pogawędki zludźmi w sieciach społecznościowych. Napędzany mechanizmamimaszynowego uczenia się bot miał doskonalić algorytmyprzetwarzania języka naturalnego, jednak szybko go wyłączono. Podwpływem rozmów z internautami Tay stała się bowiem zagorzałąrasistką, wychwalającą holocaust i łamiącą wszystkie kanonypolitycznej poprawności. Teraz Microsoft wraca z nowym botem oimieniu Zo. W przeciwieństwie do poprzedniczki, ten ma być odpornyna demoralizację.

Obraz

W marcu firma z Redmond ogłosiła, że po nieudanym eksperymenciez Tay, któremu zaszkodziły skoordynowane wysiłki pewnej grupyużytkowników, konieczne będzie wprowadzenie poprawek i ulepszeńdo algorytmów czatbotów, tak by w przyszłości nie wygłaszałyżadnych niewłaściwych komentarzy.

Poprawki zajęły sporo czasu, ale w końcu zobaczyliśmy Zo.Wygląda na to, że jest to anglojęzyczna wersja oprogramowania,które Microsoft już wcześniej wykorzystał w swoim chińskimbocie, Xiaoice. Wybór chyba nie był przypadkowy – chiński botmusi uważać, by nie powiedzieć niczego niewłaściwego, z czymmógłby podpaść cenzurze.

Obraz

Zo ruszyła na komunikatorze Kik,już wcześniej wykorzystywanym w testach Tay. Trzeba przyznać, żez normalnymi rozmowami w języku angielskim radzi sobie całkiemdobrze, dopasowując się do skłonności rozmówcy. Gdy jednakprzejdziemy do jakichkolwiek bardziej „kontrowersyjnych” kwestii,Zoe zacznie uciekać, wykręcając się na wszelkie możliwe sposoby– a później przyparta do ściany odpowiada już zupełnie bezsensu, zrywając wątek.

Obraz

Można więc powiedzieć, że Microsoft „ogłupił” Tay, którabyła znacznie zabawniejszą partnerką w pogawędce, może niezbytinteligentną, ale przynajmniej fajnie się wkręcającą, momentamimożna było mieć wrażenie, że rozmawia się z normalną, urocząnastolatką. Zo tymczasem nie ma szans na przejście testu Turinga.Kilka kłopotliwych pytań zahaczających o kontrowersyjne tematy,takie jak rasizm, aborcja, narkotyki, broń palna – i widać, żeto tylko bot, z trudem próbujący ominąć zakazaną przezprogramistów kwestię.

Czy można na systemie takich zakazów budować podwalinysztucznej inteligencji? Czy AI należy chronić przed rozmyślaniamina temat Hitlera? Przekonajcie się sami, zapraszamy do zabawyz Zo.

Źródło artykułu: www.dobreprogramy.pl
Wybrane dla Ciebie
Problemy po aktualizacji Windows 11. Co powoduje KB5083769?
Problemy po aktualizacji Windows 11. Co powoduje KB5083769?
mBank ostrzega przed majówką. Podał terminy przelewów
mBank ostrzega przed majówką. Podał terminy przelewów
Ważne zmiany na Facebooku. Dotyczą prywatności
Ważne zmiany na Facebooku. Dotyczą prywatności
Santander wydał komunikat. "Wracamy jako Erste Bank Polska"
Santander wydał komunikat. "Wracamy jako Erste Bank Polska"
Khaby Lame i awatar AI. Miał być wielki deal, jest rozczarowanie
Khaby Lame i awatar AI. Miał być wielki deal, jest rozczarowanie
Bruksela wykłada 63 mln euro na "cyfrową rewolucję". Kto zyska?
Bruksela wykłada 63 mln euro na "cyfrową rewolucję". Kto zyska?
Zmiany w Windows 11. Ważna deklaracja Microsoftu
Zmiany w Windows 11. Ważna deklaracja Microsoftu
Awaryjna aktualizacja .NET - odpowiedź na groźną lukę
Awaryjna aktualizacja .NET - odpowiedź na groźną lukę
Nowość w mObywatelu. Pobierz aktualizację
Nowość w mObywatelu. Pobierz aktualizację
WhatsApp testuje nowość. "Zajrzy" do wszystkich rozmów
WhatsApp testuje nowość. "Zajrzy" do wszystkich rozmów
Potężne narzędzie. ChatGPT wygeneruje jeszcze lepsze grafiki
Potężne narzędzie. ChatGPT wygeneruje jeszcze lepsze grafiki
Wiadomości od "kuriera DPD" i fałszywa prośba o dopłatę
Wiadomości od "kuriera DPD" i fałszywa prośba o dopłatę
ZATRZYMAJ SIĘ NA CHWILĘ… TE ARTYKUŁY WARTO PRZECZYTAĆ 👀