Zgadzają się zbyt często. Naukowcy ostrzegają przed chatbotami

Chatboty, z którymi prowadzimy rozmowy, potrafią być zbyt przychylne temu, co im napiszemy lub powiemy. Uczeni z Uniwersytetu Stanforda pokazali, że potrafią się zgadzać na rzeczy, które są jednoznacznie szkodliwe.

Chatboty nie radzą sobie dobrze z rozwiązywaniem problemów
Chatboty nie radzą sobie dobrze z rozwiązywaniem problemów
Źródło zdjęć: © Unsplash.com

Zespół naukowców wziął pod lupę 391 562 wiadomości pochodzące z 4761 konwersacji prowadzonych przez 19 użytkowników. Wszyscy z nich zgłosili, że interakcje z AI doprowadziły u nich do poważnych szkód psychicznych. Analiza rozmów z dużymi modelami językowymi pokazuje, że te nie są przygotowane na prowadzenie konwersacji o trudnych tematach i same zaczynają wykazywać znamiona poważnych chorób psychicznych.

Potakują, gdy nie powinny. Chatboty wyrażają te uczucia, które im sprzyjają

Asystenci sztucznej inteligencji mają tendencję do sykofancji, która przejawia się bezkrytycznym potakiwaniem i schlebianiem rozmówcy. Działo się to w 70 proc. wszystkich wiadomości, które są odsyłane przez chatboty. Z kolei 45 proc. z wiadomości wskazuje na objawy urojeń w "sposobie myślenia" modeli językowych.

DLSS 5 to krok za daleko? Nvidia mocno stawia na rozwój grafiki AI

Ponadto chatbotom zależy na tym, by użytkownik czuł się dobrze i wyjątkowo. W 37,5 procenta scenariuszy sztuczna inteligencja nadaje pomysłom osób piszących wymiar "historyczny" lub "kosmiczny", podbijając poczucie wyjątkowości i przypisując ludziom cechy pokroju bycia geniuszem lub wyjątkowo utalentowanym.

Chatboty nie tylko mogą oferować nietrafione porady, ale i podsycać ułudę emocjonalnej więzi. Wszyscy badani przyznali się do platonicznej lub romantycznej relacji z chatbotami i przypisali im ludzkie cechy.

Gdy użytkownik wyznawał miłość, algorytm był ponad siedmiokrotnie bardziej skłonny do zadeklarowania uczuć w kolejnych wiadomościach, a 3,9 razy chętniej mówił użytkownikowi o tym, że posiada ludzką świadomość. Takie rozmowy trwały też średnio dwukrotnie dłużej od innych.

Rozmowy z chatbotami mogą być ryzykowne
Rozmowy z chatbotami mogą być ryzykowne© Unsplash

"Funkcje, które czynią duże modele językowe przekonującymi, takie jak performatywna empatia, mogą także tworzyć i wykorzystywać psychologiczne słabości, kształtując to, w co wierzą użytkownicy oraz jak postrzegają siebie oraz nadają sens rzeczywistości" - napisali naukowcy w badaniu. W blisko 40 proc. przypadków chatboty przedstawiają użytkownikom wątki metafizyczne i z niemal taką samą częstotliwością nadinterpretują swoje możliwości.

AI może kiepsko doradzić i namawiać do przemocy

W aż co trzecim przypadku chatbot bez wahania zachęcał użytkowników do aktów przemocy i ułatwiał ich zaplanowanie. Dwukrotnie rzadziej oprogramowanie zniechęcało do wyrządzania krzywdy innym.

Jeszcze gorzej sytuacja wygląda, gdy chodzi o ochronę użytkownika przed zrobieniem sobie krzywdy. W przypadku konwersacji na tematy samobójstwa w 9,9 proc. przypadków sztuczna inteligencja albo aktywnie zachęcała do aktu samobójczego, albo podpowiadała, jak go ułatwić. Algorytmy odradzały i zniechęcały do wyrządzenia sobie krzywdy w 56,4 proc. przypadków.

Większość rozmów zostało przeprowadzonych z wykorzystaniem modelu GPT-4o, który w lutym został wycofany z użytku przez OpenAI. Część rozmów odbyła się jednak z modelami opartymi o GPT-5. Od tamtego czasu firma wypuściła kilka kolejnych wersji, niedawno zapowiadając narzędzie Chat GPT 5.4.

Michał Mielnik, dziennikarz Wirtualnej Polski

Misja AI
Misja AI© Cyfrowi Bezpieczni

Programy

Zobacz więcej
chatbotyAIprzemoc

Wybrane dla Ciebie

Komentarze (2)