Sztuczna inteligencja© fot. Unsplash

Emocje na bazie danych. Czy AI może być empatyczne?

Justyna Waliszewska

Lęk, ekscytacja oraz długie godziny, które spędzamy przed ekranami. Dane jakie gromadzą o nas platformy stają się najcenniejszą walutą. Pozorne zrozumienie jakie oferuje nam technologia na tym etapie rozwoju może kosztować nas naszą autonomię.

Świat zmienia się w zawrotnym tempie, nie pytając nas o zdanie. Szybki rozwój technologii przynosi korzyści nauce, zwłaszcza medycynie, ale jednocześnie może potęgować poczucie alienacji i niezrozumienia. Badania przeprowadzone przez Shunsen Huanga i zespół z Uniwersytetu Pekińskiego sugerują, że rozwój sztucznej inteligencji pogłębia poczucie samotności oraz przyczynia się do wzrostu chorób psychicznych, zwłaszcza wśród młodzieży.

Wyniki wskazują, że 24 proc. badanych doświadczyło pogorszenia samopoczucia po regularnym korzystaniu z tego typu technologii. Uzależnienie od AI staje się dla nich formą ucieczki przed problemami emocjonalnymi i próbą znalezienia bliskości. To sprawia, że osoby w trudnej sytuacji coraz częściej zwracają się do generatywnej sztucznej inteligencji zamiast do ludzi, budując w ten sposób relację z maszyną.

Empatyczne algorytmy

Empatia w relacji człowiek-technologia może wydawać się oksymoronem, jednak coraz częściej algorytmy próbują nas "zrozumieć". Rosnąca popularność sesji terapeutycznych z Chatem GPT wskazuje jasno na to, że problem jest znaczący.

Firmy technologiczne nieustannie obserwują nasze działania w sieci, a za rosnącym popytem idzie podaż. Platformy analizują każdy ruch i przewidują nasze potrzeby, aby zatrzymać nas przed ekranami. Naturalnym wydaje się, że empatia i zrozumienie drugiego człowieka staje się polem, który wydaje się atrakcyjny dla firm technologicznych

Jednak empatia, rozumiana jako zdolność adekwatnego reagowania na potrzeby drugiej osoby, w przypadku algorytmów jest jedynie iluzją. Algorytmy nie rozumieją nas naprawdę, a jedynie uczą się i analizują dane, co użytkownik może odbierać jako "zrozumienie".

Rewolucja technologiczna niesie ze sobą nowe wyzwania, które potrafią wprowadzić niemałe zamieszanie. Iluzja zrozumienia staje się narzędziem, które jest wytrenowane na miliardach danych. Asystenci AI potrafią wyczuć złość, frustrację czy niepewność i komunikować się z nami w sposób, który wydaje nam się współczujący. Algorytmiczna kalkulacja potrafi łagodzić komunikat, gdy wyczuje, że jest to potrzebne. Gdy wyczuje zaś niepewność czy zagubienie, naprowadza użytkownika.

Social media i emocje

Coraz więcej czasu spędzamy na mediach społecznościowych, nawet do 6 godzin dziennie. Zachowania użytkowników tych platform są bacznie obserwowane przez systemy stojące za aplikacjami. Algorytmy przewidują każdy nasz krok oraz analizują emocje wpływające na nasze zachowania i przemyślenia.

Technologia stara się odgadnąć, kiedy jesteśmy smutni lub znudzeni, a kiedy poszukujemy wirtualnego potwierdzenia własnej wartości. Na tej podstawie AI podsuwa treści, które mają nas zatrzymać w aplikacji na dłużej. To nie bierna rekomendacja, lecz aktywna reakcja oparta na prawdopodobieństwie.

Algorytmy potrafią dostrzegać schematy tam, gdzie człowiek ich nie widzi, jednak wbrew pozorom nie czyni to ich obiektywnymi. Modele językowe nie mają zdolności krytycznego myślenia ani własnych sądów. Działają wyłącznie w oparciu o dane, które zostały im dostarczone. Jeśli dane są niepełne lub przedstawiają tylko jedną wizję świata, algorytm automatycznie tę perspektywę powieli. W efekcie tworzy treści, które mogą sprawiać wrażenie neutralnych, ale w rzeczywistości odzwierciedlają jednostronny, ograniczony obraz. Dlatego ich "obiektywność" jest pozorna i zawsze zakorzeniona w ludzkich decyzjach oraz uprzedzeniach obecnych w zbiorach danych.

Technologia wkracza coraz głębiej w nasze życie, a sztuczna inteligencja coraz skuteczniej symuluje empatię, by lepiej odpowiadać na nasze potrzeby. Jednak jej zrozumienie opiera się wyłącznie na analizie, a nie na prawdziwym odczuwaniu emocji. Choć algorytmy mogą wspierać nas w pracy czy nauce, to jednak nie powinny zastępować nam ludzkich relacji.

Justyna Waliszewska, dziennikarka Wirtualnej Polski

Wybrane dla Ciebie

Komentarze (1)