Emocje na sprzedaż. AI "rozumie" ludzi
W ostatnich latach generatywna sztuczna inteligencja dokonała niezwykłego postępu. Niektórzy zapowiadają rewolucję technologiczną, inni zaś z niepokojem spoglądają w przyszłość. AI uczy się nieustannie analizować dane, jednak sfera emocjonalności nadal jest niedostępna dla algorytmów.
Technologia miesza się z codziennością, a sztuczna inteligencja staje się obecna w obszarach, które dotychczas zarezerwowane były wyłącznie dla ludzi. Może się wydawać, że jedną z ostatnich niedostępnych dla technologii płaszczyzn są emocje, jednak i tam wkraczają nowe rozwiązania.
Mniejsze i większe firmy z całego świata starają się nauczyć swoje algorytmy "rozumieć" człowieka m.in. poprzez rozpoznawanie tonu głosu, mimiki czy sposobu formułowania zdań. Im lepiej system zna ludzką naturę, tym skuteczniej odpowiada na nasze potrzeby oraz może personalizować usługi. Pytanie brzmi jednak, czy technologia może i czy powinna naprawdę zbliżyć się do emocjonalnej inteligencji człowieka?
Technologia nieustannie próbuje pokonać granice
Emocje są fundamentem ludzkiego doświadczenia i kształtują nas jako jednostki. Wpływają na decyzje, sposób w jaki postrzegamy świat oraz na relacje międzyludzkie. Bywają nieprzewidywalne, kontekstowe i głęboko zakorzenione w biologii oraz historii osobistej. Generatywna sztuczna inteligencja pracuje na danych, korelacjach i schematach, które mają się nijak do złożoności ludzkich uczuć, bowiem na tym etapie technologia może jedynie przewidzieć nasze zachowania.
Dla systemu nie jest ważne to, dlaczego ktoś mówi ciszej czy patrzy w bok, ale jak często i w jakich kontekstach się to dzieje. W praktyce powstaje mapa zachowań, która z zaskakującą dokładnością potrafi wskazać, czy użytkownik jest zestresowany, podekscytowany, a może przygnębiony.
Wyjątkowy czas
Kolejny aspektem jest próba przełożenia psychologii na język algorytmów, wszystko po to, by zasilić nowymi formułami generatywną sztuczną inteligencję. W efekcie maszyna nie tyle "rozumie" ludzkie stany, co operuje na schematach, które mają je przybliżać.
Rosnący trend personalizacji emocjonalnej spowodowany jest chęcią firm, aby ich rozwiązania reagowały na zachowanie użytkownika i dostosowywały się do niego. Znając lepiej osobę siedzącą po drugiej stronie ekranu algorytmy mogą stworzyć pozór bardziej "ludzkiej" interakcji. W zamyśle ma to usprawniac kontakt.
- Sztuczna inteligencja coraz częściej potrafi udawać odczuwanie i zrozumienie drugiej strony, bo stara się być bardziej ludzkie - mówi w rozmowie z dobrymiprogramami Dominika Mastalerz, psycholożka. - Wpływ, jaki będzie to miało na człowieka zależeć będzie od tego jak i do jakich celów będzie wykorzystana jak również od wiedzy, stanu emocjonalnego i dojrzałości użytkownika - dodaje.
- AI może być przydatna w rozwijaniu się i zdobywaniu wiedzy, w nauce, może także pełnić rolę doradcy czy wspierającego asystenta ale jest też druga strona medalu, która może nieść ze sobą niebezpieczeństwa m.in. zbyt dużego zaangażowania w relacje z AI, takie jak zbytnie zaufanie i przywiązywanie się emocjonalne (...) Podczas korzystania z empatycznego AI ludzie mogą zacząć polegać na niej zbyt mocno zbyt głęboko emocjonalnie zwłaszcza wtedy, kiedy korzystają z niej osoby w kryzysie lub słabe psychicznie czy niedojrzałe emocjonalnie (...) Pojawia się też pytanie kto i jak programuje i kontroluje algorytmy - zwraca uwagę.
Ciemna strona "relacji" w jakie wchodzimy z technologią
Trzeba przyznać, że technologia, która potrafi odpowiadać na potrzeby w czasie rzeczywistym jest wygodna. Jednakże, dane emocjonalne stają się nową walutą, która jest cenniejsza niż informacje o preferencjach zakupowych czy lokalizacji.
Nad użytkownikami pojawia się widmo nadużyć, które nie tylko determinują to jak konsumujemy dobra, ale także wpływa m.in. na nastroje polityczne. W świecie, w którym emocje stają się surowcem analitycznym, pytanie przestaje brzmieć, co technologia potrafi zrobić. Kluczowe staje się to, kto nią zarządza i w jakim celu.
- Obawiam się, że niektórzy ludzie mogą zacząć traktować sztuczną inteligencję jak człowieka i starać się budować z nią głębokie "relacje partnerskie", a to może być już z punktu widzenia psychologii i zdrowia psychicznego niebezpieczne. Tak jak wszystko, AI ma swoje plusy i minusy. Sztuczna inteligencja otacza nas wszystkich coraz bardziej, aby właściwie i mądrze ja wykorzystywać niezbędna jest też szeroka psychologiczna edukacja społeczna czym ona jest i jak może wpływać na zdrowie i psychikę człowieka - dodała specjalistka.
Wyzwania etyczne
Jeśli algorytm potrafi wykryć lęk, frustrację czy poczucie osamotnienia, to tym samym jest w stanie wpłynąć na nasze zachowanie. Granica pomiędzy światem rzeczywistym, a wirtualnym staje się coraz cieńsza w świecie, w którym asystent AI może się stać dla nas bliskim. Coraz bardziej "ludzkie" maszyny potrafią budować złudzenie prawdziwej więzi, co dla wielu osób, zwłaszcza samotnych czy zmagających się z kryzysami, może stać się formą relacji zastępczej.
- Warto podkreślić fakt, że coraz więcej ludzi jest samotnych i odseparowanych od siebie, więc mogą być szczególnie podatni np. na uzależnienie od AI gdyż są spragnieni bliskości, rozmowy i zrozumienia. Czy to co daje nam na głębokim poziomie emocjonalnym realny człowiek może dać nam empatyczna sztuczna inteligencja? Na to pytanie niech każdy odpowie sobie sam… - dodaje psycholożka.
W 2013 r. odbyła się premiera filmu "Her" w reżyserii Spike’a Jonze. Obraz ten przedstawiał wyjątkową relację między samotnym pisarzem Theodore, a systemem operacyjnym noszącym imię Samantha. Twórcy aplikacji przedstawiali swój produkt jako remedium na problemy, które ma odpowiadać na wszystkie potrzeby użytkownika. Obraz pokazuje, że nie jesteśmy przygotowani na takie rozwiązania, a technologia może mieć nieoczekiwany wpływ na człowieka.
Nie możesz skończyć scrollować
Jak często łapiesz się na tym, że spędziłeś kilkadziesiąt minut na przeglądaniu treści, których nawet nie zapamiętujesz? To wszystko przez to, że interfejsy zaprojektowane są tak, by zatrzymywać nas godzinami przed ekranem. Nieustanne utrzymywanie zaangażowania, które jest trudne do przerwania, uzależnia nas od treści.
Aza Raskin, współzałożyciel Centrum Technologii Humanitarnej i projektu Earth Species, w 2006 r. wynalazł model niekończącego się scrollowania, lecz w wielu wywiadach podkreślał, że żałuje tej decyzji.
Granice będą się zacierać
Przyszłość technologii emocjonalnej balansuje dziś między chłodnym realizmem a kuszącą wizją niemal ludzkiej sztucznej inteligencji. Jednak empatia to coś więcej niż niezliczone ilości danych i responsywne algorytmy. To przede wszystkim wyjątkowa funkcja przeżywania, które prawdopodobnie jeszcze przez długi czas pozostanie unikalną zdolnością organizmów żywych.
Możemy natomiast zbliżyć się do technologii, która bardzo skutecznie symuluje empatię i jest na tyle przekonująca, że dla wielu osób różnica stanie się nieistotna.
Justyna Waliszewska, dziennikarka Wirtualnej Polski