Pseudomedycyna w natarciu. "Lekarz" z TikToka nie jest dobrym doradcą
Na TikToku i Instagramie pojawia się coraz więcej treści o tematyce medycznej, które są wynikiem działania algorytmów. Tworzą one porady przypominające wypowiedzi prawdziwych lekarzy – mimo że w rzeczywistości mają one niewiele wspólnego z prawdziwą medycyną.
W rzeczywistości są to komunikaty tworzone przez sztuczną inteligencję, które często zachęcają do stosowania niesprawdzonych, a czasem wręcz niebezpiecznych metod leczenia. Technologia deepfake, wcześniej znana głównie z naśladowania celebrytów i manipulowania wizerunkiem znanych osób, dziś coraz częściej wykorzystywana jest do podszywania się pod autorytety – narażając użytkowników na ryzyko utraty zdrowia, a nawet życia.
Pseudomedycyna w mediach społecznościowych
Na platformach społecznościowych, takich jak TikTok i Instagram, skala rozpowszechniania materiałów typu deepfake oraz ich możliwe zagrożenia mogą budzić poważne obawy. Eksperci z firmy ESET odkryli kampanię, w której awatary tworzone przez sztuczną inteligencję podszywały się pod ginekologów, dietetyków i innych specjalistów, reklamując suplementy diety oraz produkty z kategorii wellness.
Te nagrania, dopracowane pod względem realizacji i bardzo przekonujące w odbiorze, wyglądają jak wiarygodne porady medyczne, choć w rzeczywistości są ukrytą formą reklamy. Osoby, które nie zauważą manipulacji, mogą łatwo dać się oszukać i sięgnąć po środki o nieudowodnionej skuteczności, ryzykując przy tym własne zdrowie.
Dalsza część artykułu pod materiałem wideo
Takie manipulacje opierają się na prostym, ale bardzo skutecznym mechanizmie. Każde nagranie ma niemal identyczną formę: mówiący awatar, często widoczny w rogu ekranu, przekazuje zdrowotne lub inne porady w sposób wzbudzający zaufanie. Rady wypowiadane są tonem eksperta i odwołują się do "naturalnych" sposobów leczenia, jednocześnie w subtelny sposób kierując uwagę widza na konkretne produkty dostępne w sprzedaży.
Przykładem takiej praktyki jest wideo, w którym domniemany "lekarz" wychwala "naturalny ekstrakt" jako lepszą alternatywę dla Ozempicu – leku, który zyskał popularność dzięki swojej skuteczności w redukcji wagi. Nagranie obiecuje spektakularne rezultaty i przekierowuje użytkownika na stronę Amazon, gdzie promowany produkt widnieje jako "krople relaksacyjne" lub "środek przeciwobrzękowy", nie mając przy tym żadnego związku z deklarowanymi właściwościami odchudzającymi.
Niebezpieczna praktyka
Niektóre nagrania posuwają się jeszcze dalej, przekraczając kolejne granice etyki. Zamiast reklamować nieszkodliwe suplementy, sugerują stosowanie niezatwierdzonych leków albo fałszywych "cudownych" terapii na poważne schorzenia. W najbardziej drastycznych przypadkach oszuści bezprawnie wykorzystują wizerunek prawdziwych, rozpoznawalnych lekarzy — wygenerowane materiały zawierają ich twarze, głosy oraz charakterystyczny sposób wypowiadania się, sprawiając wrażenie, że to właśnie oni udzielają porad lub polecają konkretne produkty.
Narzędzia oparte na sztucznej inteligencji pozwalają dziś każdemu stworzyć dopracowanego awatara na podstawie krótkiego nagrania. Dla influencerów to sposób na zwiększenie zasięgów i usprawnienie produkcji treści. Problem pojawia się wtedy, gdy te same technologie trafiają w ręce osób, które wykorzystują je do manipulacji. Co miało być marketingowym usprawnieniem, bardzo szybko może przekształcić się w narzędzie dezinformacji.
Analitycy ESET ujawnili ponad 20 kont na TikToku i Instagramie, które wykorzystywały deepfake’owych "lekarzy" do promowania różnych produktów. Jedno z tych kont, podszywające się pod ginekolożkę z trzynastoletnim stażem, zostało bezpośrednio powiązane z biblioteką awatarów dostępną w jednej z popularnych aplikacji. Mimo że takie działania naruszają regulaminy większości narzędzi AI, dla oszustów nie stanowi to żadnej przeszkody.
Problem nie ogranicza się tylko do reklamowania nieskutecznych suplementów. Skutki mogą być o wiele poważniejsze. Tego rodzaju deepfake’i promują potencjalnie niebezpieczne "terapie" i mogą powodować opóźnienie w rozpoczęciu odpowiedniego leczenia. W świecie, gdzie wiele osób poszukuje informacji o zdrowiu w internecie, taka dezinformacja staje się rzeczywistym zagrożeniem dla zdrowia publicznego.
W miarę jak narzędzia oparte na sztucznej inteligencji stają się coraz bardziej dostępne, rozpoznanie fałszywych treści staje się coraz trudniejsze, nawet dla osób dobrze zaznajomionych z technologią. To zjawisko stanowi poważne wyzwanie, ponieważ granica między autentycznym a spreparowanym przekazem zaczyna się zacierać. Dlatego tak ważne jest nie tylko rozwijanie technologicznych zabezpieczeń, ale też budowanie świadomości społecznej i kompetencji cyfrowych. Tylko w ten sposób możemy skutecznie bronić się przed dezinformacją i oszustwami, które mogą zagrozić naszemu zdrowiu i bezpieczeństwu finansowemu.
Jak rozpoznać manipulację?
Jak rozpoznać deepfake wideo podszywające się pod poradę medyczną? zwróć uwagę na następujące sygnały ostrzegawcze:
- Ruch ust niespasowany z dźwiękiem lub mimika, która wygląda sztucznie i nienaturalnie, może wskazywać na manipulację.
- Zakłócenia obrazu, takie jak rozmazane krawędzie twarzy czy nagłe zmiany światła, mogą świadczyć o cyfrowej edycji.
- Głos brzmiący nienaturalnie – zbyt gładki, monotonny albo nienagannie idealny – to kolejny znak, że treść mogła zostać wygenerowana przez algorytm.
- Sprawdź szczegóły profilu – niepokój powinny wzbudzić nowe konta, bez historii aktywności i z małą liczbą obserwujących.
- Uważaj na przesadne obietnice, takie jak "cudowny lek", "gwarantowane efekty" albo slogany typu "lekarze tego nienawidzą", szczególnie gdy nie są poparte rzetelnymi źródłami.
- Zawsze sprawdzaj informacje – korzystaj ze sprawdzonych źródeł medycznych, nie udostępniaj podejrzanych materiałów i zgłaszaj wprowadzające w błąd treści bezpośrednio na platformie.
Sebastian Barysz, dziennikarz dobreprogramy.pl