Nie ufaj swoim oczom. Deepfake to plaga mediów społecznościowych

Cyberbezpieczeństwo. Zadbaj o swój telefon i komputer
Cyberbezpieczeństwo. Zadbaj o swój telefon i komputer
Źródło zdjęć: © Unsplash
oprac. KLT

18.05.2024 08:14, aktual.: 20.05.2024 14:44

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

Eksperci z NASK alarmują w temacie rosnącej liczby oszustw z technologią deepfake. Fałszywe filmy, na których występują znane osoby, mogą być wstępem do poważnego oszustwa.

Eksperci z Naukowej i Akademickiej Sieci Komputerowej (NASK) ostrzegają przed filmami wykonanymi w technologii deepfake. Jest to technika oszustwa, która polega na manipulacji materiałami audiowizualnymi, takimi jak głos i twarz znanych osób, za pomocą sztucznej inteligencji.

Zgodnie z informacjami przekazanymi przez specjalistów z NASK, w sieci pojawia się coraz więcej oszustw, które opierają się na filmach wykorzystujących wizerunki osób publicznych. Przykładowo, mogą to być filmy z udziałem takich postaci jak piłkarz Robert Lewandowski czy minister zdrowia Izabela Leszczyna. W takich filmach stosuje się technikę "lip sync", która pozwala na dopasowanie sztucznie wygenerowanego głosu do ruchów ust i gestykulacji postaci na ekranie.

Milioner nie chce dać ci zarobić. To oszustwo

NASK w swoim komentarzu podaje przykład z marca bieżącego roku, kiedy to na jednym z serwisów społecznościowych pojawił się film typu deepfake z Rafałem Brzoską, właścicielem i prezesem firmy InPost. Mimo szybkiej reakcji Brzoski i zgłoszenia sprawy do administratorów serwisu Meta, film był dostępny na platformie przez wiele dni.

Ewelina Bartuzi-Trokielewicz, kierownik zespołu NASK ds. analizy deepfake, wyjaśnia, że obecne technologie umożliwiają przestępcom łatwe manipulacje materiałami audiowizualnymi. W przypadku technologii "text-to-speech", przestępcom wystarczy zaledwie kilka sekund nagranego głosu, aby stworzyć nowy podkład dźwiękowy, który może być zsynchronizowany z dowolnym materiałem wideo, na przykład z przemówieniem czy wiecem politycznym. Natomiast dla technologii "speech-to-speech", gdzie intonacja i emocje zawarte w głosie są bardziej złożone, do wykonania podróbki potrzebny jest dłuższy fragment, około jednej minuty oryginalnego materiału.

- Użytkownicy mediów społecznościowych powinni ostrożnie podchodzić do treści wideo, które wydają się niezweryfikowane lub podejrzane. Dotyczy to zwłaszcza tych materiałów, które mają potencjalny wpływ na publiczne postrzeganie znaczących postaci i instytucji - przestrzega ekspert NASK.

Jak rozpoznać deepfake?

NASK podkreśla, że oszustwa tego typu stają się coraz trudniejsze do wykrycia. Rozwijająca się sztuczna inteligencja pozwala coraz dokładniej podkładać sztucznie wygenerowany głos. Jednak, jak zaznaczają eksperci, nie jest to niemożliwe. Wskazują, że należy dokładnie sprawdzić oglądany film pod kątem technicznym i analizować jego przekaz.

Specjaliści wymieniają kilka technicznych zastrzeżeń, które mogą sugerować oszustwo. Są to między innymi: zniekształcenie obrazu w okolicy ust, problem z odwzorowaniem uzębienia, nienaturalny ruch głowy i mimika, błędy w odmianie słów czy nietypowa intonacja.

Bartuzi-Trokielewicz dodaje, że coraz częściej oszuści stosują technikę dodawania szumów i różnego rodzaju plam na nagraniach. Ma to na celu zakłócenie klarowności przekazu obrazu, ukrycie artefaktów generowanych przez sztuczną inteligencję oraz dezorientację algorytmów automatycznej detekcji deepfake'ów.

NASK informuje, że w filmach tego typu stosowane są różne socjotechniki mające na celu manipulację odbiorcą. Mogą to być na przykład: obietnica szybkiego zysku, wyjątkowość oferty połączona z ograniczonym dostępem w czasie, ponaglanie do działania oraz odwoływanie się do emocji odbiorcy.

Deepfake - gdzie zgłosić?

W przypadku zaobserwowania takiego materiału, NASK zaleca szybką reakcję i poinformowanie odpowiednich organów, które mogą uchronić innych przed staniem się ofiarą oszustwa. Można na przykład zgłosić materiał do zespołu CERT Polska poprzez sms (numer: 8080) lub stronę incydent.cert.pl. Istnieje również możliwość przesłania materiału na adres mailowy instytutu (deepfake@nask.pl), co pozwoli na analizę materiału w celu opracowania strategii zapobiegania takim praktykom w przyszłości.

Programy

Brak danych.
Zobacz więcej
Źródło artykułu:PAP
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (17)