Deepfake zmienia oblicze pornografii. Każdy może paść ofiarą cyberprzestępstwa

Strona głównaDeepfake zmienia oblicze pornografii. Każdy może paść ofiarą cyberprzestępstwa
11.05.2021 15:51
Deepfake zmienia oblicze pornografii. Każdy może paść ofiarą cyberprzestępstwa
Źródło zdjęć: © Pexels

Manipulacje dźwiękiem i obrazem wsparte sztuczną inteligencją stały się na tyle powszechne i przystępne, że wystarczy zdjęcie udostępnione w sieci, by paść ofiarą cyberprzestępców.

bETxVdCd

Eksperci już jakiś czas temu ostrzegali, że deepfake jest jednym z najpoważniejszych cyberzagrożeń, z jakimi zmierzymy się w tym roku. Najnowsze badania wskazują, że coraz więcej osób pada ofiarą przestępstw wykorzystujących tę technologię w kontekście pornografii.

Firma Sensity przeprowadziła badania, które ujawniły, że ponad 100 tys. kobiet zostało rozebranych do naga dzięki technologii deepfake. Przestępcy potrzebowali jedynie pojedynczych zdjęć swoich ofiar do stworzenia manipulacji.

Tak przygotowane nagie zdjęcia były następnie udostępniane za pośrednictwem aplikacji Telegram. Giorgio Patrini, dyrektor generalny Sensity w rozmowie z 9News przyznał, że w najbliższym czasie zagrożenie ze strony wykorzystania technologii deepfake będzie się nasilać. Dodał, że liczba ofiar, których spreparowane nagie zdjęcia i filmy będą udostępniane w sieci, wzrośnie.

bETxVdCf

Patrini zwrócił uwagę na to, jak niewiele trzeba, by stać się ofiarą cyberataku lub zemsty wykorzystujących deepfake - wystarczy umieszczać swoje zdjęcia w internecie (a niestety większość z nas to robi). W omawianym przypadku przestępcom wystarczyła pojedyncza fotografia.

Kiepska manipulacja też może być niebezpieczna

Deepfake od dłuższego czasu jest wykorzystywany przez specjalistów, którzy tworzą zaskakująco realistyczne manipulacje. Ostatnio głośno było o przemówieniu Elżbiety II, wyemitowanym przez brytyjski Channel 4, kiedy monarchini "złożyła" fikcyjne życzenia swoim rodakom. "Ofiarami" padli również Tom Cruise, Arnold Schwarzenegger, Jim Carrey oraz inni celebryci.

Deepfake voice, czyli zupełnie nowy rodzaj oszustwa
Deepfake voice, czyli zupełnie nowy rodzaj oszustwa
bETxVdCl

Jednak badanie Senity wskazuje na to, że nie potrzeba specjalnych umiejętności, by stworzyć wystarczająco realistyczny deepfake, który może zniszczyć komuś opinię. Ekspert dodaje, że może to mieć konsekwencje wizerunkowe, prywatne, jak i finansowe.

- Jakość takiej manipulacji zwykle jest słaba, jednak to bez znaczenia, kiedy "twoje" nagie zdjęcia krążą po sieci. To bardzo mocny atak, który może mocno uderzyć w psychikę takiej osoby - ostrzega Patrini. Sensity skupiła się w swym badaniu na kobietach, ale ekspert powiedział, że mężczyźni, nieletni i dzieci są również narażeni na ataki ze strony oszustów i twórców manipulacji.

Nowy poziom oszustw

Eksperci ds. bezpieczeństwa z Sydney, Sean Duca zwrócił również uwagę na inne zagrożenie, które wiąże się z wykorzystywaniem technologii deepfake w oszustwach romantycznych i seksualnych.

Chodzi tu przede wszystkim o sytuacje, gdy oszust próbuje uwieść ofiarę i wyłudzić w ten sposób pieniądze. O takich przypadkach z naszego kraju pisaliśmy w ostatnim czasie kilkukrotnie, a eksperci nie mają wątpliwości, że deepfake może ułatwić zadanie cyberprzestępcom.

bETxVdCm

Technologia umożliwi przestępcom prowadzenie wideo rozmów ze swoimi ofiarami, co dodatkowo uwiarygodni ich przekręt i pomoże w budowaniu zaufania.

Matka korzystała z deepfake aby pomóc swojej córce cheerleaderce
Matka korzystała z deepfake aby pomóc swojej córce cheerleaderce

To otwiera również furtkę dla oszustów, którzy próbują dostać się do korporacyjnych sieci - o wiele łatwiej będzie podszyć się pod pracownika lub przejść rozmowę rekrutacyjną, zauważa Duca.

Patrini zwraca dodatkowo uwagę na to, że wraz z rozwojem technologii deepfake, coraz łatwiej będzie oszukiwać systemy biometryczne. To z kolei stwarza nowe zagrożenia do systemów administracyjnych i bankowych, a wiadomo, że tam, gdzie są pieniądze, zawsze będą pojawiać się coraz bardziej kreatywni przestępcy.

Programy

Aktualizacje
Aktualizacje
Nowości
Udostępnij:
bETxVdCp
Komentarze (24)
bETxVdDb