Deepfake a wybory. Na Słowacji mieli z nim duże problemy

Deepfake a wybory. Na Słowacji mieli z nim duże problemy

Uważajcie na oszustwa przed nadchodzącymi wyborami
Uważajcie na oszustwa przed nadchodzącymi wyborami
Źródło zdjęć: © Agencja Wyborcza | Fot. Jacek Babiel / Agencja Wyborcza.pl
oprac. KLT
13.10.2023 10:17

Przed wyborami w polskich mediach zrobiło się głośno o dziwnych SMS-ach zachęcających do głosowania na określone ugrupowanie. W obliczu zbliżających się wyborów warto być szczególnie uważnym i weryfikować, czy dane informacje nie są zmanipulowane.

W kontekście zbliżających się wyborów, polskie media zaczęły donosić o fałszywych wiadomościach SMS i e-mailach, które miały na celu szerzenie dezinformacji. Eksperci w dziedzinie cyberbezpieczeństwa podkreślają, że w okresie poprzedzającym wybory, liczba potencjalnych zagrożeń może wzrosnąć.

Wzrasta również liczba doniesień o fałszywych nagraniach, wykorzystujących technologie sztucznej inteligencji i deepfake, które mogły wpłynąć na wyniki wyborów na Słowacji, które miały miejsce dwa dni wcześniej. W związku z tym, eksperci zalecają zachowanie ostrożności i dokładne weryfikowanie informacji, szczególnie w okresie poprzedzającym wybory.

Na przykład, dwa dni przed niedawnymi wyborami na Słowacji, na Facebooku pojawiło się nagranie audio, które rzekomo przedstawiało rozmowę między Michalem Šimečką, liderem liberalnej partii Postępowa Słowacja, a Moniką Tódovą z dziennika Denník N. W rozmowie omawiane były rzekome metody sfałszowania wyborów, w tym kupowanie głosów mniejszości romskiej.

Dalsza część artykułu pod materiałem wideo

Šimečka natychmiast zaprzeczył autentyczności nagrania, a zespół sprawdzający fakty agencji informacyjnej AFP stwierdził, że nagranie wykazuje oznaki manipulacji za pomocą sztucznej inteligencji. Jednak ze względu na ciszę wyborczą, fałszywy post z nagraniem audio zdołał ominąć politykę Meta dotyczącą manipulacji mediami, która skupia się głównie na nagraniach wideo. W związku z tym, temat był trudny do sprostowania. Obecnie trwa dyskusja na temat potencjalnego wpływu tego zdarzenia na wynik wyborów.

Eksperci ds. cyberbezpieczeństwa zwracają również uwagę na pojawiające się w mediach społecznościowych, takich jak TikTok, materiały zawierające fałszywe wypowiedzi polskich polityków. Zazwyczaj mają one formę żartu lub nie są na tyle technicznie zaawansowane, aby mogły być uznane za autentyczne. Niemniej jednak, część mniej świadomych odbiorców może je interpretować jako prawdziwe. Dlatego eksperci zalecają zachowanie szczególnej ostrożności i dokładne weryfikowanie informacji, zwłaszcza w okresie poprzedzającym wybory.

– Nowe, szybko rozwijające się technologie oparte o AI umożliwiają praktycznie każdemu tworzenie fałszywych treści, które mogą zawierać wizerunek nieświadomych użytkowników. Cyberprzestępcy mogą wykorzystywać je nie tylko do nękania i szantażowania swoich ofiar. Nielegalnie bywa też wykorzystywany wizerunek znanych osób: polityków czy celebrytów – wyjaśnia Kamil Sadkowski, analityk laboratorium antywirusowego ESET.

– Szczególnie niebezpiecznym aspektem jest to, że narzędzia pozwalające na tworzenie nagrań tego typu są bardzo łatwo dostępne i nie wymagają zaawansowanych umiejętności technologicznych. Może więc sięgać po nie coraz więcej osób, zarówno takich, które chcą je wykorzystać do niecnych celów (szerzenia nieprawdy, szantażu, podsycania niepokojów, destabilizacji), jak i takich, które mylnie uważają, że będzie to dobry żart. Intencje czasem trudno odróżnić, a skutki – mogą niestety być przeróżne – dodaje.

Technologia Deepfake wykorzystuje sieci neuronowe, umożliwiając użytkownikom generowanie filmów lub nagrań dźwiękowych, które wykorzystują wizerunek istniejących osób. Źródłem mogą być istniejące materiały audio i wideo, które są przetwarzane przez odpowiednie algorytmy. W wyniku tych procesów, można na przykład podmienić twarz osoby występującej w oryginalnym materiale na twarz kogoś innego, zachowując mimikę i ruchy z pierwotnego filmu, lub sklonować głos i zadać mu dowolny tekst do przeczytania.

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (8)