UNICEF: AI tworzy seksualne deepfake'i dzieci. Skala problemu szokuje
Alarmujące dane: Co najmniej 1,2 mln dzieci z 11 krajów przyznało, że w ciągu ostatniego roku ich zdjęcia zostały poddane manipulacji i stworzono z nich seksualne deepfake’i - podaje UNICEF.
UNICEF alarmuje o narastającym problemie wykorzystywania techniki deepfake do tworzenia seksualizowanych treści z udziałem dzieci. Według badań, aż 1,2 mln dzieci z 11 krajów doświadczyło manipulacji zdjęciami na tle seksualnym. Największa na świecie organizacja stojąca na straży praw dziecka pilnie apeluje o reakcję i konkretne działania.
Deepfake urasta do roli prawdziwego zagrożenia XXI w.
Niedawno pisaliśmy o głośnej kampanii społecznej, która ostrzega przed nadmiernym dzieleniem się w sieci zdjęciami dzieci. Spot "Zatrzymaj się przed opublikowaniem", stworzony przez Irlandzką Komisję Ochrony Danych (DPC), szybko zyskał popularność w mediach społecznościowych. Pokazuje on dobitnie konsekwencje publikacji zdjęć dzieci online. Wystarczy kilka zdjęć dziecka, by stworzyć deepfake.
Technika deepfake wykorzystuje narzędzia sztucznej inteligencji (AI) do takiego projektowania, generowania lub manipulowania obrazów, filmów lub dźwięków, by stworzyć fałszywe materiały wyglądające na realistyczne.
Okulary AI. Technologia istnieje, ale jeszcze się nie przyjęła
"Jest ona coraz częściej wykorzystywana do tworzenia seksualizowanych treści z udziałem dzieci, w tym poprzez nudification, gdzie AI służy do usunięcia lub zmiany ubrań na zdjęciach w celu stworzenia sfabrykowanych nagich lub seksualizowanych obrazów" - ostrzega UNICEF.
1,2 mln dzieci w 11 krajach doświadczyło seksualizujących deepfake'ów
Nowe, przeprowadzone przez UNICEF, ECPAT i INTERPOL w 11 krajach badania potwierdzają skalę tego szybko rosnącego zagrożenia. Jak podaje organizacja, co najmniej 1,2 mln dzieci przyznało, że w ciągu ostatniego roku ich zdjęcia zostały poddane takiej manipulacji i stworzono z nich seksualne deepfake'i. W niektórych krajach zjawisko to dotyka nawet 1 na 25 dzieci - odpowiednik jednego dziecka w typowej klasie szkolnej.
Dzieci same w pełni zdają sobie sprawę z tego zagrożenia. W niektórych badanych krajach do dwóch trzecich dzieci przyznało, że obawia się, iż AI może zostać użyte do tworzenia fałszywych seksualnych obrazów lub filmów. Stopień niepokoju różni się między krajami, co pokazuje pilną potrzebę zwiększenia świadomości, działań prewencyjnych i ochrony.
UNICEF apeluje o wdrożenie procedur
Jak opisuje organizacja, nadużycia z wykorzystaniem deepfake to realne nadużycia, a szkoda, którą powodują, nie ma nic wspólnego z fikcją. Kiedy wykorzystywany jest wizerunek lub tożsamość dziecka, staje się ono bezpośrednią ofiarą. Nawet gdy konkretne dziecko nie jest rozpoznawalne, takie materiały normalizują praktyki wykorzystywania i utrudniają działania organów ścigania.
UNICEF zdecydowanie potępia tworzenie seksualizowanych treści z dziećmi przy użyciu AI, traktując je jako formę wykorzystywania nieletnich. UNICEF apeluje o konkretne kroki, które mogą pomóc w zwalczaniu tego problemu:
- Rozszerzenie definicji materiału o charakterze wykorzystywania dzieci (CSAM) przez rządy, aby obejmowała także treści generowane przez AI.
- Deweloperzy AI powinni wprowadzać rozwiązania zwiększające bezpieczeństwo i zapobiegające niewłaściwemu użyciu swoich systemów.
- Firmy cyfrowe muszą skupić się na prewencji, nie tylko usuwaniu materiałów po fakcie, lecz także na inwestycji w technologie pozwalające na szybkie wykrywanie i usuwanie takiego contentu.
- Krzywda spowodowana nadużyciami technologii deepfake jest realna i pilna. Dzieci nie mogą czekać, aż prawo nadrobi zaległości - czytamy w oświadczeniu UNICEF, pod którym podpisał się Jan Bratkowski, rzecznik prasowy UNICEF Polska.
Amanda Grzmiel, dziennikarka Wirtualnej Polski