Koniec mediów społecznościowych? Ekspert wskazuje przyczynę

Koniec mediów społecznościowych? Ekspert wskazuje przyczynę06.03.2024 06:55
Koniec mediów społecznościowych?
Źródło zdjęć: © Getty Images | 2023 Matt Cardy

Ekspert ds. sztucznej inteligencji zwiastuje koniec mediów społecznościowych. Ma mieć to związek z potencjalnym natłokiem fałszywych treści, które w nich spotykamy. "Rozwój technologiczny zaczyna zjadać sam siebie" - komentuje w rozmowie z PAP ekspert.

Dr Tomasz Michalak, ekspert od sztucznej inteligencji z IDEAS NCBR, wyraża swoje obawy dotyczące rosnącej nieufności do treści publikowanych w sieci, spowodowanej rozprzestrzenianiem się deepfejków i fake newsów. Jego zdaniem, w obliczu tych zagrożeń, ludzie mogą zacząć wracać do bezpośrednich kontaktów osobistych, co stawia pod znakiem zapytania przyszłość mediów społecznościowych.

Sztuczna inteligencja jest teraz dostępna dla każdego i umożliwia tworzenie materiałów, które wyglądają jak wykonane przez profesjonalistów. To obejmuje teksty, zdjęcia, nagrania dźwiękowe i materiały wideo. Coraz trudniej jest odróżnić materiał pochodzący z wiarygodnych źródeł od materiału spreparowanego przez sztuczną inteligencję.

Dr Michalak zwraca uwagę, że sztuczna inteligencja może być celowo wykorzystywana w złej wierze, aby wyrządzić szkody, zarówno pojedynczym osobom, instytucjom, jak i całym społecznościom. Już teraz zdarzają się sytuacje, gdy twarz dowolnej osoby jest montowana zamiast twarzy aktorki w filmie dla dorosłych. Można sobie również wyobrazić manipulacje, wykorzystujące wizerunek znanego polityka w trakcie kampanii wyborczej.

Dalsza część artykułu pod materiałem wideo

Dlaczego zabrałem Huawei MatePad Pro 13.2" w góry? - TWC 2024

Coraz więcej fałszywych treści

Ekspert zauważa, że obserwuje się zmniejszoną aktywność użytkowników platform społecznościowych, co potwierdzają badania kanadyjskie. Jego zdaniem, rozwój deepfejków i eksplozja możliwości AI mogą spowodować, że trend ten będzie się nasilać w najbliższych latach. Może to doprowadzić do utraty zaufania użytkowników do mediów społecznościowych, przynajmniej jako do rzetelnego źródła informacji. Niestety, szkody, jakie zostaną wyrządzone w międzyczasie, mogą być nieobliczalne.

- AI może być niestety użyta do poprawy jakości fake newsów i ataków dezinformacyjnych na platformach społecznościowych - choćby ze strony Rosji. Naszym zadaniem jako naukowców, jest opracowanie jeszcze lepszych modeli AI, które są w stanie zwalczać te bardzo niebezpieczne zjawiska - zwraca uwagę dr Michalak.

Bota zwalczaj botem

Ekspert przytacza przykład bota opracowanego przez firmę MIM Solutions. Potrafi on automatycznie reagować na dezinformację ze strony rosyjskiej, dotyczącą imigrantów ukraińskich w Polsce. Wykrywa on nieprzyjazne posty i reaguje na nie, przywołując wiarygodne źródła informacji.

- To walka na modele sztucznej inteligencji. Jeśli jako Polska nie będziemy inwestowali w sztuczną inteligencję, przegramy ten wyścig. Moim zdaniem nie możemy też liczyć pod tym względem na globalne korporacje. Te nie będą zainteresowane naszymi lokalnymi problemami i nie możemy oczekiwać, że stworzą dla nas dedykowane rozwiązania AI - komentuje dr Michalak.

Spotkanie zamiast DM-a

Badacz z IDEAS NCBR uważa, że ze względu na powstające zagrożenie deepfejków, ludzie wrócą do kontaktów osobistych, bo nie będą mogli ufać mediom społecznościowym.

- Powróci znaczenie osobistych spotkań, np. polityków z wyborcami, bo nie będzie można ufać temu, co jest zamieszczone online. To stawia pod znakiem zapytania przyszłość mediów społecznościowych w takiej formie, jaką znamy - uważa dr Michalak.

Zwraca również uwagę na zjawisko, jakim jest ścieranie się autorytetu dziennikarskiego i mediów mainstreamu z mediami społecznościowymi w internecie. Ocenia, że wydawcy czy agencje medialne ze względu na oszczędności - ale i zmieniające się tempo publikowania - ograniczają liczbę fact checkerów i również tu spadają szanse, by potwierdzić, czy jakieś wydarzenia na pewno miały miejsce.

- Na szczęście powstaje coraz więcej firm czy organizacji, które zajmują się fact-checkingiem. Istnieją badania pokazujące, że te wysiłki przynoszą wymierne efekty i mają sens. Tym niemniej, wyniki te dotyczą przeszłości kiedy możliwości i popularyzacja technologii deepfejk były nieporównywalnie mniejsze - dodaje ekspert.

Dr Michalak zwraca również uwagę na nowy przykład przestępstw z użyciem deepfejków. W Hongkongu pracownik instytucji finansowej dostał zlecenie od zarządu firmy, by wykonać przelew na kwotę odpowiadającą 25 mln dol. Miał wątpliwości, więc poprosił o kontakt z zarządem. Odbyła się telekonferencja, podczas której zarząd w obecności świadków potwierdził chęć przelewu. Kwotę przelano i wtedy okazało się, że mail od zarządu był spreparowany, a podczas rozmowy on-line jedyną prawdziwą osobą był pracownik instytucji finansowej. Twarze innych uczestników rozmowy były wygenerowane cyfrowo, podobnie jak ich głosy.

- Rozwój technologiczny zaczyna zjadać sam siebie. Przyzwyczailiśmy się, że nowe technologie pozwalają nam efektywniej wykonywać naszą pracę, robić rzeczy coraz szybciej. Tymczasem, może się wkrótce okazać, że rozmowy online lub przez telefon nie wystarczą, bo po drugiej stronie ekranu czy słuchawki może być deepfejk – uważa dr Michalak.

Dodatkowa weryfikacja w sieci

PAP zapytała badacza, czy warto wprowadzić procedury uwierzytelniania treści w mediach - np. podpisy cyfrowe, znaki wodne czy skróty dokumentów potwierdzające oryginalność materiału - tekstu, zdjęć czy nagrań wideo - aby odbiorcy mogli szybko sprawdzić wiarygodność źródła.

- Prace nad rozwojem tego typu technologii już trwają. To świetny pomysł i bardzo ważny kierunek badań - odpowiada ekspert. - Pytanie, czy wszyscy będą chcieli z tego korzystać. Są grupy społeczne, które czerpią informacje wyłącznie z mediów społecznościowych w swoich bańkach informacyjnych. Pytanie, czy takie znaki wodne spełnią swoją rolę również i u takich odbiorców. Niestety obawiam się, że cześć osób, które są obecnie bardziej podatne na dezinformacje, może nie ufać znakom wodnym wystawionym przez instytucje publiczne - dodaje ekspert.

- Powinniśmy w miarę możliwości zaznajamiać się z możliwościami, jakie dają nowe technologie, bo ich wpływ na życie będzie coraz bardziej bezpośredni, widoczny. Jeśli miałbym coś radzić czytelnikom, to bądźmy jeszcze bardziej uważni na treści, które widzimy na ekranach komputerów czy smartfonów - podsumowuje naukowiec.

Źródło artykułu:PAP
Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.