Oszustwa trudniejsze do wykrycia. Cyberprzestępcy mają nowe narzędzie

Oszustwa trudniejsze do wykrycia. Cyberprzestępcy mają nowe narzędzie

Modele językowe mogą być wykorzystywane przez cyberprzestępców
Modele językowe mogą być wykorzystywane przez cyberprzestępców
Źródło zdjęć: © Getty Images
Konrad Siwik
13.01.2023 16:46

Seria eksperymentów przeprowadzonych przez ekspertów WithSecure przy użyciu GPT-3 wskazuje, że modele językowe wykorzystujące sztuczną inteligencję umożliwiają cyberprzestępcom zwiększanie skuteczności komunikacji będącej częścią ataku.

GPT-3 to model językowy wykorzystywany w popularnym ChatGPT. W prowadzonych eksperymentach badacze WithSecure bazowali na tzw. prompt engineering – koncepcji związanej z przetwarzaniem języka naturalnego (NLP). Polega ona na szukaniu danych wejściowych, które wprowadzone do modelu przynoszą pożądane lub użyteczne rezultaty. Eksperci sprawdzali, w jaki sposób mogą być generowane potencjalnie szkodliwe treści.

Zdaniem ekspertów powszechny dostęp do modeli SI, które w kilka sekund dostarczają tekst brzmiący jak napisany przez człowieka to punkt zwrotny w ewolucji cyberzagrożeń. W eksperymentach oceniano, jak zmiany danych wejściowych, czyli poleceń wpisywanych w dostępnych modelach językowych wpływają na otrzymywane wyniki. Celem było sprawdzenie, w jaki sposób generowanie języka przez SI może być używane w złośliwej lub przestępczej działalności.

Dalsza część artykułu pod materiałem wideo

Zagrożenia płynące z modeli językowych

Eksperymenty obejmowały phishing i spear-phishing, nękanie, uwierzytelnianie scamu, przywłaszczanie stylu pisanego, celowe tworzenie polaryzujących opinii, wykorzystywanie modeli językowych do tworzenia podpowiedzi złośliwych tekstów oraz fake newsów.

– Obecnie każdy, kto posiada łącze internetowe, może mieć dostęp do zaawansowanych modeli językowych, a to ma jedną bardzo praktyczną konsekwencję. Lepiej zakładać, że każda nowa wiadomość, którą otrzymujemy, mogła zostać stworzona przez bota – wskazuje Andy Patel, analityk WithSecure Intelligence, który kierował badaniami. – Możliwość wykorzystania SI do generowania zarówno szkodliwych, jak i użytecznych treści będzie wymagała strategii wykrywania, które są zdolne do zrozumienia znaczenia i celu tekstu pisanego.

Wyniki przeprowadzonych eksperymentów oraz analiza rozwoju GPT-3 doprowadziły badaczy do kilku wniosków:

  • Prompt engineering to koncepcja, która będzie się intensywnie rozwijać – podobnie jak tworzenie promptów w złośliwych celach;
  • Cyberprzestępcy będą w nieprzewidywalny sposób rozwijać możliwości, jakie dają duże modele językowe;
  • Identyfikacja złośliwych lub obraźliwych treści będzie coraz trudniejsza dla dostawców platform;
  • Zaawansowane modele językowe już teraz dają przestępcom możliwość zwiększenia skuteczności komunikacji będącej częścią ataku (np. wiadomości phishingowe).

– Rozpoczęliśmy badania, zanim jeszcze ChatGPT udostępnił technologię GPT-3 dla wszystkich – tłumaczy Patel. – Rozwój narzędzia zintensyfikował nasze wysiłki. Teraz w pewnym sensie wszyscy jesteśmy "łowcami androidów", próbując dowiedzieć się, czy inteligencja, z którą mamy do czynienia, jest "prawdziwa", czy sztuczna – puentuje.

Konrad Siwik, dziennikarz dobreprogramy.pl

Programy

Zobacz więcej
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (6)