AI "włamuje się" coraz lepiej. Eksperci mówią o punkcie zwrotnym

O tym, że narzędzia sztucznej inteligencji stanowią potężną broń w rękach cyberprzestępców, nie trzeba przekonywać nikogo. Są jednak zagrożenia, które AI może znaleźć na długo zanim człowiek w ogóle o nich pomyśli.

Hakerzy mogą wykorzystywać AI do swoich celów
Hakerzy mogą wykorzystywać AI do swoich celów
Źródło zdjęć: © Pixabay.com

Na łamach Wired zespół RunSybil opisał przypadek z listopada, gdy ich system Sybil wskazał na błędną konfigurację federowanego GraphQL. Skutek był poważny: niezamierzone ujawnianie poufnych danych przez interfejsy API, wykorzystywane przez klientów zewnętrznych. Wykrycie tego błędu wymagało dogłębnej wiedzy o kilku warstwach technologii i ich interakcjach.

RunSybil wykorzystuje zestaw różnych modeli AI i autorskie techniki do skanowania środowisk pod kątem błędów, takich jak niezałatane serwery czy źle zabezpieczone bazy. Firma twierdzi, że ten sam wzorzec podatności znalazła także w innych wdrożeniach GraphQL, zanim informacja wypłynęła do internetu. W tym przypadku było to zbawienne, ale co, gdy taka wiedza dotrze do hakerów?

Coraz więcej zaawansowanych narzędzi do włamywania napędza AI

Dawn Song, badaczka z Uniwersytetu Berkeley w Kalifornii ocenia, że ostatnie miesiące przyniosły gwałtowny skok umiejętności modeli w wyszukiwaniu luk. Wskazuje na znaczenie symulowanego rozumowania, które rozkłada problem na mniejsze części, oraz agentowych możliwości AI, jak przeszukiwanie sieci i uruchamianie wielu narzędzi jednocześnie.

Badaczka współtworzyła benchmark CyberGym. Jego zadaniem było sprawdzanie, jak duże modele radzą sobie z wykrywaniem podatności w projektach open-source. W bazie umieszczono 1507 podatności ze 188 projektów. W lipcu 2025 r. model Claude Sonnet 4 wykrywał ok. 20 proc. błędów, a w październiku 2025 r. nowszy Claude Sonnet 4.5 już 30 proc. Według Song, AI potrafi też identyfikować ataki zero-day, czyli taki, który wykorzystuje lukę zanim jeszcze producent wyda poprawkę i robi to niskim kosztem.

Jak temu przeciwdziałać? Song proponuje kilka rozwiązań. Po pierwsze, wykorzystanie AI po stronie obrony, w tym wcześniejsze udostępnianie modeli badaczom bezpieczeństwa przed premierą. Po drugie, zmiana w projektowaniu: jej zespół pokazał, że generowanie kodu przez AI może podnieść poziom bezpieczeństwa względem standardowych praktyk programistów.

RunSybil ostrzega, że w krótkim terminie przewaga może przechylić się na stronę atakujących. Modele zyskują coraz więcej kompetencji hakerów: automatyzują działania na komputerze i tworzą złośliwy kod. Jeśli te zdolności będą przyspieszać bez odpowiedniej kontroli, internet może zostać ofiarą nieprzyjemnych cyberataków.

Michał Mielnik, dziennikarz Wirtualnej Polski

Misja AI
Misja AI© Cyfrowi Bezpieczni

Programy

Zobacz więcej
sztuczna inteligencjacyberbezpieczeństwooprogramowanie

Wybrane dla Ciebie

Komentarze (6)