AI "włamuje się" coraz lepiej. Eksperci mówią o punkcie zwrotnym
O tym, że narzędzia sztucznej inteligencji stanowią potężną broń w rękach cyberprzestępców, nie trzeba przekonywać nikogo. Są jednak zagrożenia, które AI może znaleźć na długo zanim człowiek w ogóle o nich pomyśli.
Na łamach Wired zespół RunSybil opisał przypadek z listopada, gdy ich system Sybil wskazał na błędną konfigurację federowanego GraphQL. Skutek był poważny: niezamierzone ujawnianie poufnych danych przez interfejsy API, wykorzystywane przez klientów zewnętrznych. Wykrycie tego błędu wymagało dogłębnej wiedzy o kilku warstwach technologii i ich interakcjach.
RunSybil wykorzystuje zestaw różnych modeli AI i autorskie techniki do skanowania środowisk pod kątem błędów, takich jak niezałatane serwery czy źle zabezpieczone bazy. Firma twierdzi, że ten sam wzorzec podatności znalazła także w innych wdrożeniach GraphQL, zanim informacja wypłynęła do internetu. W tym przypadku było to zbawienne, ale co, gdy taka wiedza dotrze do hakerów?
Coraz więcej zaawansowanych narzędzi do włamywania napędza AI
Dawn Song, badaczka z Uniwersytetu Berkeley w Kalifornii ocenia, że ostatnie miesiące przyniosły gwałtowny skok umiejętności modeli w wyszukiwaniu luk. Wskazuje na znaczenie symulowanego rozumowania, które rozkłada problem na mniejsze części, oraz agentowych możliwości AI, jak przeszukiwanie sieci i uruchamianie wielu narzędzi jednocześnie.
Badaczka współtworzyła benchmark CyberGym. Jego zadaniem było sprawdzanie, jak duże modele radzą sobie z wykrywaniem podatności w projektach open-source. W bazie umieszczono 1507 podatności ze 188 projektów. W lipcu 2025 r. model Claude Sonnet 4 wykrywał ok. 20 proc. błędów, a w październiku 2025 r. nowszy Claude Sonnet 4.5 już 30 proc. Według Song, AI potrafi też identyfikować ataki zero-day, czyli taki, który wykorzystuje lukę zanim jeszcze producent wyda poprawkę i robi to niskim kosztem.
Jak temu przeciwdziałać? Song proponuje kilka rozwiązań. Po pierwsze, wykorzystanie AI po stronie obrony, w tym wcześniejsze udostępnianie modeli badaczom bezpieczeństwa przed premierą. Po drugie, zmiana w projektowaniu: jej zespół pokazał, że generowanie kodu przez AI może podnieść poziom bezpieczeństwa względem standardowych praktyk programistów.
RunSybil ostrzega, że w krótkim terminie przewaga może przechylić się na stronę atakujących. Modele zyskują coraz więcej kompetencji hakerów: automatyzują działania na komputerze i tworzą złośliwy kod. Jeśli te zdolności będą przyspieszać bez odpowiedniej kontroli, internet może zostać ofiarą nieprzyjemnych cyberataków.
Michał Mielnik, dziennikarz Wirtualnej Polski