r   e   k   l   a   m   a
r   e   k   l   a   m   a

Narzędzia AI od Elona Muska pomogły w tworzeniu niewykrywalnego malware

Strona główna AktualnościBEZPIECZEŃSTWO

Elon Musk z jednej strony regularnie straszy nas sztucznymi inteligencjami, z drugiej strony sponsoruje rozwój otwartych narzędzi frameworka OpenAI, dzięki którym każdy może zacząć wykorzystywać sztuczne inteligencje w swoich projektach. Teraz okazuje się, że zanim jeszcze zaczną polować na nas autonomiczne, zabójcze, hiperinteligentne roboty, dzięki narzędziom od Elona Muska powstanie złośliwe oprogramowanie, które załatwi nasze systemy operacyjne.

Podczas ostatniej konferencji DEF CON, eksperci z firmy Endgame pochwalili się stworzonym przez sztuczną inteligencję złośliwym oprogramowaniem, które jest w stanie uniknąć wykrycia przez wiodące na rynku narzędzia antywirusowe. W pracach wykorzystano framework OpenAI, którego rozwój finansowany jest m.in. przez Elona Muska i Petera Thiela (współtwórcę PayPala).

Dyrektor techniczny Endgame, Hyrum Anderson, wyjaśnił, że zastosowano tu mechanizmy maszynowego uczenia, które wprowadzały niewielkie zmiany do szkodnika, a następnie przesyłały jego kolejne wersje antywirusowym skanerom. Na podstawie ich reakcji dalej modyfikowano kod, tak że w końcu szkodnik stawał się niewidzialny dla antywirusa.

r   e   k   l   a   m   a

Wystarczyć miało 15 godzin treningu, by oprogramowanie stworzyło i przetestowało 100 tysięcy próbek malware. Ostatnie wersje przenikały przez systemy zabezpieczeń ze skutecznością sięgającą 60%.

Teraz na GitHubie znaleźć można kompletne środowisko do trenowania malware, działające w OpenAI Gym – zestawie narzędzi do rozwijania i porównywania algorytmów uczenia przez wzmacnianie. Pozwala ono na tworzenie agentów uczących się manipulować plikami wykonywalnymi tak, by osiągały pewne cele (np. obejście zabezpieczeń antywirusa), poprzez nagradzanie za najlepsze operacje.

Producentom antywirusów pozostaje teraz bliżej zaznajomić się z pracami Endgame i pomyśleć, co mogą zrobić w erze generowanego przez inteligentne maszyny malware. Jak podkreśla Anderson, nawet drobne zmiany w kodzie ogłupiają dziś silniki antywirusowe. Powołuje się w tym na Google, które pokazało jak zmiana kilku pikseli w obrazku może sprawić, że to co wcześniej przez system rozpoznawania obrazu było uważane za szkolny autobus nagle dla AI staje się ostrygą.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.