r   e   k   l   a   m   a
r   e   k   l   a   m   a

Musk wzywa do regulacji prac nad SI, póki jeszcze jest na to czas

Strona główna AktualnościBEZPIECZEŃSTWO

Elonowi Muskowi już od dawna nie wystarcza rola przedsiębiorcy odnoszącego sukcesy na nowych rynkach prywatnego przemysłu kosmicznego czy samochodów elektrycznych. Jest on wizjonerem, który oprócz wysyłania ludzi w kosmos, chce także ostrzec ich przed wielkim zagrożeniem, jakiego dopatruje się w sztucznej inteligencji. Musk już wcześniej przed nią ostrzegał, teraz jednak jego głos wybrzmiał mocniej zarówno ze względu na miejsce wypowiedzi, jak i apel do polityków.

Mam kontakt z najnowocześniejszą sztuczną inteligencją i sądzę, że ludzi powinny się jej obawiać. Biję na alarm, ale dopóki ludzie nie zobaczą robotów zabijających ludzi na ulicach, nie będą wiedzieli, co zrobić, bo to wydaje się nierealne, mówił Musk podczas spotkania National Governors Association. To licząca sobie ponad 100 lat organizacja skupiająca gubernatorów amerykańskich stanów, służąca do wypracowywania przez nich wspólnej polityki wewnętrznej oraz koordynowania współpracy międzystanowej.

Musk uważa, że już teraz są potrzebne urzędowe regulacje kwestii związanych ze sztuczną inteligencją. SI to ten rzadki przypadek, gdy trzeba działać proaktywnie, a nie reaktywnie. Jeśli zadziałamy reaktywnie, będzie już za późno, stwierdził biznesmen. Zauważył, że zwykle uchwalanie nowych przepisów czy regulowanie jakiejś gałęzi przemysłu jest reakcją na to, co już się stało. Gdy społeczeństwo domaga się regulacji, bo miało miejsce już wiele niekorzystnych wydarzeń, rządzący uchwalają nowe prawa, a ich stworzenie i wcielenie w życie trwa wiele lat. Tymczasem takie postępowanie w przypadku sztucznej inteligencji jest niewłaściwe, gdyż SI jest zagrożeniem dla istnienia cywilizacji.

r   e   k   l   a   m   a

Musk oczywiście nie boi się sztucznej inteligencji takiego typu, jaką na co dzień wykorzystują koncerny IT. Google czy Microsoft tworzą wyspecjalizowane algorytmy, które lepiej lub gorzej radzą sobie z konkretnymi zadaniami. Jednak wielu ekspertów, nie tylko Musk, uważa, że rozwój takich wyspecjalizowanych sztucznych inteligencji doprowadzi w końcu do powstania SI o ogólnym przeznaczeniu, która może też posiadać świadomość.

Niedawno naukowcy z Uniwersytetów w Yale i Oxfordzie zapytali czołowych ekspertów zajmujących się sztuczną inteligencją, jak widzą perspektywy jej rozwoju. Po uśrednieniu wyników okazało się, że zdaniem ekspertów istnieje 50% szansy, że w ciągu najbliższych 45 lat SI prześcignie człowieka we wszystkich aspektach inteligencji. Poszczególne pola utracimy na rzecz maszyn jeszcze szybciej. Już do roku 2024 maszyny mają lepiej niż człowiek tłumaczyć pomiędzy językami, do 2027 będą lepszymi kierowcami ciężarówek, a do 2053 staną się lepszymi chirurgami. Około 5% ankietowanych uznało, że taki postęp może mieć dla nas bardzo złe skutki, np. w postaci zagłady ludzkości.

Nie wszyscy jednak podzielają obawy Muska. David Ha, badacz z Google Brain stwierdził, że bardziej niż powstania superinteligentnej SI obawia się, iż zostanie wykorzystana do przykrycia nieetycznych ludzkich zachowań. Francois Chollet, twórca platformy Keras stwierdził zaś, że o ile sztuczna inteligencja może zwiększyć zagrożenie ze strony już istniejących niebezpieczeństw, to nie wiadomo, czy tworzy nowe niebezpieczeństwa.

Czy apel Muska trafi do ludzi, do których powinien? Przekonamy się o tym w przyszłości. Może więc tutaj właśnie otwiera się pole do popisu dla Muska-wizjonera. Skoro zależy mu na regulowaniu prac nad SI, powinien dotrzeć do kręgów zdolnych do napisania projektu ustawy i zachęcenie kongresmenów, którzy jako jedyni mają inicjatywę ustawodawczą, by ją wnieśli pod obrady.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.