r   e   k   l   a   m   a
r   e   k   l   a   m   a

Test Turinga ma wartość tylko historyczną, czas oceniać AI za pomocą Testu Lovelace

Strona główna AktualnościOPROGRAMOWANIE

Wymyślony przez Alana Turinga test (jego imienia), mający w założeniach dowieść opanowania przez maszynę umiejętności myślenia przez nią w sposób podobny do ludzkiego, nie spełnił pokładanych w nim nadziei. Pomijając już same wątpliwe filozoficznie założenia testu, rozwój programów konwersacyjnych, tzw. czatbotów pokazał, że można stworzyć program, który będzie w miarę sprawnie prowadził rozmowę z człowiekiem, w żaden sposób nie rozumiejąc znaczeń i kontekstów użytych słów. Ewentualne niedociągnięcia zawsze można zrzucić na młody wiek czy pochodzenie udawanej osoby ludzkiej – jak to było w wypadku czatbota Eugene Goostman, udającego nastolatka z Ukrainy. Dla każdego zainteresowanego tematem słabość testu jest jednak ewidentna. Jak więc wykryć myślenie u maszyn? Bardzo ciekawą propozycję przedstawił Selmer Bringsjörd, profesor informatyki i kognitywistyki z Rensselaer Polytechnic Institute w Nowym Jorku. Zapoznajcie się z będącym dziełem jego i kolegów Testem Lovelace.

W teście Turinga chodzi o nic innego jak skuteczne oszukiwanie. Maszyna wcale nie musi myśleć – by przejść test, programista musi stworzyć dla niej taki program, który pozwoli jej oszukać inną ludzką istotę, przekonać ją, że ma w rozmowie do czynienia z człowiekiem. Przejście testu Turinga może oczywiście oznaczać, że maszyna posiadła zdolność myślenia, ale jak do tej pory oznacza jedynie, że posiada zdolność sprawnej mimikry językowej – układania słów i zdań w przekonujący sposób.

Formalne metody wykrycia procesu myślenia w maszynie nie mogą być, zdaniem wielu badaczy, powiązane z ludzkim językiem – inaczej kończy się to wszystko wyścigiem w budowaniu coraz lepszych czatbotów. Nie, żeby prace takie były bezwartościowe, nieinteligentne oprogramowanie, zdolne do akceptowalnej przez użytkownika komunikacji werbalnej w określonych tematach jest pożądanym celem dla każdego projektanta interfejsów użytkownika, ale są to właśnie badania z zakresu interfejsów użytkownika, a nie sztucznej inteligencji. Teraz, po sukcesie Eugene Goostmana, który pokazał, że test Turinga w obszarze badań nad AI ma już tylko wartość historyczną, przypomniano sobie o innym teście, który ujmuje kluczowe aspekty ludzkiego myślenia.

r   e   k   l   a   m   a

W 2001 roku Selmer Bringsjörd, wraz z zespołem informatyków, zaproponował nowe podejście do tematu testów AI. Warto nadmienić, że w jego zespole był David Ferucci, jeden z czołowych projektantów superkomputera IBM Watson (tego, który wygrał teleturniej Va banque). Wymyślony test otrzymał nazwę po Adzie Lovelace, pierwszej programistce w historii, która w 1843 roku stwierdziła, że maszyny nigdy nie będą tak inteligentne jak ludzie, ponieważ mogą robić tylko to, co zostało przez nas zaprogramowane. Dopóki maszyna nie stworzy myśli, do której nie została zaprogramowana, nie może być uważana za inteligentną w takim sensie, jak ludzie.

Oprogramowanie może przejść Test Lovelace dopiero wówczas, jeśli stworzy dowolną treść, inne oprogramowanie, czy wręcz dzieło sztuki, do którego stworzenia nie zostało zaprogramowane. Proces twórczy nie może być dziełem przypadku, a więc musi być odtwarzalny na żądanie prowadzących eksperyment. Co więcej, projektanci kandydującego do miana „inteligentnego” oprogramowania nie mogą być w stanie wyjaśnić, jak oryginalny kod doprowadził do stworzenia czegoś nowego.

Warunek taki wydaje się nie do przejścia, a jednak w 2011 roku Google jako pierwsze pochwaliło się oprogramowaniem, które w pewnym ograniczonym sensie mogłoby przejść Test Lovelace. Klaster 16 tysięcy procesorów wykorzystany został do przeanalizowania 10 milionów miniaturek klipów wideo, by na tej podstawie nauczyć się rozpoznawać wizerunki kotów. Co ważne, system nie był trenowany przez człowieka, nigdy nie otrzymał komunikatu „oto kot”. Kolejna iteracja systemu rozpoznawania obrazu nauczyła się klasyfikować znacznie trudniejsze do rozpoznania obiekty – niszczarki dokumentów. Wówczas to szef projektu w Google, Quoc V. Le, ogłosił, że komputerowy system rozpoznawania obrazu poradził sobie z tym zadaniem znacznie lepiej, niż ludzie, a on sam nie wie, jak napisać program, który by samouczącemu się inteligentnemu klasyfikatorowi dorównał.

Oczywiście nawet takiemu systemowi daleko do przejścia Testu Lovelace w oryginalnym sensie. Większość istotnych form ludzkiego myślenia bardzo słabo się algorytmizuje (o ile w ogóle algorytmizacja jest możliwa). To nie tylko tak „ludzkie” wydawałoby się kwestie jak ocena dzieła sztuki, ale też sprawy znacznie bardziej formalne, jak dowodzenie twierdzeń matematycznych. Jak wyjaśnia Bringsjörd, wartością Testu Lovelace jest dziś przede wszystkim przedstawienie stanu badań nad sztuczną inteligencją we właściwej perspektywie.

Nie oznacza to z konieczności pesymizmu co do możliwości budowania Sztucznych Inteligencji. Zdaniem uczonego, w dziedzinie badań nad AI jest jeszcze bardzo wiele do zrobienia, szczególnie w najbardziej praktycznych kwestiach, takich jak choćby samoprowadzące się auta. Uniwersalne, kreatywne AI, to wciąż tylko obszar fantastyki – i nie widać żadnych perspektyw na to, by sytuacja uległa zmianie.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.