W teście Turinga chodzi o nic innego jak skuteczne oszukiwanie.Maszyna wcale nie musi myśleć – by przejść test, programistamusi stworzyć dla niej taki program, który pozwoli jej oszukaćinną ludzką istotę, przekonać ją, że ma w rozmowie do czynieniaz człowiekiem. Przejście testu Turinga może oczywiście oznaczać,że maszyna posiadła zdolność myślenia, ale jak do tej poryoznacza jedynie, że posiada zdolność sprawnej mimikry językowej –układania słów i zdań w przekonujący sposób.
Formalne metody wykrycia procesu myślenia w maszynie nie mogąbyć, zdaniem wielu badaczy, powiązane z ludzkim językiem –inaczej kończy się to wszystko wyścigiem w budowaniu corazlepszych czatbotów. Nie, żeby prace takie były bezwartościowe,nieinteligentne oprogramowanie, zdolne do akceptowalnej przezużytkownika komunikacji werbalnej w określonych tematach jestpożądanym celem dla każdego projektanta interfejsów użytkownika,ale są to właśnie badania z zakresu interfejsów użytkownika, anie sztucznej inteligencji. Teraz, po sukcesie Eugene Goostmana,który pokazał, że test Turinga w obszarze badań nad AI ma już tylkowartość historyczną, przypomniano sobie o innym teście, któryujmuje kluczowe aspekty ludzkiego myślenia.
W 2001 roku Selmer Bringsjörd, wraz z zespołem informatyków, zaproponował nowe podejście do tematu testów AI. Warto nadmienić, że w jego zespole był David Ferucci, jeden z czołowych projektantówsuperkomputera IBM Watson (tego, który wygrał teleturniej Va banque). Wymyślony test otrzymał nazwę po Adzie Lovelace, pierwszejprogramistce w historii, która w 1843 roku stwierdziła, że maszynynigdy nie będą tak inteligentne jak ludzie, ponieważ mogą robićtylko to, co zostało przez nas zaprogramowane. Dopóki maszyna niestworzy myśli, do której nie została zaprogramowana, nie może byćuważana za inteligentną w takim sensie, jak ludzie.
Oprogramowanie może przejść Test Lovelace dopiero wówczas,jeśli stworzy dowolną treść, inne oprogramowanie, czy wręczdzieło sztuki, do którego stworzenia nie zostało zaprogramowane.Proces twórczy nie może być dziełem przypadku, a więc musi byćodtwarzalny na żądanie prowadzących eksperyment. Co więcej,projektanci kandydującego do miana „inteligentnego”oprogramowania nie mogą być w stanie wyjaśnić, jak oryginalny koddoprowadził do stworzenia czegoś nowego.
Warunek taki wydaje się nie do przejścia, a jednak w 2011 rokuGoogle jako pierwsze pochwaliłosię oprogramowaniem, które w pewnym ograniczonym sensie mogłobyprzejść Test Lovelace. Klaster 16 tysięcy procesorówwykorzystany został do przeanalizowania 10 milionów miniaturekklipów wideo, by na tej podstawie nauczyć się rozpoznawaćwizerunki kotów. Co ważne, system nie był trenowany przezczłowieka, nigdy nie otrzymał komunikatu „oto kot”. Kolejnaiteracja systemu rozpoznawania obrazu nauczyła się klasyfikowaćznacznie trudniejsze do rozpoznania obiekty – niszczarkidokumentów. Wówczas to szef projektu w Google, Quoc V. Le,ogłosił, że komputerowy system rozpoznawania obrazu poradziłsobie z tym zadaniem znacznie lepiej, niż ludzie, a on sam nie wie,jak napisać program, który by samouczącemu się inteligentnemuklasyfikatorowi dorównał.
Oczywiście nawet takiemu systemowi daleko do przejścia TestuLovelace w oryginalnym sensie. Większość istotnych form ludzkiegomyślenia bardzo słabo się algorytmizuje (o ile w ogólealgorytmizacja jest możliwa). To nie tylko tak „ludzkie”wydawałoby się kwestie jak ocena dzieła sztuki, ale też sprawyznacznie bardziej formalne, jak dowodzenie twierdzeń matematycznych.Jak wyjaśnia Bringsjörd, wartością Testu Lovelace jest dziśprzede wszystkim przedstawienie stanu badań nad sztucznąinteligencją we właściwej perspektywie.
Nie oznacza to z konieczności pesymizmu co do możliwościbudowania Sztucznych Inteligencji. Zdaniem uczonego, w dziedziniebadań nad AI jest jeszcze bardzo wiele do zrobienia, szczególnie wnajbardziej praktycznych kwestiach, takich jak choćby samoprowadzącesię auta. Uniwersalne, kreatywne AI, to wciąż tylko obszarfantastyki – i nie widać żadnych perspektyw na to, by sytuacjauległa zmianie.