Cyfrowi górnicy toczą z kosmitami nierówną walkę o moc czerpaną z krzemu

Oryginalne „komputery osobiste”, czyli seria urządzeń IBM PC, produkowanych od lat osiemdziesiątych mimo swojej niskiej mocy (początkowo 4.77 MHz!), przez cały czas pracowały z pełną mocą. Nie istniały żadne mechanizmy oszczędzania energii albo głębokiego usypiania procesora, a komputer włączało się jak wiertarkę. Po zakończeniu pracy trzeba było nacisnąć wielki mechaniczny czerwony przełącznik. Dopiero wprowadzenie dysków twardych wymuszało stosowanie jakiejś sekwencji czynności w ramach procedury wyłączenia komputera, chodziło przede wszystkim o zaparkowanie głowic, aby uniknąć awarii przy odcięciu zasilania.

Kolejne generacje komputerów, wyposażone w bardziej zaawansowane procesory, oferowały zbiór funkcji ujętych w APM, a następnie ACPI. Wyłączenie sprzętu samo dbało o zaparkowanie głowic i opróżnienie pamięci podręcznych, odpięcie zasilania stało się czynnością „soft”, a sam zestaw komputerowy nie pracował z całą mocą bez przerwy: instrukcja HLT dawała odpocząć procesorowi gdy był mniej zajęty.

Takie cuda musiały być oczywiście obsługiwane przez system operacyjny. MS-DOS wymagał załadowania odpowiedniego sterownika POWER.EXE, Windows 9x usiłował dbać o oszczędzanie energii samodzielnie, ale szło mu to na tyle źle, że i tak często zjadał wolne cykle. O wiele lepiej radził sobie z tym NT, przez następne lata wzbogacany o kolejne funkcje zarządzania energią, które czasem nawet działały całkiem stabilnie.

Warto jednak mieć na uwadze, że ówczesne komputery nie były zaopatrzone w 750-watowe zasilacze. W zestawieniu z dość marnym wołaniem HLT dawało to mierne efekty rezultaty. Na pewno było to zbawieniem dla (superdrogich) laptopów, ale laptopy nie były wtedy komputerami codziennego użytku. Stąd też posiadacze domowych komputerów nie przejmowali się szczególnie rachunkami za prąd – one i tak obrywały od komputera. 

Powyższy stan rzeczy wyzwalał kreatywność – „wolne przebiegi” peceta w praktyce marnowały się, więc powstawała okazja do ich konstruktywnego wykorzystania. Najpopularniejszym przykładem realizacji tego pomysłu był projekt SETI@Home: masowej skali obliczenia rozproszone, mające na celu przetwarzanie wejścia odbieranego przez radioteleskopy pod kątem wykrycia sygnału potencjalnie pochodzącego od cywilizacji pozaziemskiej. Klient projektu pracował jako wygaszacz ekranu. Głównie dlatego, że monitory rzeczywiście potrzebowały wygaszacza, bowiem częste cykle wyłączenia kineskopa, jak i ciągle, statyczne wyświetlanie obrazu, były dla nich szkodliwe. Osobiście nie miałem litości dla kineskopowych monitorów, bo są one prymitywnymi, analogowymi generatorami bólu głowy i epilepsji, ale to nie ma znaczenia. Gdy użytkownik używał systemu, klient po prostu pracował w tle.

Z biegiem czasu energooszczędność zaczęła jednak zyskiwać na znaczeniu. Wzrost mocy platformy mobilnej Centrino i wyparcie biurkowych pudeł przez laptopy sprawiły, że popularne użycie klientów projektu SETI i innych (na przykład Folding@Home i Einstein@Home) spadło. Oczywiście, ich popularność była najwyższa w dość specyficznej grupie użytkowników, zapewne mniej podatnych na mobilne trendy, ale trudno jest zaprzeczyć, że chociaż kolektywna moc obliczeniowa klientów wzrosła, ich popularność spadła. 

Mogłoby się zatem wydawać, że urządzenia mobilne ubiją wielką inicjatywę masowego użyczania mocy obliczeniowej, ale ostatnie lata pokazują, że brakowało jedynie odpowiedniej motywacji. Szalona popularność kryptowalut przywróciła, zapewne przejściowo, trend tłuczenia swoimi pecetami obliczeń rozproszonych. Można ubrać ten odwrót od projektów naukowych w bardzo depresyjny, dekadencki ton, ale z drugiej strony ich udział nierzadko nie był kluczowy z perspektywy ogólnej potęgi danych do przetworzenia. Aczkolwiek po nieuniknionym krachu wartości kryptowalut, który zapewne czai się tuż za rogiem, wspomniany odwrót będzie w pewnych kręgach uznawany za całkiem zabawny.

O ile potencjalny spadek udziału w projektach BOINC na poczet kryptowalut być może nie zaszkodzi bezpośrednio stabilności dużych przedsięwzięć obliczeniowych, może jej zagrozić przemienia na rynku elektronicznym, która w jego skutek nastąpiła. BBC donosi, że naukowcy mają poważne problemy z zakupem układów graficznych, ponieważ te najlepiej nadające się do obliczeń wysokiej wydajności są wysyłane z rynku na potrzeby koparek Bitcoinów Wzrost zapotrzebowania na sprzęt NVidii powinien cieszyć producenta, ale najwyraźniej nie nadąża on ze swoim procesem produkcyjnym. Dzisiejsze karty graficzne, jak na przykład taki 1080 To, są przecież całkiem skomplikowanym układem, którego nie da się ani wykuć na kowadle ani produkować taśmowo na olbrzymią skalę. 

NVidia próbuje rozwiązać ten problem, denerwując cyfrowych górników. Najmocniejsze układy, istniejące głównie do zaawansowanego HPC, mają nie być dostępne w formacie pozwalającym na użycie ich w komputerach osobistych. Tego typu karty są dostępne już dziś, nie posiadają na przykład złącz wideo, ale da się je (niektóre) spinać w SLI. A na pewno da się je zamontować „tak po prostu”, a potem na nich liczyć. 

Przetasowania na rynku układów graficznych doprowadzą zatem do jeszcze wyraźniejszego zarysowania kontrastu między kartami do obliczeń a kartami dla graczy. Bez odpowiedzi pozostaje jednak pytanie, czy kiedyś nastąpi zwrot w kierunku BOINC oraz SETI. Czy może jednak kosmici są już niemodni, a od gwiazd i postępu naukowego bardziej interesują nas hasztagi i cyfrowe pieniądze?

Epilog

Jeżeli ktoś chce spróbować wziąć udział w obliczeniach rozproszonych, łatwo się do nich zapisać. Nalezy pobrać klienta obliczeń rozproszonych, co można zrobić u opiekuna projektu. Następnie, spośród listy dostępnych projektów wybrać ten, który jest dla nas najbardziej interesujący. Klient BOINC udostępni wtedy formularz rejestracji. Po utworzeniu konta program połączy się z projektem i otrzyma "dawkę" do policzenia po naszej stronie.

Miłego docieplania mieszkania! ;)