Blog (20)
Komentarze (2.2k)
Recenzje (0)
@MaRaPecety ślepą uliczką ewolucji?

Pecety ślepą uliczką ewolucji?

15.02.2010 17:25

Już kilkukrotnie obwieszczano śmierć architektury PC, opracowanej przez IBM w 1981 roku na bazie mikroprocesora Intela. Jednak pomimo niedoskonałości pokonała ona wszystkich konkurentów (Atari, Amiga/Commodore, ZX Spectrum, stacje robocze Silicon Graphics, o procesorze Alpha mało kto pamięta). Nawet sam Intel nie odwrócił tego trendu proponując 64‑bitowe procesory Itanium, a architekturę 64‑bitową do świata pecetów wprowadził AMD. Nie jest ona tak doskonała jak Intela, za to kompatybilna wstecz aż do procesora 8086. Ostatnim bastionem pozostał Apple, lecz dostrzegając koniec procesorów PowerPC przeszedł na procesory ze świata pecetów w 2005 roku. Inne procesory są jeszcze stosowane w serwerach, lecz SUN ze swoim SPARC stał ostatnio nad grobem i został przejęty przez Oracle, coś tam jeszcze próbuje zdziałać IBM, lecz na rynku potężnych superkomputerów.

W latach dziewięćdziesiątych wydawało się, że przyszłość należy do procesorów RISC. Nazwa oznacza zredukowaną ilość instrukcji, choć w rzeczywistości te procesory mogą ich mieć więcej. Różnica tkwi głównie w wyeliminowaniu instrukcji odwołujących się do pamięci RAM. Współcześnie procesory x86/x64 w rzeczywistości są procesorami RISC, tylko przekształcają instrukcje stosowane przez poprzedników na zrozumiałą dla siebie formę. W tym przekształcaniu tkwi ich pięta achillesowa, ale o tym za chwilę. Współczesne kompilatory programów po prostu pomijają w kodzie maszynowym instrukcje odwołujące się do pamięci RAM, dzięki czemu jądro RISC może rozwinąć skrzydła.

Wydaje się, że PC ma świetlaną przyszłość. Jednak dostrzegam pewne rysy, które świadczą, iż komputer PC właśnie dogorywa na naszych oczach:

1) Względy fizykalne. Nie można skonstruować krzemowego procesora pracującego z zegarem większym niż ok. 4GHz. Do wyższych częstotliwości trzeba stosować specjalne materiały, jak arsenek galu, co eliminuje je z produkcji skomplikowanych procesorów. Procesory Pentium4 osiągnęły zegar 3,6GHz już 5 lat temu, to oznaczało koniec ich ewolucji. Obecne Core2Duo/Quad/i5/i7/Phenom znowu się zbliżają do tej granicy.

2) Architektura wnętrza. Pięta achillesowa procesorów x86/x64, w porównaniu z "czystym" RISC, tkwi w nadmiernej komplikacji układowej. Przykładowo, procesor w komputerze ma przynajmniej kilkadziesiąt milionów tranzystorów, natomiast procesor ARM (stosowany m.in. w palmtopach i telefonach komórkowych) może ich mieć kilkadziesiąt tysięcy. Pobiera góra ułamek wata energii, pecetowy kilkadziesiąt wat. O ile w przypadku pojedynczego chipa komplikacja nie ma większego znaczenia, bo procesory wykonuje się podobnie do odbitek fotograficznych, jednak utrudnia konstrukcję procesorów wielordzeniowych.

3) Niska skalowalność. Nie można już dalej podnosić zegara, drobne zmiany w konstrukcji dają niewielki przyrost wydajności. Jedyną drogą jest zwiększanie ilości rdzeni. Dwa rdzenie to prawie dwa razy większa wydajność, jednak cztery rdzenie to w praktyce wydajność około 50% większa niż dwa rdzenie. Może wkrótce pojawią się procesory ośmiordzeniowe, lecz przeciętny użytkownik raczej nie zauważy już drastycznej różnicy. Jest też techniczny problem w upakowaniu tylu rdzeni, toż to procesor o kilkuset milionach tranzystorów. Coraz mniejszych tranzystorów z każdym poziomem technologicznym. To oznacza większe koszty produkcji (więcej niesprawnych procesorów z linii produkcyjnej), droższe testy jakości i większą awaryjność. Wiele rdzeni przydaje się natomiast w serwerach, z których korzystają setki czy tysiące użytkowników jednocześnie. Dla porównania, procesory o "czystej" architekturze RISC, stosowane w konsolach do gier, mają kilkadziesiąt do ponad stu rdzeni. I stosowanie do tego większą wydajność.

4) Skoro klasyczny pecet dochodzi do granic swoich możliwości, dalszą wydajność próbuje się osiągnąć zaprzęgając procesor karty graficznej. Jednak może on dokonywać tylko specyficznych obliczeń. W zastosowaniach naukowo-technicznych ma to znaczenie, w domowych nieco mniejsze. Pozwala skrócić przekodowanie filmu np. z godziny do 5‑10 minut dla współczesnych kart. W przyszłości jeszcze mniej, tylko po co? I taka karta swoje waży i pobiera, a coraz popularniejsze są laptopy.

5) Wystarczająca wydajność. Jedynie gracze potrzebują coraz szybszych komputerów, do innych zastosowań domowych już od kilku lat mają wystarczającą wydajność. Dzisiaj kupiony komputer będzie mógł służyć, aż ze starości nie padnie (co tak długo może nie potrwać, zważywszy na coraz gorszą jakość wykonania). Dla przykładu, teraz siedzę na komputerze: Core2Duo 1,8GHz (można przełączyć na 2,4..2,6GHz), 2GB RAM DDR400, dyski 2x1TB SATA, grafika GeForce6200a AGP, chipset i865G (powstał gdzieś w 2002 roku), aktualnie Windows 7 i Windows XP, inne (m.in. Windows 95, 98, NT4) na wirtualnym komputerze. Co prawda nie jest to stary komputer, najstarszy podzespół ma 3 lata (wyjątek - modem sprzętowy PCI gdzieś z 2002 roku), takie zestawienie jest ze względu na możliwość testowania naprawdę starych systemów operacyjnych. Może wymienię na nowszy, może nie, ale nie z powodu słabej wydajności. Jedynie jak chcę przekodować film z DVD na MPEG4 muszę poczekać z godzinę, ale to nie ma znaczenia (ileż filmów można zgrać w ciągu dnia?). 1GB RAMu wystarczał aż nadto, zwiększyłem jedynie ze względu na owe wirtualne komputery. Choć, jak okazało się, niepotrzebnie.

6) Koniec ewolucji pozostałych podzespołów. Modemy doszły do końca swoich możliwości w 2001 roku, dyskietki w latach osiemdziesiątych, BlueRay ma być ostatnim standardem płyt, choć nie może się przebić ze względu na cenę. W klawiaturach i myszkach nie ma już ewolucji, panuje wręcz regres - modele sprzed kilku lat były znacznie wyższej jakości niż obecnie. Najlepsze klawiatury produkowano w latach osiemdziesiątych (na halotronach). Kamerki mają wystarczające parametry, chyba że ktoś kupi "tani" model. Głośniki nie podlegają jakiejś ewolucji, są konstrukcyjnie rozpracowane od dziesięcioleci. Co prawda TDK próbowało wprowadzić typu NXT, ale lud nie wiedział co to.

Dyski twarde stoją przed "przełomem", czyli SSD. Osobiście sceptycznie jestem do nich nastawiony. Górują czasem dostępu oraz nieco większą szybkością odczytu, lecz mają ograniczoną liczbę cykli zapisu (nie powinno się na nich umieszczać pliku wymiany). Z większymi pojemnościami może być problem, gdyż w komórkach pamięci półprzewodnikowej zdarzają się błędy spowodowane m.in. promieniowaniem kosmicznym, ale może to rozwiążą jakimiś systemami korekcji (podobnie jak w pamięciach RAM serwerów). Tradycyjny zapis magnetyczny jest bardziej trwały. W najbliższej przyszłości optimum to mała szybka pamięć SSD (64‑256GB) na pliki systemowe lub w laptopach, a na magazyn danych tradycyjny dysk twardy.

Ciekawe, czy tradycyjny dysk ma jakieś fizyczne ograniczenia w gęstości zapisu? I po co przeciętnemu użytkownikowi więcej niż kilka TB? Tyle może być potrzebne do kolekcji filmów FullHD, lecz byłaby ona bardzo kosztowna, rozwiązaniem są wypożyczalnie filmów online, ale w takim przypadku filmy goszczą na dysku tylko kilka dni. Niektórzy użytkownicy mogą potrzebować takich pojemności, lecz większość nie. Coraz popularniejsze są laptopy jako jedyny komputer w domu, ich parametry wystarczają przeciętnemu użytkownikowi.

Czyli pecet niczym dinozaur, osiąga swój kres potęgi, w każdej chwili może się załamać pod swoim własnym cielskiem i zostać zdetronizowany przez jakiegoś małego, sprawnego ssaka. Jedynie przy życiu trzyma go przywiązanie użytkowników do Windowsa, brak jakiegoś konkurencyjnego ssaka.

Uważam, że inicjatywa Google z systemem Chrome OS ma nawet sens, w tym szaleństwie jest metoda. Takie komputerki nie mają zdetronizować peceta, tylko go uzupełnić, będą służyć jako lekki, przenośny internetowy terminal obok "dużego" peceta, coraz częściej przybierającego postać laptopa z dużym 17‑calowym monitorem lub All‑In-One (wszystko w monitorze). Potrzeba na chwilę skorzystać z internetu albo z edytora tekstu, po co uruchamiać coś tak dużego, wystarczy sięgnąć po bezgłośnego, startującego w kilka sekund netbooka, a pliki i tak zsynchronizują się poprzez sieć z komputerem stacjonarnym. Zapewne są jakieś statystyki mówiące, do czego używa się komputerów, i na pewno coraz częściej jest to internet.

Aplikacje webowe działają niezależnie od platformy sprzętowej, więc ChromeOS zagości na tanich (ok. 350zł) mini-laptopach i nettopach z prostymi procesorami ARM, pochodnymi starego RISC. Im większa ich popularność, tym więcej ciekawszych aplikacji. Po jednym rdzeniu pojawią się dwa, potem cztery, wkrótce 128 (jak w Playstation3), a miniaturowy komputerek przewyższy wydajnością każdego peceta.

Być może stoimy na progu technologicznego przełomu.

Wybrane dla Ciebie
Komentarze (28)