r   e   k   l   a   m   a
r   e   k   l   a   m   a

Ludzki spryt kontra fizyka: przed nami jeszcze wiele lat doskonalenia mikroprocesorów

Strona główna AktualnościSPRZĘT

Najpotężniejsze desktopowe mikroprocesory z rodziny Haswell-E pojawić się w sklepach mają jeszcze w tym miesiącu – i będą prawdopodobnie ostatnimi czipami wykonanymi w procesie 22 nm. Kolejny szczebel drabiny, 14 nm czipy Broadwell, to kwestia miesięcy. A potem? Ile rdzeni x86 można jeszcze wsadzić do niewielkiego czipu, do pracy z jaką częstotliwością je zmusić? Gdy myśleliśmy o kresie ewolucji krzemowych czipów, myśleliśmy zwykle o fundamentalnych ograniczeniach fizycznych. Igor Markov z University of Michigan pokazuje nam, że znacznie wcześniej możemy napotkać coś, co z braku lepszej nazwy określić można jako fundamentalne ograniczenia techniczne.

Oficjalnie wszyscy są optymistami. Jeśli zapytać inżyniera, czy to z Intela, czy z AMD, czy z Nvidii, czy z IBM, czy z którejkolwiek innej firmy z mikroprocesorowej branży o to, ile jeszcze zdołamy podtrzymać ważność Prawa Moore'a (czy choćby postęp w dziedzinie technik mikroprocesorowych), to powiedzą, że mamy jeszcze przynajmniej kilka dziesięcioleci przed nami. Na to samo pytanie w ośrodkach akademickich można czasem nawet usłyszeć odpowiedź, że zostały jeszcze nawet setki lat.

Nie jest to znowu takie nieuzasadnione. W teorii jednym z limitów klasycznej techniki półprzewodnikowej jest rozmiar atomu. Co prawda, na długo jednak zanim uda się tak zminiaturyzować tranzystory, zaczniemy tracić nad nimi kontrolę, jednak Intel, nasz lider w dziedzinie miniaturyzacji, już przy okazji prac nad architekturą Broadwell rozpoczął prace nad taką przebudową podstawowych komponentów mikroprocesora, by działały w czipach wykonanych w procesach 10 nm i niższych.

r   e   k   l   a   m   a

W swojej opublikowanej w Nature (nr 512 z 14 sierpnia) pracy pt. Limits on fundamental limits to computation, Igor Markov przygląda się tym „miękkim” ograniczeniom w mikroelektronice, pojawiającym się na długo przed zbliżeniem się do fundamentalnych ograniczeń fizycznych i temu, jak do tej pory je obchodzono, łącząc pomysłowość z możliwościami przynoszonymi przez postęp w innych dziedzinach. Klasyczny tu przykład to oczywiście granica rozdzielczości Abbego, czyli rozmywanie się szczegółów obserwowanego obiektu w momencie, gdy odległość między nimi zbliżała się do długości fali świetlnej. Zgodnie z nią używane w produkcji półprzewodników lasery argonowo-fluorowe powinny pójść do lamusa już przy fotolitografii w procesie 65 nm. Jednak wymyślenie asymetrycznych oświetleń i obliczeniowej litografii, w której manipuluje się maską tak, by uzyskać ostrość w wybranych miejscach, pozwoliło wykorzystać lasery te nawet w procesie 14 nm. W dalszych etapach wciąż zostaje możliwość wykorzystania np. laserów rentgenowskich. Podobne przykłady autor znajduje dla limitu na liczbę samodzielnych połączeń (który można obejść dzięki węglowym nanorurkom, łączom fotonicznym czy radiowym) czy limitu dla konwencjonalnych tranzystorów (który został ominięty dzięki zmianie ich kształtu, wykorzystaniu trzeciego wymiaru).

Dziś w dalszym rozwoju mikroprocesorów Markov widzi dwa takie techniczne limity – zużycie energii i komunikację. Ten pierwszy wynika z tego, że ilość energii zużywanej przez obwody elektroniczne nie zależy liniowo od ich rozmiarów. Tempo miniaturyzacji jest większe, niż tempo zmniejszania zużycia energii, więc kolejne generacje czipów mają coraz większą „gęstość energetyczną”. By zaradzić problemom z przegrzewaniem się, projektuje się coraz bardziej złożone mechanizmy zarządzania zasilaniem, dzieli czipy na strefy, które mogą być niezależnie od siebie wyłączane, gdy nie są akurat potrzebne. Już niebawem według autora dojdzie do momentu, gdy w dowolnym momencie 99% powierzchni mikroprocesora będzie nieaktywna, tworząc w ten sposób tzw. „ciemny krzem”.

Ten efekt zauważyli już badacze z Microsoftu i IBM, ogłaszając rychły koniec powiększania liczby rdzeni. Coraz większe bowiem obszary czipu są wolne od tranzystorów, by pomóc w trasowaniu sygnałów, zasilaniu itp, coraz więcej też bramek nie przeprowadza żadnych użytecznych obliczeń, ale służy jedynie wzmocnieniu długich, słabych połączeń lub spowolnieniu połączeń zbyt krótkich. Już dzisiaj, jak wyjaśnia Markov, 50-80% wszystkich bramek w wysokowydajnych obwodach służy wyłącznie przekazywaniu sygnałów.

Rozwiązanie – przynajmniej na najbliższe lata – mogłoby się wiązać ze zmniejszeniem napięć zasilających. Mamy do czynienia z twardą fizyczną granicą, rzędu 200 mV, ale obecnie elektronika działa na poziomie ok. 1 V, więc wydawałoby się, że sporo jeszcze można tu osiągnąć, jednak i tutaj w ostatnich latach postęp w tej kwestii niemal zamarł, sugerując, że mamy do czynienia z kolejnym „miękkim” ograniczeniem.

Z kwestią energetyczną wiąże się bezpośrednio kwestia wewnętrznej komunikacji w czipie – gdy liczba tranzystorów w czipie rośnie, to wraz z nią rośnie liczba niezbędnych połączeń. Większość energii zostaje zużyta nie na obliczenia, ale na skomunikowanie ze sobą poszczególnych obszarów mikroprocesora i mikroprocesora z pozostałymi elementami komputera. Dochodzimy w ten sposób do ciekawej bariery w zwiększaniu częstotliwości zegara, o której wcześniej nie pomyśleli nawet najwięksi informatycy. Pojedynczy takt zegara dziś jest zbyt krótki, by sygnał mógł dotrzeć z jednego końca czipu na drugi. W ciągu 200 pikosekund (częstotliwość 5 GHz) światło przebywa w próżni ok 2,74 cm. By sobie z tym jakoś poradzić, pozostaje nam konstruowanie trójwymiarowych czipów, w których odległości między obszarami najczęściej się komunikującymi są jak najmniejsze.

Kiedyś jednak i takie obchodzenie ograniczeń technicznych będzie się musiało skończyć, bo nawet te wszystkie rozwiązania rodem z egzotycznej fizyki mają swoje limity – i możemy do nich dotrzeć szybciej, niż się ktokolwiek spodziewa. Oczywiście i tu pojawiają się pomysły, np. termodynamiczny koszt obliczeń mógłby zostać pokonany za pomocą tzw. odwracalnych obliczeń, w których komponenty systemu po wykonaniu operacji wracają do swojego oryginalnego stanu, pozwalając odzyskać część energii. Pierwsze takie rozwiązania już udało się opracować – tyle że działają w temperaturze 4 mikrokelwinów i raczej ciężko będzie je zrekonstruować w temperaturach pokojowych.

Fizyka nie jest jedynym źródłem fundamentalnych limitów, przypomina Markov, wskazując, że równie wiele ograniczeń bierze się z matematyki i ekonomii – i są to ograniczenia neutralne względem techniki. Takim neutralnym problemem jest np. kwestia paralelizmu, którego pomimo wszechobecności wielordzeniowych mikroprocesorów wciąż nie potrafimy efektywnie wykorzystywać, a nawet nie wiemy, gdzie dokładnie tkwią ograniczenia. Nierozstrzygnięte są również kwestie dalszego wzrostu złożoności oprogramowania czy wydajności pamięci podręcznych CPU, wiemy jednak, że wiele z tych limitów powinno się w sprytny sposób obejść.

Autor pozostaje więc ostrożnym optymistą, zauważając, że gdy zbliżamy się do danego limitu, konieczne jest zrozumienie jego podstawowych założeń. Wiele z tych limitów okazuje się bardzo „luźnych” i może być smiało ignorowana, podczas gdy inne wynikają wyłącznie z dowodów empirycznych i są bardziej postulatami, niż prawami. Szczegółowe badanie tych ograniczeń może pozwolić nam na jeszcze wiele lat niczym niezakłóconego postępu.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.