Ludzki spryt kontra fizyka: przed nami jeszcze wiele lat doskonalenia mikroprocesorów

Ludzki spryt kontra fizyka: przed nami jeszcze wiele lat doskonalenia mikroprocesorów

Ludzki spryt kontra fizyka: przed nami jeszcze wiele lat doskonalenia mikroprocesorów
24.08.2014 13:21, aktualizacja: 24.08.2014 15:17

Najpotężniejsze desktopowe mikroprocesory z rodziny Haswell-Epojawić się w sklepach mają jeszcze w tym miesiącu – i będąprawdopodobnie ostatnimi czipami wykonanymi w procesie 22 nm. Kolejnyszczebel drabiny, 14 nm czipy Broadwell, to kwestia miesięcy. Apotem? Ile rdzeni x86 można jeszcze wsadzić do niewielkiego czipu,do pracy z jaką częstotliwością je zmusić? Gdy myśleliśmy okresie ewolucji krzemowych czipów, myśleliśmy zwykle ofundamentalnych ograniczeniach fizycznych. Igor Markov z Universityof Michigan pokazuje nam, że znacznie wcześniej możemy napotkaćcoś, co z braku lepszej nazwy określić można jako fundamentalneograniczenia techniczne.

Oficjalnie wszyscy są optymistami. Jeśli zapytać inżyniera,czy to z Intela, czy z AMD, czy z Nvidii, czy z IBM, czy zktórejkolwiek innej firmy z mikroprocesorowej branży o to, ilejeszcze zdołamy podtrzymać ważność Prawa Moore'a (czy choćbypostęp w dziedzinie technik mikroprocesorowych), to powiedzą, żemamy jeszcze przynajmniej kilka dziesięcioleci przed nami. Na tosamo pytanie w ośrodkach akademickich można czasem nawet usłyszećodpowiedź, że zostały jeszcze nawet setki lat.

Nie jest to znowu takie nieuzasadnione. W teorii jednym z limitówklasycznej techniki półprzewodnikowej jest rozmiar atomu. Coprawda, na długo jednak zanim uda się tak zminiaturyzowaćtranzystory, zaczniemy tracić nad nimi kontrolę, jednak Intel, naszlider w dziedzinie miniaturyzacji, już przy okazji prac nadarchitekturą Broadwell rozpoczął prace nad taką przebudowąpodstawowych komponentów mikroprocesora, by działały w czipachwykonanych w procesach 10 nm i niższych.

W miarę zmniejszania tranzystora MOSFET, grubość warstwy dielektryka bramki (żółte) zmniejsza się do kilku atomów (źródło: Nature)
W miarę zmniejszania tranzystora MOSFET, grubość warstwy dielektryka bramki (żółte) zmniejsza się do kilku atomów (źródło: Nature)

W swojej opublikowanej w Nature (nr512 z 14 sierpnia) pracy pt. Limits on fundamental limits tocomputation, Igor Markovprzygląda się tym „miękkim” ograniczeniom w mikroelektronice,pojawiającym się na długo przed zbliżeniem się dofundamentalnych ograniczeń fizycznych i temu, jak do tej pory jeobchodzono, łącząc pomysłowość z możliwościami przynoszonymiprzez postęp w innych dziedzinach. Klasyczny tu przykład tooczywiście granica rozdzielczości Abbego, czyli rozmywanie sięszczegółów obserwowanego obiektu w momencie, gdy odległośćmiędzy nimi zbliżała się do długości fali świetlnej. Zgodnie znią używane w produkcji półprzewodników lasery argonowo-fluorowepowinny pójść do lamusa już przy fotolitografii w procesie 65 nm.Jednak wymyślenie asymetrycznych oświetleń i obliczeniowejlitografii, w której manipuluje się maską tak, by uzyskać ostrośćw wybranych miejscach, pozwoliło wykorzystać lasery te nawet wprocesie 14 nm. W dalszych etapach wciąż zostaje możliwośćwykorzystania np. laserów rentgenowskich. Podobne przykłady autorznajduje dla limitu na liczbę samodzielnych połączeń (którymożna obejść dzięki węglowym nanorurkom, łączom fotonicznymczy radiowym) czy limitu dla konwencjonalnych tranzystorów (któryzostał ominięty dzięki zmianie ich kształtu, wykorzystaniutrzeciego wymiaru).

Tranzystor FinFET: zredukowanie źródła, drenu i kanału do jednej cienkiej "płetwy" pozwala poszerzyć dielektryk (i łatwo wprowadzić kolejne "płetwy") (źródło: Nature)
Tranzystor FinFET: zredukowanie źródła, drenu i kanału do jednej cienkiej "płetwy" pozwala poszerzyć dielektryk (i łatwo wprowadzić kolejne "płetwy") (źródło: Nature)

Dziś w dalszym rozwojumikroprocesorów Markov widzi dwa takie techniczne limity – zużycieenergii i komunikację. Ten pierwszy wynika z tego, że ilośćenergii zużywanej przez obwody elektroniczne nie zależy liniowo odich rozmiarów. Tempo miniaturyzacji jest większe, niż tempozmniejszania zużycia energii, więc kolejne generacje czipów mającoraz większą „gęstość energetyczną”. By zaradzićproblemom z przegrzewaniem się, projektuje się coraz bardziejzłożone mechanizmy zarządzania zasilaniem, dzieli czipy na strefy,które mogą być niezależnie od siebie wyłączane, gdy nie sąakurat potrzebne. Już niebawem według autora dojdzie do momentu,gdy w dowolnym momencie 99% powierzchni mikroprocesora będzienieaktywna, tworząc w ten sposób tzw. „ciemny krzem”.

Ten efekt zauważyli już badaczez Microsoftu i IBM, ogłaszając rychły koniec powiększania liczbyrdzeni. Coraz większe bowiem obszary czipu są wolne odtranzystorów, by pomóc w trasowaniu sygnałów, zasilaniu itp,coraz więcej też bramek nie przeprowadza żadnych użytecznychobliczeń, ale służy jedynie wzmocnieniu długich, słabychpołączeń lub spowolnieniu połączeń zbyt krótkich. Jużdzisiaj, jak wyjaśnia Markov, 50-80% wszystkich bramek wwysokowydajnych obwodach służy wyłącznie przekazywaniu sygnałów.

Rozwiązanie – przynajmniej nanajbliższe lata – mogłoby się wiązać ze zmniejszeniem napięćzasilających. Mamy do czynienia z twardą fizyczną granicą, rzędu200 mV, ale obecnie elektronika działa na poziomie ok. 1 V, więcwydawałoby się, że sporo jeszcze można tu osiągnąć, jednak itutaj w ostatnich latach postęp w tej kwestii niemal zamarł,sugerując, że mamy do czynienia z kolejnym „miękkim”ograniczeniem.

Z kwestią energetyczną wiążesię bezpośrednio kwestia wewnętrznej komunikacji w czipie – gdyliczba tranzystorów w czipie rośnie, to wraz z nią rośnie liczbaniezbędnych połączeń. Większość energii zostaje zużyta nie naobliczenia, ale na skomunikowanie ze sobą poszczególnych obszarówmikroprocesora i mikroprocesora z pozostałymi elementami komputera.Dochodzimy w ten sposób do ciekawej bariery w zwiększaniuczęstotliwości zegara, o której wcześniej nie pomyśleli nawetnajwięksi informatycy. Pojedynczy takt zegara dziś jest zbytkrótki, by sygnał mógł dotrzeć z jednego końca czipu na drugi.W ciągu 200 pikosekund (częstotliwość 5 GHz) światło przebywa wpróżni ok 2,74 cm. By sobie z tym jakoś poradzić, pozostaje namkonstruowanie trójwymiarowych czipów, w których odległościmiędzy obszarami najczęściej się komunikującymi są jaknajmniejsze.

Kiedyś jednak i takieobchodzenie ograniczeń technicznych będzie się musiało skończyć,bo nawet te wszystkie rozwiązania rodem z egzotycznej fizyki mająswoje limity – i możemy do nich dotrzeć szybciej, niż sięktokolwiek spodziewa. Oczywiście i tu pojawiają się pomysły, np.termodynamiczny koszt obliczeń mógłby zostać pokonany za pomocątzw. odwracalnych obliczeń, w których komponenty systemu powykonaniu operacji wracają do swojego oryginalnego stanu, pozwalającodzyskać część energii. Pierwsze takie rozwiązania już udałosię opracować – tyle że działają w temperaturze 4mikrokelwinów i raczej ciężko będzie je zrekonstruować wtemperaturach pokojowych.

Fizyka nie jest jedynym źródłemfundamentalnych limitów, przypomina Markov, wskazując, że równiewiele ograniczeń bierze się z matematyki i ekonomii – i są toograniczenia neutralne względem techniki. Takim neutralnym problememjest np. kwestia paralelizmu, którego pomimo wszechobecnościwielordzeniowych mikroprocesorów wciąż nie potrafimy efektywniewykorzystywać, a nawet nie wiemy, gdzie dokładnie tkwiąograniczenia. Nierozstrzygnięte są również kwestie dalszegowzrostu złożoności oprogramowania czy wydajności pamięcipodręcznych CPU, wiemy jednak, że wiele z tych limitów powinno sięw sprytny sposób obejść.

Autor pozostaje więc ostrożnymoptymistą, zauważając, że gdy zbliżamy się do danego limitu,konieczne jest zrozumienie jego podstawowych założeń. Wiele z tychlimitów okazuje się bardzo „luźnych” i może być smiałoignorowana, podczas gdy inne wynikają wyłącznie z dowodówempirycznych i są bardziej postulatami, niż prawami. Szczegółowebadanie tych ograniczeń może pozwolić nam na jeszcze wiele latniczym niezakłóconego postępu.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (66)