Nasze komputery są zbyt tanie, aby usprawiedliwić dalszą miniaturyzację

Strona główna Aktualności

O autorze

Każdy kto interesuje się elektroniką i komputerami zapewne kojarzy Prawo Moore’a, zgodnie z którym ekonomicznie optymalna liczba tranzystorów w czipie podwaja się w równych odcinkach czasu. Sformułowana w 1965 roku przez założyciela firmy Intel zasada w ostatnich latach zaczęła zawodzić. Do tej pory napędzała ją miniaturyzacja – stosowanie coraz mniejszych elementów w produkcji czipów. Oczywiście zdawano sobie sprawę, że w pewnym momencie dojdziemy do kresu możliwości dalszej miniaturyzacji, ale kres ten wywodzono z fizyki, zakładając że do jego osiągnięcia zostało jeszcze trochę czasu. Niestety, wygląda na to, że na długo przed barierą wynikającą z fizyki, rozbiliśmy się o barierę wynikającą z ekonomii. Mówiąc dosadnie – przyzwyczailiśmy się do zbyt tanich komputerów.

Intel, wieloletni lider wyścigu miniaturyzacyjnego, stoi pod ścianą. Podczas prezentacji wyników za pierwszy kwartał tego roku, firma z Santa Clara musiała ogłosić, że masowa produkcja mikroprocesorów w procesie 10 nm rozpocznie się dopiero w 2019 roku, choć pierwotnie była planowana na 2018 rok. Intelowi pozostaje dalej dłubanie w procesie 14 nm – kolejny krok w miniaturyzacji okazał się daleko trudniejszy, niż ktokolwiek się spodziewał. Owszem, czipy 10 nm już powstają, ale w bardzo niewielkich ilościach. Pomimo starań inżynierów i wielomiliardowych inwestycji nie udało się zwiększyć produkcji do opłacalnego poziomu.

Próbując jakoś wytłumaczyć ten fatalny stan rzeczy, przedstawiciele Intela zwalili sprawę na litografię w ekstremalnym nadfiolecie (EUV), a raczej jej brak – proces 10 nm miał być ostatnim, który korzysta z tradycyjnej fotolitografii, gdzie źródłem światła jest wciąż argonowy laser o długości fali 193 nm. By z takiego światła uzyskać na krzemowym waflu odpowiednio małe elementy, konieczne jest wielokrotne naświetlanie (multi-patterning) przez maski o naprzemiennie umieszczonych szczegółach. Zwiększa to liczbę naświetleń wafla, a co za tym idzie, szansę na to, że coś pójdzie nie tak.

Nic więc dziwnego, że niemal wszystkie procesory Core 8. generacji wykonywane są wciąż w procesie 14 nm (czy też jak to Intel określa, 14 nm++, by podkreślić, że to i owo zostało ulepszone). Właściwie jedynym czipem 10 nm, jaki może trafić w ręce zwykłych ludzi, jest obecnie Core i3-8121U, przeznaczony do laptopów dwurdzeniowy procesor o TDP 15 W i taktowaniu 2,2-3,2 GHz. Szału nie ma. Co najciekawsze, zintegrowanej grafiki Intela też nie ma.

Czyli co, musimy przeczekać te ostatnie męczarnie z klasyczną fotolitografią, a potem gdy już litografia w ekstremalnym nadfiolecie stanie się codziennością fabrykacji, będziemy cieszyć się czipami zrobionymi w procesach 7, 5, a nawet 3 nm? Tak by mogło się wydawać ze slajdów nie tylko Intela, ale i jego konkurentów – Global Foundries, TSMC czy Samsunga. Wszyscy oni robią co mogą, by wprowadzić EUV do swoich fabryk, bo dla wszystkich jest jasne, że inaczej już się nie da.

Tyle że wcale tak dobrze nie ma, EUV nie będzie cudownym lekarstwem na bolączki dalszej miniaturyzacji. Na łamach specjalistycznego serwisu Semiconductor Engineering opublikowany został artykuł pt. Big Trouble at 3 nm. Ujawnia on problem niezwiązany z fizyką, który może pogrzebać na dobre prawo Moore’a. Po prostu nikogo nie będzie stać na projektowanie bardziej zminiaturyzowanych czipów.

Tak jak rosła bowiem liczba tranzystorów w równych odcinkach czasu, tak też rosły koszty kolejnych etapów miniaturyzacji. Zaprojektowanie procesora w procesie 65 nm kosztowało „zaledwie” 28,5 mln dolarów. Projekt czipu w procesie 22 nm, stosowanym np. w Core 4. generacji (Haswell), kosztował już ponad 70 mln dolarów. Cena zaprojektowania najtańszych procesorów w procesie 5 nm ma wynieść około 500 mln dolarów. Najdroższych, takich jak zaawansowane GPU, ponad 1,5 mld dolarów.

Ile będzie kosztował czip w procesie 3 nm? Na pewno wielokrotnie więcej. Handel Jones, dyrektor wykonawczy firmy analitycznej International Business Strategies mówi, że opracowanie projektu czipu w procesie 3nm będzie kosztowało 4-5 mld dolarów, a za linię produkcyjną zdolną produkować około 40 tys. wafli miesięcznie trzeba będzie zapłacić 15-20 mld dolarów.

Tak więc nawet jeśli producenci w teorii wiedzą, jak mogliby wprowadzić na rynek nanoarkusze i nanowłókna krzemu, które miałyby zastąpić „płetewkowe” tranzystory FinFET, to ludzie odpowiedzialni za ich finanse kompletnie nie wiedzą, skąd na to wziąć pieniądze. Nie są też pewni, czy warto ich szukać. Już nas tu dotknęło prawo malejących przychodów. E.S. Jung, wiceprezes fabów Samsunga tłumaczy: przed osiągnięciem 14 nm osiągaliśmy 30% wzrost stosunku ceny/wydajności względem poprzedniego szczebla. Od 14 nm do 10 nm wzrost tego parametru spadł do trochę ponad 20%. Przy 3 nm w najlepszym razie będzie to wzrost o 20%.

Kto za to zapłaci, szczególnie w sytuacji, gdy sprzedaż komputerów spada, a marże producentów w warunkach znów bezlitosnej konkurencji coraz mniejsze? Analitycy przewidują, że możemy zobaczyć już niebawem coś wcześniej niewyobrażalnego: zaprzestanie dalszego miniaturyzowania procesorów. Faby mogą wręcz wrócić do starych procesów, ulepszając je dzięki nowym technikom produkcji, uzyskując znacznie atrakcyjniejszy stosunek ceny do możliwości. Coś takiego ostatnio zrobiło Global Foundries, oferując klientom proces 22 nm, znacznie tańszy niż wcześniej oferowany 14 nm FinFET.

Można więc zaryzykować stwierdzenie, że jeśli te poniżej 10 nm czipy stworzone w ekstremalnym nadfiolecie gdziekolwiek się pojawią, to na pewno nie w naszych domowych pecetach. Prędzej już zobaczymy je w serwerach napędzających ogromne chmury obliczeniowe, coraz częściej wykorzystywane do uruchamiania sztucznej inteligencji i maszynowego uczenia. Tylko te szybko rosnące rynki, gdzie decydentów nie przeraża wyłożenie tysięcy dolarów na serwerowy czip, mogą usprawiedliwić nakłady finansowe na tak zaawansowanych czipów projektowanie i produkcję.

© dobreprogramy