AMD Radeon R9 Fury X: test godnego kandydata do tytułu najmocniejszej karty graficznej

Strona główna Lab Komponenty i akcesoria

O autorze

Małe jest piękne – to wyświechtany slogan, ale w tym wypadku całkiem trafny. Najwydajniejsza karta graficzna, jaką zdołało do tej pory stworzyć AMD, od początku przykuwa uwagę wyglądem. Wzornictwo Radeona Fury X, zamkniętego w obudowie ze zintegrowanym systemem chłodzenia cieczą, odbiega i rozmiarami i estetyką od tego, do czego przyzwyczajały nas kolejne generacje flagowych kart graficznych. Także i jej wydajność powinna być spektakularna, zarówno za sprawą nowego GPU Fiji, jak i innowacyjnej pamięci HBM. Czy jednak słupki na wykresach z pięknych slajdów, przygotowywanych przez dział marketingu AMD rzetelnie opisują możliwości tego przecież nietaniego produktu? Przez ostatnie dni mieliśmy okazję w redakcji dobrychprogramów bliżej zapoznać się z Fury X, a także porównać ją z bezpośrednim konkurentem – GeForce GTX 980 Ti od Nvidii. Zapraszam do zapoznania się z recenzją.

Gdy po raz pierwszy w tym roku usłyszeliśmy o zupełnie nowych flagowych Radeonach, spodziewaliśmy się… no właśnie, czego? Niektórzy mówili nawet o tak wyczekiwanej miniaturyzacji, skończeniu z wykorzystywaną od lat litografią 28 nm. Nowe karty AMD miały też zaprezentować światu zupełnie nowy rodzaj pamięci o wysokiej przepustowości, za sprawą której wciąż uwiązane do starego GDDR5 karty Nvidii zostałyby pod względem wydajności daleko w tyle.

Fiji – olbrzym ograniczony miniaturyzacją

Rzeczywistość okazała się trochę inna. Plany związane z procesem 20 nm zawiodły, tak dla AMD jak i Nvidii. Mimo że mamy 2015 rok, obaj producenci kart graficznych dalej zmuszeni są bawić w litografię 28 nm. Efekt takiego stanu rzeczy jest jasny – nowe GPU są bardzo duże. Zastosowany w Fury X procesor Fiji XT ma powierzchnię 596 mm2. Dodajmy do tego cztery warstwy pamięci HBM, osadzonej na wspólnej z GPU warstwie pośredniczącej (interposerze) – i w rezultacie mamy naprawdę spory kawałek elektroniki. Tak duży czip oznacza zastosowanie wyższych napięć, zastosowanie wyższych napięć to większe ciepło, większe ciepło trzeba jakoś odprowadzić – i tu ukłon w stronę czerwonych, że w swojej nowej flagowej karcie domyślnie zastosowali chłodzenie cieczą, znacznie efektywniejsze niż układ wentylatorów referencyjnej karty GTX 980 Ti.

Przyjrzyjmy się bliżej samemu czipowi Fiji. Rzut oka na diagram architektury pokazuje, że czerwoni nie odeszli daleko od rozwiązań przyjętych w GPU Hawaii. Widzimy cztery silniki shaderów, z których każdy ma własny procesor geometrii i rasteryzer, oraz po cztery backendy renderowania. Wzrosła jednak liczba jednostek obliczeniowych w każdym silniku, z 11 do 16. W ten sposób z 64 shaderami na jednostkę obliczeniową, w każdym z silników mamy 1024 shadery, czyli łącznie 4096 na cały procesor graficzny. Wzrosła także liczba jednostek teksturujących, po cztery na jednostkę obliczeniową dają nam łącznie 256 w całym czipie, niemal półtora razy więcej, niż w Hawaii.

Jeśli ktoś jeszcze jednak pamięta problemy, jakie miało Hawaii, to może zastanowić się nad wąskim gardłem nowego czipu. Wydajność przyjętej wtedy architektury ograniczać miała przede wszystkim szerokość 512-bitowej szyny pamięci, nawet na operacjach na grafice z 8-bitową na kanał głębią koloru. Czy to samo nie czeka Fiji? Tak by pewnie było, szczególnie przy powiększonej liczbie shaderów i jednostek teksturujących, gdyby nie pamięć o wysokiej przepustowości i nowe mechanizmy kompresji koloru. Po prawdzie, Fiji mogłoby być jeszcze wydajniejsze… tyle że wówczas nie zmieściłoby się na płytce interpozera. Ponownie podziękujmy procesowi 28 nm.

Zanim przejdziemy do największej innowacji, warto wspomnieć jeszcze o rdzeniach Graphics Core Next. Oznaczone wciąż jako GCN 1.2, przynoszą drobne ulepszenia w stosunku do tego, co pokazano w procesorach Tonga, m.in. ulepszenia wydajności teselacji, wspomnianą już bezstratną kompresję zawartości bufora dla operacji zapisu i odczytu oraz podwojenie rozmiaru pamięci podręcznej L2 do 2 MB. Jeśli chodzi o układy IP, to większych zmian nie ma, zaktualizowano jedynie silnik dekodowania wideo, który zapewnia teraz sprzętową akcelerację dla kodeka HEVC. Wszystko to zostało zrealizowane za pomocą 8,9 mld tranzystorów. Łącznie nowe GPU zapewnia 8,6 TFLOPS mocy obliczeniowej (oczywiście w trybie pojedynczej precyzji). Do zastosowań inżynierskich Fiji nie bardzo się nadaje, jego wydajność w podwójnej precyzji ograniczona jest do niespełna 538 MFLOPS.

Trzy wymiary pamięci, szkoda że tylko cztery gigabajty

Fiji z pamięcią GDDR5 szybko by się zadławiło. HBM zmieniło sytuację. Karta Fury X pochwalić się może przepustowością pamięci na poziomie nawet 512 GB/s. By osiągnąć taki wynik w starej konstrukcji, trzeba byłoby ją przetaktować do granic możliwości (i chłodzenia azotem), tu jednak jest to zasługa nowej architektury – zegar pamięci to zaledwie 500 MHz. Jak zapewne wiecie, w konstrukcji HBM wykorzystywane są obecnie cztery warstwy DRAM, ułożone jedna nad drugą. Każda warstwa ma po parze 128-bitowych kanałów, dając łącznie 1024-bitową ścieżkę.

Ale zaraz, w specyfikacji technicznej mowa była o 4096-bitowej szerokości, więc czemu piszę o 1024 bitach? Po rozmowach z ludźmi z AMD doszedłem do wniosku, że mamy tu do czynienia z pewną nieścisłością. Na każdej warstwie DRAM mamy po dwie partycje pamięci podłączone 128-bitowymi kanałami, o przepustowości 128 GB/s, a więc osiem z nich daje 1024-bitowy interfejs. Jednak każdy z kontrolerów pamięci jest niezależnie taktowany i obsługiwany, więc podłączone do GPU cztery zestawione pakiety pamięci HBM dają łącznie 4096-bitową przepustowość, przekładającą się właśnie na te 512 GB/s. Nie potrzebujemy tu ogromnych taktowań jak w GDDR5, gdyż te warstwy DRAM są połączone także w pionie, przez tzw. TSV (Through Silicon Via), dzięki którym w jednym cyklu przekazać można nawet ośmiokrotnie więcej danych.

HBM ma swoje zalety, ma też swoje wady. Zaletami, oprócz ogromnej przepustowości, są też b. małe opóźnienia i nawet o 50% mniejsze zużycie energii. Wadą jest oczywiście cena procesu technologicznego, nowego i przez to ograniczonego tylko do produktów z górnej półki (w pozostałych Radeonach z serii 300 wciąż mamy stare GDDR 5). Znacznie poważniejszą wadą jest ilość pamięci. HBM pierwszej generacji ma 4 GB i ani bajta więcej. W porównaniu do 6 GB pamięci na 980 Ti, nie mówiąc już o monstrualnych 12 GB na Titanie X, może wydawać się to mało (tym bardziej, że „zwykły” Radeon 390X ma 8 GB GDDR5) – i faktycznie, jak przekonałem się w trakcie testów, już dzisiaj 4 GB może niekiedy nie wystarczyć, a co dopiero za 2-3 lata? W końcu kart graficznych za kilka tysięcy złotych większość osób nie kupuje na rok. W teorii można problem ten rozwiązać za pomocą efektywniejszego zarządzania pamięcią na poziomie sterowników i kodu gier, ale wszyscy wiemy, jak dziś wydawcy gier garną się do optymalizacji pod Radeony.

Póki co jednak w wypadku wymagających pod względem pamięci gier możemy mieć problem. HBM jest oczywiście dużo szybsze od GDDR5, ale jeśli gra zostanie zmuszona do przeniesienia danych nie mieszczących się w 4 GB pamięci karty do pamięci operacyjnej komputera, to zapomnijmy o 512 GB/s – zostanie nam 16 GB/s przepustowości magistrali PCIe.



DirectX 12: wsparcie wsparciu nierówne

Kto nie czeka na nową wersję biblotek graficznych Microsoftu? Nawet taki redmondosceptyk jak ja chętnie by pograł w gry pisane na nową bibliotekę – bo już po demach widać, że będą potrafiły dopieścić oko. Jak na tym tle wypada Fury X? Odpowiedź brzmi: to zależy. Deklaracje, że wszystkie dostępne w sprzedaży karty graficzne będą DirectX 12 wspierać, są bowiem niewiele warte. Owszem, nowe gry na nich uruchomicie, ale niewiele więcej. W wypadku Radeonów wszystko zależy zastosowanej od wersji architektury GCN. AMD zaś zrobiło wszystko, by kwestia ta była zagmatwana.

API Direct3D 12 wprowadza bowiem trzy poziomy wsparcia: 11_1, 12_0, oraz 12_1. W wypadku Radeonów wykorzystujących architekturę GCN 1.0 obsługiwany jest tylko poziom 11_1. Radeony z GCN 1.1 oraz 1.2 (czyli nasze Fury X) obsługują poziom 12_0. Żaden współczesny Radeon nie obsługuje poziomu 12_1, dziś radzą sobie z nim jedynie najnowsze Maxwelle Nvidii (z serii 900). Nie jest to poważny niedostatek, na poziomie 12_0 dostępne są już najważniejsze dodatkowe mechanizmy API, tj. Tiled Resource, Bindless i Typed UAV Access, ale nowe GeForce wypadają tu lepiej, dostarczając wsparcie dla mechanizmów Raster Order Views, Conservative Raster oraz Volume Tiled Raster. Przynoszą one ulepszenia w porządku rysowania obiektów na scenie, stapianiu, przezroczystości, antyaliasingu i efektywnym wykorzystaniu kafelkowanych tekstur.

Tu mała dygresja na temat nowej karty od AMD, która może rozczarować swoich nabywców. Mam na myśli Radeona R9 370, który wykorzystuje stare rdzenie GCN 1.0. Nowiutka karta wspiera więc jedynie podstawowe funkcje DirectX 12, gorzej niż karty sprzed 2-3 lat. Oczywiście OEM-om nie przeszkadza to w umieszczaniu na pudełku informacji o „wsparciu DX12”. GTX 960 też wspiera DirectX 12, jednak na daleko wyższym poziomie. I znając praktyki handlowe Nvidii możemy się spodziewać, że gry w przyszłości, szczególnie te korzystające z middleware GameWorks, będą te niedostępne dla Radeonów funkcje DX12 wykorzystywać do granic możliwości.

Chłodno ale głośno

Swoje pierwsze doświadczenia z chłodzeniem cieczą AMD zdobyło przy karcie Radeon R9 295X. Ta ciekawa, wymagająca, dwuprocesorowa konstrukcja wykorzystywała krążącą w zamkniętym obiegu ciecz, z wyprowadzonym na zewnątrz blokiem radiatora i wentylatora. Całość oczywiście bezobsługowa, nie wymagająca podpinania dodatkowego zasilania. W Radeonie Fury X mamy do czynienia z ulepszoną wersją tamtego rozwiązania, estetycznie ładniejszą za sprawą oplotu pokrywającego gumowe węże. Mają one 40 cm długości, więc jak ktoś chce, może radiator zainstalować nawet na zewnątrz obudowy.

Swoje zadanie zastosowany system chłodzenia wypełnia bardzo dobrze. Na jałowym biegu (oznaczonym świeceniem jednej diody wskaźnika obciążenia) Radeon R9 Fury X zgłosił zaledwie 26 °C. Po 10 minutach maksymalnego obciążenia – uruchomiony benchmark gry Tomb Raider, ustawienia ekstremalne, rozdzielczość 2160p – zaledwie 50 °C. Pewnie jesteście ciekawi, jak wypada tu karta konkurencji? Cóż, zielone było zdecydowanie gorętsze, na jałowym biegu 31 °C, pod takim samym benchmarkowym obciążeniem aż 82 °C.

O ile pomiar temperatury to nie problem, to zmierzenie hałasu generowanego przez kartę już takie łatwe nie jest. Dysponujemy co prawda profesjonalnym miernikiem natężenia dźwięku (Extech 407730, zapewniający dokładność pomiaru na poziomie ±2dBA), ale brakuje nam dźwiękoszczelnej komory, dzięki której można byłoby uniknąć ulicznych szumów i innych zaburzeń. Mierzyłem głośność karty zainstalowanej na „gołej” płycie, bez obudowy, z odległości 40 cm, tak więc w zmontowanym gamingowym, wyciszonym PC sytuacja powinna być lepsza.

Głównym źródłem hałasu powinien być układ pompki cieczy. Normalnie niesłyszalny, pod testowym obciążeniem staje się dokuczliwy nawet przy odnotowanej głośności 34 dBA, ze względu na częstotliwość – pisk 2 kHz (wirnik pompy wyrabia 2 tys. RPM) leży w paśmie dobrze słyszalnym dla ludzi. Powinien, ale nie jest. Znacznie bardziej hałasował bowiem wentylator umieszczony na radiatorze, pod maksymalnym obciążeniem sięgając 54 dBA. To dużo za dużo, nawet jak na chłodzenie cieczą. Dla porównania, chłodzony powietrzem 980 Ti uzyskał 44 dBA. AMD zapewnia nas, że to problem uszkodzonego inżynieryjnego sampla, który otrzymaliśmy do testów, w kartach „produkcyjnych” ma być znacznie ciszej.

Stanowisko AMD potwierdzają niezależne oceny renomowanych serwisów poświęconych testom sprzętu, w których głośność Fury X pod pełnym obciążeniem była bardzo bliska tego, co osiągała karta Nvidii – z różnicami na poziomie ±3dBA. Warto jednak zauważyć, że GeForce 980 Ti chłodzony jest powietrzem, więc zrównanie z nim nie jest dla AMD powodem do dumy. Nasza platforma testowa z procesorem Core i5 wykorzystuje referencyjny intelowski układ chłodzenia cieczą wykonany przez Aseteka, który nawet pod największymi obciążeniami jest praktycznie niesłyszalny.

A jeśli przeszkadzać Wam będzie głośna praca pompki, to możecie swój egzemplarz wymienić, na nieco ulepszony. Firma wydała oficjalne oświadczenie w tej sprawie, w którym przyznaje się, że mogłoby być lepiej i zapewnia, że kolejne egzemplarze karty otrzymały lepszą izolację akustyczną.

Warto wreszcie wspomnieć o poborze energii. Cała testowa platforma z Fury X na jałowym biegu pobierała 70 W, w porównaniu do 56 W z 980 Ti. Pod maksymalnym obciążeniem (wspomniany benchmark) zestaw z kartą AMD pobierał 370 W, zaś z kartą Nvidii 322 W. Czy to oznacza, że oprócz drogiej karty, przyjdzie płacić drogie rachunki z elektrowni? Dzięki wprowadzonej w Radeonach serii 300 funkcji Frame Rate Targeting Control tak być nie musi. Pozwala ona na sztywno ustawić liczbę klatek na sekundę generowanych przez kartę graficzną, by nie marnować energii na wyświetlanie klatek, których i tak nie zobaczymy. W ten sposób w TombRaiderze w rozdzielczości FullHD przy pełnych detalach, po ustawieniu sztywnego 60 FPS, zużycie energii przez cały zestaw spadło do 195 W, podczas gdy bez takiego ograniczenia karta pobierała ok. 320 W.

Po co komu granie w 4K?

W ten sposób doszliśmy do najważniejszej kwestii – tego, co faktycznie potrafi Radeon R9 Fury X. W końcu nikt nie zapłaci co najmniej 3 tys. złotych za kartę graficzną tylko dlatego, że ładnie wygląda. Linuksowych benchmarków tym razem nie będzie, niestety AMD do dziś nie dostarczyło działających na „pingwinie” sterowników, które obsługują procesory Fiji. Po raz kolejny okazuje się, że w przeciwieństwie do Nvidii, AMD wciąż traktuje Linuksa jako system drugiej kategorii. Dostępne dla Windows sterowniki, pod którymi przeprowadziłem testy nosiły numer 15.15 beta.

Testy przeprowadziłem w trzech rozdzielczościach, mimo że początkowo tego wcale nie chciałem. Granie w 4K nie wydaje się mieć moim zdaniem większego sensu z perspektywy fizjologii widzenia i higieny wzroku, no ale co kto lubi. AMD naciskało jednak, byśmy testy koniecznie przeprowadzili w 4K (2160p), dostaliśmy do tego trzydziestocalowy monitor 4K od LG, dopełnił on zestawu – gamingowego monitora 1440p od Asusa z obsługą mechanizmu FreeSync oraz bardzo zwykłego monitora 1080p. Co gorsza, ten monitor 4K niespecjalnie nadawał się do grania, był profesjonalnym sprzętem dla grafików, z ustawionym odświeżaniem ekranu 30 Hz. Efekt był niepiękny, ale na potrzeby benchmarków musiał wystarczyć.

Zacząłem od gry kojarzonej wręcz z Radeonami (dziękuję Krzysztofowi Fiedorowi za użyczenie swojego konta na Origin). Battlefield 4 powinien być wzorcową grą, wykorzystującą niskopoziomowy interfejs Mantle. Niestety gra po ustawieniu na Mantle działała na Fury X niestabilnie, co ciekawe z gorszą wydajnością niż na DirectX 11. Co się okazuje? Konkurent od Nvidii wyraźnie wygrał w każdej rozdzielczości – im mniejszej, tym przewaga GeForce była większa. Ta sytuacja powtarzała się zresztą w większości gier. Wiadomo, nikt nie kupuje kart za 3 tys. złotych do grania w 1080p, ale jednak słabe wyniki Fury X w tej rozdzielczości każą się zastanowić, czemu karta AMD tak dziwnie się skaluje.

Kolejne popularne gry to Bioshock Infinite oraz Far Cry 4. W pierwszej z nich Radeon szedł łeb w łeb z GeForce, a pod względem minimalnej liczby klatek na sekundę nawet nieco wyprzedzał zielonego konkurenta. W drugiej już tak dobrze nie było, choć ponownie – im wyższa rozdzielczość, tym różnice wobec GeForce mniejsze.

W kultowym już Wiedźminie 3 wyniki zielonego (jak można się spodziewać) były lepsze. Oczywiście technologia HairWorks została wyłączona, po jej włączeniu sytuacja dla czerwonych jest jeszcze gorsza. W rozdzielczości 4K Fury X zdołał jednak zremisować. Zaskoczyło mnie jednak, że GeForce wypadł też lepiej w grze mocno kojarzonej z AMD, czyli Tomb Raiderze 2013 (przy wyłączonych włosach TressFX).

Powyższe gry mnie osobiście mało interesują. Ukłon dla miłośników strategii, kolejna gra optymalizowana pod Mantle, Civilization: Beyond Earth – i ponowne problemy z Mantle. Pod kontrolą DirectX 11 karta Nvidii okazała się lepsza, choć w rozdzielczości 4K niemal zremisowała. Na koniec za to warto wspomnieć o Talos Principle, w którą ostatnio sam mam przyjemność grać – tutaj już Fury X zdołało wygrać z zielonym.

Z testów wyleciały dwie gry, które miały się tu znaleźć. Pierwsza to GTA V, który po ostatniej łatce drastycznie pogorszył swoje wyniki pod kartami AMD i działał na Fury X niezbyt stabilnie, oraz GRID: Autosport, który z kolei niestabilnie zachowywał się na GeForce (dając przy tym zdecydowane zwycięstwo Radeonowi). Po raz kolejny widać, jak bardzo wyniki uzyskane w takich testach związane są z konkretną wersją sterowników i kolejnymi łatkami gier.

Dla zainteresowanych jeszcze wyniki popularnego testu syntetycznego, czyli 3DMark FireStrike. Jak widać i tutaj im trudniejsza sytuacja, tym Fury X sobie lepiej radzi. Nie dziwi, że AMD było tak zainteresowane przeprowadzeniem testów w 4K. Czy granie w 4K na gamingowych monitorach o przekątnej nie przekraczającej zwykle trzydziestu cali ma sens – na to odpowiedzieć musicie sobie sami. Moim zdaniem jest to po prostu zbyt kosztowna zabawa, a może wręcz ślepy zaułek grania na PC. O wiele lepiej byłoby skupić się na rozdzielczości 1440p, wirtualnej rzeczywistości, wysokich FPS-ach, niż mordowaniu 28-nanometrowych układów pompowaniem ogromnej ilości grafiki kosztem dużej ilości energii.

Na koniec kilka słów o overclockingu tej karty. Dostępne dziś narzędzia do łatwego podkręcania, takie jak MSI Afterburner, jeszcze układów Fiji nie obsługują, ale pojawiły się już triki, dzięki którym co nieco można uzyskać te kilka FPS dodatkowo w grach. Rdzeń udało mi się stabilnie podkręcić do 1105 MHz, a pamięć do 540 MHz, to przełożyło się na 2 FPS więcej w Wiedźminie 3 w 1440p.

Podsumowanie: sukces rzutem na taśmę

AMD stworzyło bardzo ciekawą kartę, wyciskając ze starego procesu technologicznego 28 nm i architektury GCN 1.2 chyba wszystko, co było możliwe, wprowadzając zupełnie nowy rodzaj pamięci i dostarczając entuzjastom gier pięknej pod względem wzornictwa konstrukcji, ze zintegrowanym ciekłym chłodzeniem. Czy jednak to wystarczy, by rzucić wyzwanie flagowej karcie Nvidii? Karta jest „cool”, zarówno pod względem wyglądu, jak i temperatur pracy, i na pewno osiąga zamierzone jej przez AMD cele – to świetny produkt do grania w 4K.

Jak już wspomniałem, nie bardzo rozumiem, po co komu jednak granie w takich rozdzielczościach, szczególnie na niedużych przecież ekranach komputerowych monitorów. Oczywiście można pomyśleć o podłączeniu dużego telewizora 4K o przekątnej 55” (a może i większego), ale AMD jakby zapomniało o złączu HDMI 2.0, niewiele zaś telewizorów ma wejście DisplayPort.

Mała i piękna obudowa przestaje zaś być taka mała, gdy sobie przypomnimy, że gdzieś ten radiator z wentylatorem trzeba umieścić. Teraz pomyślmy, co powiedzieć mieliby ekstremiści zainteresowani wsadzeniem do obudowy dwóch takich kart, spiętych w CrossFire. Jest to nowe podejście do projektowania, które od budujących swoje gamingowe PC będzie wymagało pewnej kreatywności. Ja mogę tylko powiedzieć, że w naszym testowym PC już jeden system chłodzenia cieczą dla CPU mamy – wsadzić radiator drugiego po prostu nie ma gdzie.

Niepokoi niepełne wsparcie dla DirectX 12. Znając Nvidię, wykorzysta ona każdą przewagę konkurencyjną, jaką będzie mogła – w tym też postara się, by nowe gry korzystały na PC ze wszystkich możliwości oferowanych przez niskopoziomowy interfejs Microsoftu. Niepokoi też 4 GB pamięci, której łatwo nie będzie można zwiększyć. Jak pokazały nieciekawe doświadczenia z GTA V, nie jest wcale trudno wyjść poza taką ilość, można sobie wyobrazić, że w grach roku 2016 i 2017 oczekiwanie 6 GB i więcej dla ekstremalnych ustawień będzie czymś normalnym.

I tak oto nowy król Radeonów ledwo ledwo, ale mimo wszystko zdołał nawiązać równorzędną walkę z GeForce, znacząco wyprzedzając GTX980 i lądując bezpośrednio obok 980 Ti. To dziś dwie najwydajniejsze karty graficzne na rynku, pomijając wyniki dla rozdzielczości 1080p w zasadzie nieodróżnialne w wielu grach. By przekonać zamożniejszych fanów czerwonych do jej zakupu nie trzeba znowu tak wiele – może jakaś ciekawa oferta wiązana z monitorami 1440p z FreeSync, może jakieś zestawy załączonych gier, może wreszcie obniżka ceny, by była bardziej konkurencyjna względem GeForce.

© dobreprogramy
s