Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Test Gigabyte Radeon R9 380 4GB (GV-R938G1 GAMING-4GD )

Radeon HD7790 jest kartą tanią i jak na kwotę za jaką można zakupić tę kartę jest świetna, relatywnie wydajna. Na wydajność tej karty ani trochę nie narzekam, jedynym jej mankamentem była w przypadku niektórych gier zbyt mała ilość VRAMU, zamiast dać 100zł więcej za wersję z 2GB pamięci zakupiłem wersję 1GB. W przypadku najnowszych gier 1GB VRAMU często jest zbyt małą ilością i dlatego pewnego dnia zacząłem rozważać zakup nowej karty. Rozważania te naszły mnie na długo przed premierą serii Rx 3xx, plany na zakup zmieniały się z biegiem czasu. Wstępnie, nie wiedząc nic o nowej serii poza tym, że kiedyś tam wyjdzie, zakładałem zakup R9 380x. Potem gdy dowiedziałem się, że w nowych kartach ma pojawić się nowy typ pamięci założyłem, że zakupię najtańszą dostępną kartę z pamięcią HBM, niestety, finalnie najtańsza karta z HBM jest daleko poza moim zasięgiem ekonomicznym. Ostatecznie pozostało mi dokonać wyboru z niższych segmentów i tak finalnie decyzja zapadła i wyborem który ma mnie uszczęśliwiać przez kolejne 2-3 lata ma być R9 380. Jako konkretną wersję od konkretnego producenta wybrałem Gigabyte, z przyzwyczajenia, bo od lat używam ich sprzętu (płyty główne i karty graficzne u mnie i klientów) i nigdy mnie nie zawiodło. Wybrałem wersję z 4GB VRAM ponieważ po karcie z niedoborem pamięci chciałem mieć kartę która ma zapas pamięci ;-)

Gdy w końcu dokonałem zakupu i karta znajdowała się w moich rękach przeszedłem kolejno do odinstalowania sterowników, demontażu poprzedniej karty która wiernie i dzielnie służyła mi przez długi czas, a teraz służy komuś innemu. Otworzyłem opakowanie, które jak w większości produktów Gigabyte, jest ładne, proste i sprawia wrażenie posiadania niemalże towaru luksusowego. Po zajrzeniu przeszły przeze mnie mieszane uczucia: radość gdy ujrzałem i wymacałem wspaniale wykonaną kartę graficzną oraz lekki zawód po ujrzeniu biednego wyposażenia dodatkowego, a właściwie jego braku, bo płytkę ze sterownikami i programami narzędziowymi trudno nazwać sensownym wyposażeniem dodatkowym. Brak jakichkolwiek przejściówek, kabli, itp.
Chciałem by ten tekst był w pewien sposób wyjątkowy i dlatego postanowiłem zrobić coś co kiedyś było często wykonywane przez serwisy techniczne, a teraz trudno o takie materiały: szczegółowe zdjęcia karty i jej chłodzenia. Niestety mój aparat cyfrowy ze starości zaczął sypać koszmarnym ziarnem więc użyłem aparatu w telefonie choć i ten nie daje wspaniałej jakości zdjęć więc z góry ostrzegam i przepraszam za słabą jakość zdjęć.
Po wyżej opisanych doświadczeniach przeszedłem do szczegółowego zapoznawania się z kartą, moja ciekawość sprawiła, że musiałem poznać ją dokładnie nie tylko od zewnątrz, ale także rozebrać ją i urządzić jej hardware-porn sesję ;-) Efekty tej relacji możecie ujrzeć tutaj:

Front

Tył

Tył bez backplate

Front bez chłodzenia

Front bez chłodzenia ani radiatora na sekcji zasilania

Chłodzenie od strony GPU

Chłodzenie - front

Chłodzenie - podświetlenie

Podświetlenie w akcji

Backplate od strony GPU

Po sesji przeszedłem do montażu. Standardowe wpięcie do portu PCI-Express x16 na płycie głównej, karta wymaga dodatkowego zasilania PCI-Express 8-pin więc takie wpiąłem. Dwie śrubki do przykręcenia do obudowy i gotowe, no ok, jeszcze kabel hdmi do połączenia z telewizorem. Naciskam przycisk power, pierwsze uruchomienie i... podświetlenie na chłodzeniu świeci, obraz na ekraniu pojawił się, system rusza. Po zalogowaniu się do Windows 10 Enterprise x64 przeszedłem do instalacji sterowników które wcześniej przygotowałem. Konkretnie jest to paczka sterowników w wersji alpha która daje day one support for World of Warships. Po ukończeniu instalacji instalator nie pytał o restart, ale z przyzwyczajenia i według zasady "lepiej zrobić" wykonałem ponowne uruchomienie komputera. Owa paczka sterowników jest niezwykle interesująca ponieważ wersja Catalyst Control Center zawarta w niej posiada opcje których wcześniej nie widziałem, a testuję niemalże każdą wersję sterowników AMD które wychodzą. Konkretnie mówię o funkcji Overdrive, czyli możliwości podkręcania nie tylko karty graficznej, ale i procesora z poziomu systemu operacyjnego. Możliwości konfigurowania Overdrive znajdziemy w zakładce Performance programu Catalyst Control Center:

W tej sekcji jedynie decydujemy o tym czy chcemy mieć w ogóle włączone Overdrive, czy chcemy włączyć je dla procesora lub karty graficznej, razem lub osobno. Najbardziej interesujące są zmiany w Overdrive dla procesora:
Po zaznaczeniu opcji "Override existing CPU settings" uzyskujemy dostęp do funkcji "Auto-Tune". Funkcja ta podnosi prędkość procesora w krokach o 100MHz i każdą kolejną prędkość sprawdza testując ją przez dłuższą chwilę. Taki test trwa tak długo aż Auto-Tune znajdzie najwyższą stabilną prędkość dla danego egzemplarza:
Gdy już mamy wykrytą najwyższą stabilną prędkość procesora możemy ustawić szczytową prędkość z jakiej chcemy korzystać gdy procesor będzie mocno obciążany. Kolejną równie interesującą opcją jest "CPU Power", jest to prosty slider który pozwala nam przełączać się pomiędzy minimalną prędkością procesora, a maksymalną:
Bardzo przydatna opcja gdy z jakiegoś powodu potrzebujemy zaniżyć prędkość procesora lub by działał cały czas z pełną prędkością.
Jeszcze tylko w ramach ciekawostki, bo tutaj wiele się nie zmienia, pokażę Overdrive dla karty graficznej:

oraz "globalną" kontrolę maksymalnej ilości klatek:

Po zainstalowaniu sterownika i zapoznaniu się z nowościami dostępnymi w CCC przeszedłem do uruchamiania różnych gier, benchmarków, itd, czyli do testowania karty.
Radeon HD7790 dzięki VSR (Virtual Super Resolution) pozwalał na ustawienie rozdzielczości 2560x1440 na ekranie którego natywna rozdzielczość wynosi 1920x1080. Radeon R9 380 maksymalną rozdzielczość ma ustawioną na poziomie 4K, czyli 3480x2160. Oczywiście nie mogłem pozostać na taką możliwość obojętny i część testów wykonałem w najwyższej dostępnej rozdzielczości.
Przed zaprezentowaniem wyników warto bym podał pełną specyfikację konfiguracji testowej:
CPU: AMD FX-8320@4,2GHz
RAM: Goodram 2x 8GB 1333Mhz
GPU: Gigabyte Radeon R9 380 4GB Windforce x2
Płyta główna: Gigabyte GA-990FXA-UD3
Karta dźwiękowa: Creative X-Fi Titanium
Zasilacz: OCZ ZS550
System operacyjny: Windows 10 Enterprise x64

Oczywiście pierwszym, podstawowym testem musiał być 3dMark wydany w 2013 roku. Użyłem bezpłatnej wersji która jest dostępna na stronie producenta: futuremark.com lub na steam. W bezpłatnej wersji nie mamy dostępnych wszystkich testów (np. firestrike extreme) jednak te dostępne są w zupełności wystarczające i miarodajne. Wykonałem podstawowy test Firestrike i ta konfiguracja sprzętowa uzyskała 6984 punktów oraz osiągnięcie "Brawn - Your GPU is ready to rumble, but your CPU doesn't want to play.", czyli według programu korzystam ze zbyt słabego procesora który ogranicza możliwości karty graficznej. Czy tak jest w rzeczywistości przekonajmy się analizując kolejne wyniki z różnych gier.
Dobierając gry do testów zawsze staram się używać poprawnie zoptymalizowanych gier co do których podejrzenia o faworyzowanie któregoś konkretnego producenta są minimalne bądź nie istnieją co niestety jest co raz większym wyzwaniem. Równie ważnym elementem jest API, staram się testować karty graficzne na wszystkich ważniejszych API, w tym konkretnym zestawieniu mamy: dx 9, 10, 11 i Mantle.
Jedną z moich ulubionych gier ostatnich lat, a zarazem całkiem niezłym benchmarkiem jest polska produkcja stworzona przez studio Flying Wild Hog: Hard Reset. Gra używa autorskiego silnika Road Hog Engine. Od strony technicznej ogromne wrażenie robi niesamowita fizyka wyliczana na CPU oraz wspaniałe tekstury o wysokiej jakości. Trudno o równie dobrze wyglądającą grę korzystającą z DX9. Oto wyniki porównujące wydajność gry w rozdzielczościach FullHD (1920x1080) oraz 4K (3840x2160):

Największa różnica widoczna jest w maksymalnej wartości FPS gdy średnie i minimalne są relatywnie niewielkie.

Kolejną grą na mojej liście jest nieśmiertelny klasyk który ważnym benchmarkiem pozostanie chyba do końca świata i o jeden dzień dłużej, czyli pierwszy Crysis:

Tutaj największe różnice widoczne są w zakresie średniego i maksymalnego fps.

The Talos Principle, gra stworzona na silniku Serious Engine 3, czyli tym samym co Serious Sam 3. Gra jest bardzo dobrze zoptymalizowana i ładnie skaluje się wraz ze zmianą (bardzo rozbudowanych i szczegółowych) ustawień oraz ze zmianami w sprzęcie. Wbudowany benchmark podaje jedynie średni FPS i dlatego tylko ten znajduje się na tym wykresie:

Jak widać w rozdzielczości 1920x1080 gra jest bardzo grywalna, ale w 4K już należałoby pójść na spore kompromisy by gra działała z zadowalającą płynnością animacji.

Tomb Raider jest jedną z tych rzadkich produkcji których strona techniczna jak i sama rozgrywka stoją na wysokim poziomie.Gra wykorzystuje technologię AMD nazwaną TressFX która sprawia, że włosy zachowują się bardziej realistycznie i nie są tylko brązowym klockiem na głowie, a niemalże żyją swoim własnym życiem. W przypadku tej gry włączyłem wszystkie ustawienia na max jedynie za wyjątkiem antyaliasingu. Użyta w Tomb Raider metoda wygładzania krawędzi: SSAA, praktycznie jest tym samym co VSR (u AMD) albo DSR (nvidia) więc np użycie 4x ssaa w rozdzielczości 1920x1080 dałoby nam w praktyce renderowanie obrazu w rozdzielczości 4K, czyli porównywanie 4x ssaa 1920x1080 z 4K nie ma sensu, bo nie byłoby różnicy w wydajności. Bardzo interesujący i godny przeczytania artykuł na temat SSAA napisało studio Frozenbyte

W tym przypadku różnica jest miażdżąca i by grać w 4K należałoby rozpocząć od wyłączenia TressFX i sprawdzić ponownie czy FPS jest zadowalający. Najbezpieczniej jest uruchomić na Radeonie R9 380 Tomb Raider w rozdzielczości 1920x1080 z zaaplikowanym FXAA lub nawet SSAA x2.

Thief jest jedną z niewielu gier posiadających API Mantle. W tym przypadku porównałem nie tylko różnice pomiędzy dwiema rozdzielczościami, ale także dwoma API: DX11 vs Mantle. Wyniki są zaskakujące:

O 4K w przypadku tej gry nie ma co myśleć, ale korzystanie z API Mantle przynosi wyraźne korzyści które odczuje się w rozgrywce.

Pojedynczy Radeon R9 380 do grania w 4K kompletnie się nie nadaje, przynajmniej w najnowszych grach, ale za to w starszych tytułach potrafi bezproblemowo wyrenderować odpowiednią ilość klatek na sekundę nawet w tak wysokiej rozdzielczości (Unreal Tournament 3, Battlefield Bad Company 2, Assassin's Creed Revelations). Kartę zalecam do grania w najnowszych produkcjach w rozdzielczościach 1920x1080, maksymalnie 2560x1440.

P.S.
W podsumowaniu wspomniałem o ACR. Seria assassin's creed jest niezwykle interesującym przypadkiem, w szczególności różnica między Assassin's Creed Revelations, a Assassin's Creed III. Obie gry dzieli 1 rok różnicy, pierwsza ma dx9, druga dx11, w pierwszej w rozdzielczości 4K na maksymalnych ustawieniach bez AA (uważam, że w tak wysokich rozdzielczościah tak zaawansowane metody antyaliasingu jak MSAA dostępny w grze są zbędne i maksymalnie można użyć jakiejś post-procesowej metody takiej jak FXAA, SMAA, MLAA) utrzymuje średnio powyżej 80fps, a ac3 bez względu na rozdzielczość(!!!!) nie ma sensownego FPS, ponieważ ten oscyluje w granicy 30. Od dnia premiery uważam, że ACR jest najlepszą od strony technicznej grą z serii co dodatkowo może potwierdzać status "Platinum" dla gry na winedb. 

windows sprzęt gry

Komentarze

0 nowych
  #1 24.09.2015 12:33

Ehh.. a ja nadal na laptopowej karcie HD 7670m :(

  #2 24.09.2015 13:02

Najlepszym AC była dwójka (trylogia) od strony fabularnej, od graficznej oczywiście AC Unity.

damian2d   5 #3 24.09.2015 13:57

Dobry wpis, procesor rzeczywiście trochę słaby do karty.

t-m-z   9 #4 24.09.2015 14:30

@damian2d: I niestety tak to już jest... Chcesz grać to wymień kartę, wywal 1000-1500zł i okaże się, że blokuje Cię procesro.. wymień procesor i masz już 1700-2300zł, potem się okaże, że mobo nie ciągnie wiec wywal kolejne 500zł

Czy do czegoś zmierzam ?
Może jedynie do tego, że dawno przestałem traktować PC jako maszynę do gier... To nie jest opłacalne. Sprzęt na którym bez problemu mogę porzadnie zajmować się obróbką foto (i jakiś czas temu grać ) kosztował mnie 3000zł, dwa lata po tym nie odzyskam nawet 700zł a i w nowości nie pogram... Chore..

  #5 24.09.2015 14:39

Przeciez cos takiego tyczy sie tylko bardzo malej czesci tytulow i to z powodu wyzszej wydajnosci na jeden rdzen u intela niz u amd. Catalysty pod tym wzgledem tez sprawuja sie duzo lepiej niz pare lat temu. Intel ma w kosmos wieksza wydajnosc ale stosunek jakosci do ceny...

Canaletto   12 #6 24.09.2015 22:52

Dlaczego nie stosujesz formatowania? Lepiej by się czytało.

Spectator   8 #7 24.09.2015 22:58

@Canaletto: Selekcja naturalna, ktoś kto umie czytać przeczyta tekst, ktoś kto szuka obrazków i wideorecenzji nie znajdzie tutaj niczego dla siebie.