Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Okiem Pangrysa czyli jak okiełznać potwora - Gigabyte AMD Radeon R9 290 X Part I

Któregoś dość zimnego dnia, gdy nawet ptaki zamarzały w locie a padający niemal poziomo, śnieg odbierał chęć do spacerów, otrzymałem maila z propozycją by zapoznać się z topową kartą graficzną ze stajni czerwonych, czyli AMD Radeon R9 290 X w wersji niereferencyjnej.

Oczywiście, nie jestem szalony i co tu dalej ukrywać, z wielką radością zadeklarowałem chęć zapoznania się z tą kartą. Sama karta graficzna AMD R9 290X miał premierę na parę dni przed premierą gry Battlefield 4. Zbieżność nieprzypadkowa, bowiem przy zakupie tej karty, każdy klient miał otrzymać kod do BF4 do wykorzystania w Origin.

Niestety, po premierze przez długi czas były dostępne tylko wersje referencyjne karty. Pierwsze testy i benchmarki ujawniły moc topowej karty AMD, ale niestety też ujawniły takie wady jak nieakceptowalny poziom hałasu, jaki generuje wentylator pod obciążeniem czy dość wysoki pobór energii w porównaniu z bezpośrednią konkurencją, czyli GTX 780. Problemy te miały zostać rozwiązane wraz z pojawieniem się kart tzw. niereferencyjnych, które zaczęły się pojawiać na rynku z początkiem bieżącego roku.

AMD Radeon R9 290X tak naprawdę pokazuje, na co go stać przy rozdzielczości 4K, która powoli upowszechnia się, u co raz większej liczbie graczy czy grafików komputerowych.
AMD Radeon R9 290X ma moc obliczeniową 5,6 TFLOPS, posiada 2816 procesorów strumieniowych, 176 jednostek teksturujących, 64 ROP oraz przepustowość 320 GB/s. Całości obrazu dopełnia aż 4 GB pamięci GDDR5 na 512 bitowej szynie. Wręcz idealna karta dla zapalonego gracza no i zapewne... dla kopacza Bitcoinów czy innej wirtualnej waluty :)

Do mnie trafiła niereferencyjna, fabrycznie podkręcona karta graficzna Gigabyte AMD Radeon R9 290 X OC z autorskim chłodzeniem znanym z innych kart tego producenta, czyli WindForce 3X. Samo chłodzenie muszę uznać za bardzo wydajne, bowiem temperatura na GPU pod obciążeniem nigdy mi nie przekroczyła 81 stopni Celsjusza, co wydaje się niezłym wynikiem biorąc pod uwagę, że w przypadku karty referencyjnej mogło to sięgnąć nawet ok 95 stopni. Należy tu też dodać, że wersja Gigabyte ma jeszcze podkręcone taktowanie o 40 MHz w porównaniu z ze zwykłym R9 290X, co ma też niebagatelny wpływ na moją ocenę.

Niestety, ktokolwiek miał wcześniej kartę z chłodzeniem WindForce, ten wie, że do najcichszych nie należy. Tutaj jest niestety tak samo. Przy bardziej wymagających grach jak Battlefield 4 czy Crysis 3 chłodzenie robi się trochę denerwująco głośne. WindForce jest naprawdę wydajne, ale jak można było się domyślić, trzy wiatraki generują dość spory głośny szum, który na szczęście nie jest jak to złośliwie opisywali inni recenzenci, rykiem startującego odrzutowca generowanym przez pojedynczy wiatraczek z wersji referencyjnej. Poziom hałasu jest akceptowalny i bardziej porównałbym go dźwięku suszarki dobiegającego z zamkniętej łazienki :) Ja gram na słuchawkach i mi to tak nie wadzi, ale naszemu otoczeniu, niekoniecznie musi się to podobać :)

Budowa

Karta jest naprawdę wielka i co za tym idzie jest też wyjątkowo ciężka. Winę za ten stan rzeczy ponosi perfekcjonizm inżynierów Gigabyte oraz naprawdę rozbudowane chłodzenie. By schłodzić tego potwora użyto potężnych radiatorów z pięcioma miedzianymi heatpipe. Osobiście nie chciałem rozbierać karty, ale znalazłem zdjęcie kogoś, kto się nie bał i rozebrał kartę.

Jak to w konstrukcjach Gigabyte bywa, mamy do czynienia z aluminiowym ożebrowaniem karty, które usztywnia laminat i nie pozwala mu się odkształcać pod ciężarem dość sporego chłodzenia. Inną przemyślaną rzeczą jest widoczny na dole chłodzenia metalowy występ z logiem WindForce, które pomaga na bezpiecznie chwycić kartę by ją np. zamontować w komputerze, bez obaw, że coś uszkodzimy na karcie :)

Jak wspomniałem wcześniej, karta jest naprawdę ogromna. Sam laminat ma rozmiary 26,7 cm x 10 cm a sama karta to długość 28,5 cm szerokość 12,2 cm. R9 290X ma wysokość raptem tylko 4,30 cm, więc na szczęście karta spokojnie zajmuje tylko 2 sloty :) Ja na szczęście zmieniłem obudowę na nieco większą, więc zostało mi jeszcze trochę miejsca :)

Parametrem, który zrobił na mnie największe wrażenie była waga tego potwora. Karta jest naprawdę ciężka, o czym przekonała mnie kuchenna waga. Licznik pokazał 1050 g, czyli przeszło 1 kg wagi!! Słuszna waga jak na przystało na Potwora.

Z tyłu karty znajdziemy standardowe porty, czyli dwa wyjście DVI, jedno HDMI oraz jedno Display Port. Zasilanie doprowadzają dwa gniazda, jedno 8-pinowe i jedno 6-pinowe.

Technologie

Sercem karty jest chipset Havaii XT, który obsługuje nie tylko biblioteki DirectX 11.2, ale również Mantle, czyli niskopoziomowe API na kartach graficznych bazujących na architekturze GCN. W grę tu wchodzi nowa rodzina kart AMD R9/R8/R7 oraz Radeony HD Serii 7000. Nowe Radeony dzięki obsłudze API Mantle, pozwala wycisnąć z naszego sprzętu o wiele więcej i będzie to szczególne przydatne dla zapalonych graczy, którzy raczej nie lubią zmarnowanych zasobów komputera. I jak pokazują testy na Battlefield 4, nie są to czcze przechwałki. To naprawdę działa !

Karta R9 290X w odróżnieniu od poprzedniej przez ze mnie testowanej MSI R9 280X, obsługuje też technologię AMD TrueAudio. Dźwięk ma być renderowany normalnie niczym grafika, nie zaś odtwarzany i filtrowany, tak jak dotychczas. Korzystać z tego mają już takie gry jak: Thief, Murdered: Soul Suspect albo Lichdom… Niestety, sam nie miałem okazji do sprawdzenia technologii TrueAudio. A szkoda :( Pozostawię to dla następnego usera tej karty. :P

W kolejnej części pokażę jak nasz Potwór sprawuje się w wymagających grach, przytoczę garść benchmarków i opiszę Mantle, które naprawdę, póki co, bardzo pozytywnie zaskakuje.

Ale o tym nieco później.

 

sprzęt gry

Komentarze

0 nowych
Semtex   17 #1 16.02.2014 15:13

Widzę, że masz Regnum, działa Ci kontroler obrotów? :D

Pangrys WSPÓŁPRACOWNIK  18 #2 16.02.2014 15:48

Działa, o dziwo :)

ximian   1 #3 16.02.2014 15:54

Karta fajna, niemniej poczekam na Benchmarki (liczę na paręnaście Benchmarków, a nie tylko np. 3)

No i Mantle niestety nie zaskakuje (przynajmniej mnie), może w przyszłości

Semtex   17 #4 16.02.2014 16:10

@Pangrys
Może trafiłeś poprawioną rewizję, mój zdechł po pół roku, kupowałem rewizję premierową, ostatecznie zmieniłem budę na Fractala Arc Midi R2, syn dostanie Regnum :P

dzikiwiepsz   11 #5 16.02.2014 16:39

Z tego co widzę to do tej karty nie podłączymy już starego monitora na d-sub ?
niby są przejściówki ale widać że jest tylko dvi-d a to daje tylko cyfrowy obraz.

Semtex   17 #6 16.02.2014 16:43

DVI-> DSUB działa bez zarzutu.

walker13150   4 #7 16.02.2014 16:49

W tym wypadku chyba faktycznie byłby konieczny konwerter. Mimo wszystko analog dziś nie powinien mieć miejsca w nowych monitorach, ale marketing...

stasinek   9 #8 16.02.2014 17:52

semtex - dzikiwieprz dobrze zauważył DVI-D brak pinów obok dużego pina po lewej stronie złącza, przejściówka dvi dsub nie wlezie w gniazdo! mam takie cosik na HP DX5150 z IGPU ATI x200 obok dsub jest dvi ale identyczne jak na obrazku Pangrysa tj. bez dziurek
gniazdo wyłącznie cyfrowe chyba że jest jakiś magiczny sposób i magiczna przejściówka to by było superowo :)

stasinek   9 #9 16.02.2014 17:54

a te piny jednak za coś odpowiadają i prawdopodobnie jest tym sygnał analogowy, nie magicznej prostej przelotki za piątaka która nadrobi coś co fizycznie nie istnieje

stasinek   9 #10 16.02.2014 18:06

aczkolwiek w tym wypadku trudno płakać bo właściciel starych monitorów LG Flatron 2x995FT, 2x700P itp. gigantów oraz starego blaszaka(w ilości 3 sztuk) nie kupi sobie ani matce potwora do gier :)
szczytem moich marzeń był powtórne uzbrojenie się w staruszka z 2600XT żeby dokończyć mass effect i wiedzmina... nie wiem natomiast jak można by było okiełznać potwora o tak dużej mocy obliczeniowej, przychodzi mi wyłącznie jedna myśl OpenCL i programowanie, dysponujemy na wyciągnięcie ręki tak niewyobrażalnie duzą mocą obliczeniową że mi się to już w pale nie mieści

Semtex   17 #11 16.02.2014 18:09

@stasinek
Trochę nad tym dyskutowaliśmy z kolegą @walker13150 na XMPP, sprawa nie jest jednoznacznie przesądzona "że nie będzie działać", wiem, brzmi jak abstrakcja, jednak z jakiegoś powodu działają kable HDMI-VGA (lub odwrotnie, nie pamiętam dokładnie), pełno ich na Aledrogo i jest potwierdzenie, że to działa, nie wiem jak...

I faktycznie, nie zwróciłem uwagi, że karta Pangrysa ma 2x DVI-D... Mea culpa.

Shaki81 MODERATOR BLOGA  34 #12 16.02.2014 21:08

A jak jest cena tej karty dla zwykłego użytkownika. Przydałoby się tez abyś podał specyfikację sprzętu na jakim będzie testował ten sprzęt.

Semtex   17 #13 16.02.2014 21:48

@Shak

Nie wiem czy Pnagrys dostał "złą" czy "dobrą" rewizję karty, produkcja tych kart była wstrzymana na początku roku, były z nią problemy, obecnie jest ciężko dostępna na rynku a nowe rewizje (poprawione) chyba jeszcze do PL nie dodarły. Ale na 100% nie jestem pewien, na porównywarkach tej karty jeszcze nie ma.

Pangrys WSPÓŁPRACOWNIK  18 #14 16.02.2014 22:03

Mam tą złą rewizję 1.0. Tylko że ja nie uświadczyłem żadnych problemów. Wszystko działa, karta jest stabilna nie grzeje się .

stasinek   9 #15 17.02.2014 01:57

semex - aż sprawdziłem jak to z nimi jest bo strzelałem ->
http://pinouts.ru/Video/dvi_pinout.shtml http://pinouts.ru/Video/hdmi_pinout.shtml
zwróć uwagę na podobieństwa nazw linii przesyłowych cyfrowych dvi i hdmi(których jest w hdmi mniej) oraz to że dvi ma cyfrowe i analogowe piny(te których na karcie pangrysa brak)
można mieć przelotke dvi -> dsub i dvi -> hdmi
ale dsub -> hdmi? chyba jednak nie ;)

stasinek   9 #16 17.02.2014 02:13

Pangrys - ile masz monitorów? jakiś tv cokolwiek z hdmi dałoby rade 3 sztuki zgromadzić w jednym pomieszczeniu?

RoninPn   12 #17 17.02.2014 07:46

Grysiu pozwolił po testować "Potworka" - Battlefield 4 , Musze powiedzieć że na "DirectX 11.2" było całkiem fajnie, choć na początku pokazywało zaledwie 30 klatek i to przy bardzo cichej pracy chłodzenia, parę „zacinek” ... i "włączyła się suszarka za ścianą" klatki zaczęły podchodzić pod 90fps i gra stawała się jak w bajce. „Celujesz trafiasz i posprzątane, bez męczenia się z poprawkami .”
Z drugiej strony testowaliśmy też "Mantle" tu nie było niestety widać ilości FPS ale grafika była jak by bardziej ostra, wyrazistsza do tego w miarę płynna , lecz zdarzały się mikro zacięcia - takie na około 1/10 sek. przy znośnym szumie chłodzenia.

  #18 06.07.2014 22:23

zmiana pasty na karcie na gelid gc extreme dała 18st C spadku temperatur polecam