Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

MSI Radeon R9 280X Gaming OC czyli Moc jest z nami

Pewnego popołudnia moją dość spokojną egzystencję rozbudził głośny dzwonek telefonu. Okazało się, że to pewien sympatyczny pan związany z AMD,dzwoni z propozycją nie do odrzucenia. No bo jak tu odrzucić zaproszenie do testu najnowszej karty graficznej ze stajni Czerwonych, czyli Radeona R9 280X? Oczy mi się zaświeciły jak okna knajpy w dniu wypłaty i (co łatwo przewidzieć) oczywiście szybko się zgodziłem. Po odebraniu paczki czekała na mnie jednak kolejna miła niespodzianka. Karta, która została do mnie wysłana, to nie wersja referencyjna, a autorska konstrukcja MSI Radeon R9 280X Gaming OC, co jeszcze przyspieszyło rytm bicia mojego skołatanego serca gracza.

Jest to już podkręcona wersja referencyjnej karty, więc zapowiadał się weekend pełen ciekawych niespodzianek. Spójrzmy od razu, jakie informacje podaje nam GPU-Z.
Uwagę zwraca podniesienie zegara GPU do 1050 MHz.

Budowa

Na pierwszy rzut oka specyfikacja bardzo zbliżona a wręcz identyczna do HD 7970 GHz Edition, ale nie do końca to prawda. MSI Radeon R9 280X Gaming OC, ma jak inne karty tej firmy, założone chłodzenie Twin Frozr IV generacji.

Składa się ono z solidnego aluminiowego radiatora, niklowanych ciepłowodów SuperPipe oraz dwóch 100 mm wentylatorów Propeller Blade PWM. Efekt zna każdy użytkownik kart graficznych od MSI - takie chłodzenie jest zaskakujące ciche i co dla nas najważniejsze, też bardzo wydajne. Wiem, nadal brzmi, jakby był to tylko odgrzewany kotlet HD7970, ale diabeł tkwi w szczegółach. Chociaż w tej sytuacji, trudno to nazwać szczegółami... Oczywiście jak przystało na topowy produkt MSI, nie mogło zabraknąć informacji, że karta jest produktem wykonanym w standardzie Military Class IV.

Z tyłu karty znajdziemy niestety tylko jedno (?!) wyjście DVI, jedno HDMI oraz aż dwa Mini DisplayPort. Całość pozwala na podłączenie do sześciu monitorów, co zapewne docenią zwolennicy Eyefinity. Zasilanie doprowadzają dwa gniazda, jedno 8-pinowe i jedno 6-pinowe. Na szczęście dla właścicieli starszych zasilaczy, w pudełku znajdziemy przejściówkę z 6-pin na 8-pin. Są również i inne adaptery, jak molex-6pin, D-Sub do DVI czy Mini DisplayPort do pełnowymiarowego Display Port plus (czego oczywiście nie mogło zabraknąć) czyli mostek CrossFire.

Technologie

Nowe Radeony dzięki obsłudze API Mantle, która w kontekście nowych konsol zapewni grom znacznie lepszą optymalizację dla sprzętu AMD, będzie można wycisnąć z naszego sprzętu o wiele więcej ze sprzętu i będzie to szczególne przydatne dla zapalonych graczy, którzy raczej nie lubią zmarnowanych zasobów komputera.

Szczególnie ciekawie zapowiada się obsługa technologii AMD TrueAudio. Teraz dźwięk będzie renderowany normalnie niczym grafika, nie zaś odtwarzany i filtrowany, tak jak dotychczas. Korzystać z tego mają już Thief, Murdered: Soul Suspect albo Lichdom. Skończyły się czasy, gdy to nasze CPU było obciążane odtwarzanym odgłosami w grze i czasem trzeba było wyłączać sprzętową obsługę dźwięku, bo nam procesor zaczynał niedomagać - fani Battlefield: Bad Company 2 mający dwurdzeniowe procesory wiedzą, o czym mówię… Niestety, akurat mój testowany Radeon R9 280X nie zapewnia wsparcia dla technologii TrueAudio. A szkoda :(

Co warto nadmienić, karty z nowej serii R9/R8/R7 oraz Radeony HD Serii 7000 oparte na GCN pierwszej generacji, jako pierwsze karty graficzne na rynku mają pełną obsługę DirectX 11.2. Radeony w architekturze GCN to jedyne obecnie dostępne na rynku karty, które w pełni sprzętowo obsługują to API, czego niestety nie potrafią karty konkurencji oparte o Keplera. Pozostaje czekać na ruch Zielonych, ale pierwszego gola strzeliło AMD.

Mantle i DirectX 11.2 będą obsługiwane przez wszystkie Radeony z układami w architekturze GCN, czyli również karty desktopowe dotychczasowej Serii 7000. Nowa generacja to po prostu ewolucja GCN. Nie należy oczekiwać zmiany architektury, zwłaszcza że teraz wszystkie konsole będą miały GCN w sobie, a także sporo chipów SoC. GCN będzie dalej rozwijane, jako bardzo skalowalna oraz dostosowująca się do potrzeb energetycznych (jest i w tabletach, i w super mocnych stacjach roboczych).

W nowych kartach znajdziemy też kilka ciekawych rozwiązań, które przydadzą się zamożniejszym użytkownikom. Dzięki obsłudze nowego standardu VESA ID v1.3 i topologii Tiled Display możliwa jest automatyczna konfiguracji wyświetlaczy w UltraHD, która jest znacznie pewniejsza, niż poleganie na Monitor ID . Ponadto jak mówimy Radeon to myślimy także o Eyefinity. Tutaj pojawiła się możliwość skorzystania z dowolnych portów wideo do konfiguracji.

Co na deser? Wszystkie nowe układy Radeona otrzymały usprawnienia energetyczne, które pozwalają przy tym samym poziomie poboru prądu, jak starsze karty HD7XXX, po prostu osiągnąć wyższą wydajność. Czyli karta R9 280X zjada podobnie jak HD 7970 około 250 Watt, ale zapewnia nam lepszą grafikę, co naprawdę zauważalne.

Test

Karta z dumnym napisem Gaming OC musiała być przetestowana w kilku przynajmniej grach. Przygotowałem małe zestawienie, jak najnowsze dziecko Czerwonych spisało się, w dla mnie najpopularniejszych pozycjach. Testowałem tylko tryb multiplayer, bo według mnie tam Radeon R9 pokazuje, na co go naprawdę stać.

W zestawieniu znalazł się hit ostatnich dni, beta Battlefield 4, gdzie kartę męczyłem na 64 slotowym serwerze na jedynej dostępnej mapie, czyli Siege of Shanghai. Następny w kolejce to (a jakże) Battlefield, 3 testowany na serwerze 64 osobowym, mapach Monolith Markaz oraz Operation Firestorm. Kolejny FPS to Medal of Honor: Warfighter, sprawdzany na 20 slotowym serwerze na mapce Sarajevo Stadium. Niejako na deser zostawiłem sobie test multiplayera Cryisisa 3, przy czym akurat w przypadku tej gry nie mówimy o ustawieniach Ultra, zaś o Very High.

Platforma testowa

Płyta Główna: Intel DZ77RE-75K

Procesor: Intel® Core™ i5-3570K 3.40GHz

Chłodzenie: Thermaltake Contac 29BP

Ram: 8192 MB (2x 4096) DDR3 Kingston HyperX PC1600 XMP X2 CL9 Grey

Karta graficzna: MSI R9 280X Gaming 3GB GDDR5

Sterowniki: AMD Catalyst 13.11_BetaV1

Zasilacz: 600W Tagan TG600-U33

SSD: Intel® SSD 330 180GB SATA III

HDD: Seagate SATAII Barracuda 500GB

Obudowa: Cooler Master Elite 430 Black

OS: Windows 8 Pro 64-bit

Monitor: BENQ 24" GL2460 (1920x1080)

Podsumowanie

Jak widać powyżej, nawet bez zabaw z ustawieniami graficznymi ta karta oferuje nam potężny zapas mocy, co szczególnie odczuwalne podczas gry w dość słabo zoptymalizowaną betę BF4. FPS-y nawet na ustawieniach Ultra z w włączonym MSAA x4 są na całkiem wysokim poziomie, co może wpędzić w kompleksy niejednego właściciela Titana. Po zabawie z ustawieniami, o czym pisałem już wcześniej, mam od 74 do 99 klatek na sekundę, co jest wynikiem nieosiągalnym dla wielu użytkowników nawet teoretycznie bardziej wydajnych kart graficznych. A nawet jeszcze nie zacząłem podkręcać grafiki i procesora... Wszystkie pomiary były robione na fabrycznych taktowaniach.

Póki co, wiem już jedno. Karta jest naprawdę świetna i wydajna. Jak bardzo to już sami oceńcie ze zrzutów ekranu i wykresów. Co najciekawsze, według zapewnień polskiego oddziału AMD rekomendowana cena detaliczna na R9 280X to tylko 1149 zł, co stawia w kłopotliwym położeniu konkurencję, gdyż ciężko będzie znaleźć tak wydajną kartę w tak atrakcyjnej cenie. Zapowiada się zacięta walka o portfele graczy, którzy pragną zmodernizować swoje komputery, mając na uwagę zbliżające się premiery hitów - a w szczególności Battlefielda 4. Karty powinny się pojawić w sprzedaży już od najbliższego piątku czyli od 11 października.

Galeria

Chciałbym zaprezentować kilka screenów z testowanych gier ...

Beta Battlefield 4

Battlefield 3

Medal of Honor:Warfighter

Cryisis 3

I teraz publikuję to, czego brakowało czyli czas na benchmarki. Początkowo nie chciałem tych wyników umieszczać bowiem czekałem na finalną wersję sterowników co moim zdaniem byloby bardziej miarodajnym wynikiem ale na prośbe komentujących, prezentuję wyniki osiągnięte na sterownikach Beta.

Benchmarki

Na pierwszy ogień poszedł popularny Unigine Heaven Benchmark.

Teraz Unigine Valley Benchmark

3DMark 1.1.0

http://www.3dmark.com/3dm/1402854

Niestety, 3DMark nie rozpoznawał sterowników :)

Catzilla 1.00

I na sam koniec Cinebench :)

Jak widać, karta MSI Radeon R9 280X Gaming OC ma niezłe parametry i w tej cenie jest naprawdę warta zakupu mimo że nie były testowane na wersjach finalnych sterowników. Niestety, nieubłaganie zbliża się czas oddania karty, więc nie uda mi się sprawdzić czy dałoby radę wykręcić lepsze wyniki.
Procesor i karta podczas testów nie były podkręcane.

Gorące podziękowania należą się oczywiście AMD za udostępnienie karty MSI Radeon R9 280X do przetestowanie przed premierą. Jednocześnie chciałbym też podziękować redakcji dobreprogramy.pl za podsunięcie firmie namiaru na moją skromną osobę.

PS.

Przeglądałem ceny po premierze i okazuje się że AMD dotrzymało słowa. Bez trudu znalazłem atrakcyjne oferty w polskich sklepach na AMD Radeona R9 280X. Ceny zaczynają się już od 1119,00 zł za niereferencyjną wersję Sapphire oraz 1249,00 zł za podkręcone karty R9 280X ze stajni Asusa i Gigabyte.
To dobra wiadomość dla nas konsumentów i ciężki orzech do zgryzienia dla konkurencji. :)  

sprzęt gry

Komentarze

0 nowych
  #1 08.10.2013 10:27

Karta za około 1000zł a mówimy o cenie w USD, która jak znam realia w Polsce będzie kosztować 1500zł na takiej platformie przy rozdzielczości HD nie daje rewelacyjnych wyników w BF4 :o
EA strzeliło sobie w stopę podając rekomendowany sprzęt by zagrać w MAX detalach gdyż z tego co się powoli okazuje wymagania maksymalne powinny widnieć jako minimalne...

Tu zrzut z mojego Radka http://gpuz.techpowerup.com/13/10/08/7mz.png i na niewiele gorszym sprzęcie jak widać na ustawieniach low/medium 1280x1024 jest ledwie 40 klatek...

Over   9 #2 08.10.2013 10:30

Mógłbyś odpalić 3DMarka i porównać wyniki grafy twojej jak i tej MSI?

Pangrys WSPÓŁPRACOWNIK  19 #3 08.10.2013 10:37

@Over
Po co mam porównywać HD6850 do R9 280X. To nie ta sama liga :) To jak porównywać Golfa 1.9TDI do Lancera Evo :)

@t-m-z (niezalogowany)
Cena w Polsce ma właśnie oscylować ok 1149 zł a nie jak twierdzisz 1500 zł :)

Rawi   2 #4 08.10.2013 10:43

Test z 3D Mark Firestrike Performance bylby przydatny tutaj :(

Semtex   18 #5 08.10.2013 10:45

Jakby jeszcze ktoś był zainteresowany obszernymi testami nowych Radków to sporo do czytania jest tu: http://www.guru3d.com/articles_pages/radeon_r7_260x_r9_270x_280x_review_benchmar...
29 stron :D

Opisana przez Pangrysa karta zapowiada się ciekawie, będzie świetną alternatywą dla GTX 770, testy pokazują, że jest bardzo blisko tej karty zielonych (wydajnościowo), cenowo Radek jest znacznie lepszą alternatywą, jednak taka sytuacja może znacząco wpłynąć na ceny kart nV (oby), nic tak nie cieszy jak dobra konkurencja na rynku :)

Over   9 #6 08.10.2013 10:45

Też mam tą grafe co ty, i wiem że porównanie może nie jest adekwatne, ale chciałbym np ja, wiedzieć jaka dzieli je różnica :)

n33trox   6 #7 08.10.2013 10:50

Jeśli faktycznie będzie taka cena, to ja biorę tę kartę na celownik. Coś czuję, że fajnie by się skomponowała z moim nowiutkim Xeonem E3-1230V3 :) Bo jak na razie, to jadę na starym 9600GT :P

Semtex   18 #8 08.10.2013 11:14

BTW. Gdzie jest ten wpis, na głównej go nie widać, w poczekalni też nie :D OCB?
Zaznaczam, że to sytuacja na godzinę 11:15 ;)

bart86   10 #9 08.10.2013 12:14

jakoś te 1149zł mi się nie widzi karta ma kosztować 299$ czyli w europie 299euro na polskie to daje nam po dzisiejszym kursie około 4,20zł czyli około 1255zł ale brał bym to jako cena minimalna a do kupienia pewnie będzie drożej

  #10 08.10.2013 13:05

@Pangrys

cena tej karty ma wynosić około 300USD jako że przelicznik zawsze jest ten sam i moim zdaniem chory czyli 300USD = 300EUR to w Polsce wyniesie to ~1300PLN dodając do tego pazerność dystrybutorów/sklepów zakładam, że cena będzie zbliżona do tej którą podałem, czyli 1500zł ;)

A w tym przedziale cenowym raczej nie będzie to najlepszy wybór.

eimi REDAKCJA  17 #11 08.10.2013 13:20

bart86: jest wiele możliwości kupowania kart graficznych po normalnych cenach. 300 dolarów za tego Radeona... no to rozkłada konkurencję. Szczególnie że flagowce Nvidii są bardziej prądożerne (a cen energii elektrycznej trudno nie uwzględniać w kosztach karty do grania, chyba że ktoś jest pracownikiem Bełchatowa).

bogdanos0   5 #12 08.10.2013 13:20

Zrób test w World of Tanks hehee, ta karta może wyciągnie płynne 30fps, ja mam radeon hd 7870 DCII [ASUS] wersja 2GB, fps spada mi czasami do 20, generalnie jak są wybuchy to się przycina

PS
żarcik, nie ma chyba sensu testować, bo silnik WoT jest skopany [nie ja jeden mam problem z niskim fps]

RoninPn   12 #13 08.10.2013 13:35

Jest mały błąd rekomendowanye zaislanie powinno być 500W a w trybie SLI 1000W.
Z tego co zagladałem Pangrysowi przez ramię widziałem że FPS mieżył przy odpalonym FRAPS'ie u mnie to "coś" bardzo zwalnia klatki na GFX460 - więc możliwe że przy samej grze można mieć około 5% więcej FPS zapasu.
Co i tak przy ilości fps podanej przez Pangrysa jest już nie osiągalne dla wielu graczy posiadajacych stare karty graficzne. Płynna grafika z takimi detalami jest dopiero tym czymś czego brakuje wielu graczom.
Jeśli ktoś nie wie o co biega może obejeć filmik http://youtu.be/vSl1_YhMSjw w opisie na YT widac na jakim sprzęcie był wykonywany. Cena karty niestety dla mnie obecnie nadal poza zasięgiem.

RoninPn   12 #14 08.10.2013 13:37

@bogdanos0 sprawdź w poprzednim wpisie Pangrysa ustawienia grafiki
http://gallery2.dpcdn.pl/imgc/UGC/48256/g_-_550x366_-_-_48256x20131006150822_0.jpg
+ najnowwsze sterowniki ATi

podobno pomaga !!!

RoninPn   12 #15 08.10.2013 13:46

Upss Sorry miało Być "Cross Fire" zamiast "SLI"

Semtex   18 #16 08.10.2013 14:20

@eimi (redakcja)

Co do prądożerności to chyba coś nie teges z Twoim wywodem:

http://wstaw.org/m/2013/10/08/untitled-1.png

Z tego wynika, że 280x żre więcej niż GTX 780, ba, pobiera więcej niż 770, którego wydajnościowo jest bezpośrednim konkurentem...

Scorpions.B WSPÓŁPRACOWNIK  21 #17 08.10.2013 14:59

Nowe układy Radeona zapowiadają się świetnie, zielony będą mieli naprawdę ciężko. Nvidia jeszcze będzie płakać, że odpuściła sobie konsole nowej generacji.

Widzę, że cena jak za taką moc zapowiada się atrakcyjnie, czuję, że może to być spory hit.

michalswb   8 #18 08.10.2013 18:01

@n33trox
Też od kilku dobrych lat używam EN9600GT od Asus z obniżonym poborem energii o 40% i nie narzekam ;] Bardzo dobra i w miarę tania karta (teraz już na pewno jest tania), do tego dobrze się kręci (o ile ktoś chce się w to bawić).

Deadlyblonde   10 #19 08.10.2013 20:21

A jak temperatury?

WODZU   17 #20 08.10.2013 21:18

@eimi (redakcja)
Przy przykładowo o 50W większym zużyciu energii i założeniu, że delikwent gra po 10h dziennie, daje nam to około 8,70zł różnicy miesięcznie. To chyba nie aż taka dużo?

WODZU   17 #21 08.10.2013 21:21

To chyba nie aż taka dużo? -> To chyba nie aż tak dużo?
Dlaczego zniknęła mozliwość edycji komentarzy?

pain3hp   6 #22 08.10.2013 22:21

Jaki teraz trzeba mieć zasilacz żeby grać w najnowsze gry?

Pangrys WSPÓŁPRACOWNIK  19 #23 08.10.2013 22:46

530 -600 W. Najlepiej renomowanej firmy. Jeśli myślisz o SLI lub CrossFire to ok 1000W.

Semtex   18 #24 08.10.2013 23:07

Pangrys, no proszę Cię, po kim jak po kim ale po Tobie takiej odpowiedzi się nie spodziewałem, dla karty przez Ciebie opisywanej w CF wystarczy markowe 700W i będzie zapas.

Pojedyncza karta będzie śmigać na markowym 450W bez zająknięcia. Nie wpadajmy w Watteroryzm.

bart86   10 #25 08.10.2013 23:23

@eimi to co policzyłem co cena od dystrybutora a trzeba jeszcze doliczyć marżę hurtowni i sklepu :P
nie zaprzeczę temu co piszesz ale cena dla tej karty 1500zł jest bardzo realna i trzeba jeszcze poczekać na odpowiedź konkurencji, która na pewno może zejść z ceny i przypuszczam że pewnie ma w zanadrzu nowe układy w mniejszym procesie technologicznym

takie posuniecie mnie cieszy bo tworzy konkurencje dla zielonych co da w efekcie szybciej nowe układy po niższej cenie a ja czekam na te nowe układy nviidi w celu nabycia jakieś świeżego egzemplarza :D w przeciągu maksymalnie dwóch najbliższych lat

DjLeo MODERATOR BLOGA  18 #26 08.10.2013 23:26

@Pangrys

Fajny wpis Pangrys ;) Dzięki Tobie zainstalowałem Batterfielda 4 bete i sprawdziłem jak to się ma na mojej karcie. O dziwno na GTX 660 gra chodzi zadziwiająco dobrze na ustawieniach Ultra. Da się płynnie grać. Choć do 70 i więcej klatek jej daleko.

Co do Watterrozymu to w pełni się zgadzam z semtexem, rekomendowany PSU dla tej karty to przynajmniej 500W. Przy czym sama karta zużywa przy max. obciążeniu 300W. Więc nie ma co przesadzać z tymi Watami. Oczywiście ważny jest dobry zasilacz.

Pangrys WSPÓŁPRACOWNIK  19 #27 09.10.2013 05:49

@semtex
Jak wiesz i sam widzaiłeś, lubię nadmiar :P

Pangrys WSPÓŁPRACOWNIK  19 #28 09.10.2013 05:57

@DjLeo
@semtex

Sami wiecie jak ludzie bezmyślnie pakują do budy po kilka dysków, napęd BR i okraszają to zasilaczem 400W wątpliwej firmy.
Wolę przesadzić bo nieraz widziałem jak całkiem niezłe komponenty, działały na "pół gwizdka" bbo zasilacz nie dawał rady.

hiropter   10 #29 09.10.2013 08:03

Z tym 1000W zasilaczem, to delikatnie przegiąłeś. Sam mam 1x AMD FX-8120 3.1 GHz, 2x XFX Radeona 7770, 4x WD VelociRaptor 250GB 10000RPM (spięte w RAID 5), 1x 2TB Seagate Barracuda, jakiś napęd DVD-RW i to wszystko na płycie głównej MSI 990FXA-GD65. Mimo to 650 XFX z certyfikatem 80plus daje radę. Nawet mimo częstego używania trybu CrossFire.

Co do samej recenzji, to cóż... słabo. Mało testowanych gier, kontrowersyjna metoda mierzenia klatek FRAPSem, który nie wiedzieć czemu nie pokazuje klatek "0", tylko jakiś uśredniony wynik. Brak podanej konfiguracji sprzętowej. Ogólnie za dużo wazeliniarstwa - i piszę to mimo, iż własną budę mam postawioną praktycznie na AMD.

Pangrys WSPÓŁPRACOWNIK  19 #30 09.10.2013 08:44

@hiropter
Być może przegiąłem z 1000W ale np dwóch GTX 295 w SLI jaki byś polecił zasilacz ? Zgadza się, popełniłem błąd bo nie podałem że wszystko zależy od samej konfiguracji docelowej komputera.

Mało testowanych gier powiadasz, te mam i na nich się oparłem bo mam je w kolekcji. Sorki że nie kupiłem paru gier by zrobić szersze zestawienie.

Nie wiem jak jeszcze miałem wytłuścić konfigurację sprzętową byś ją ujrzał. Może przed dodaniem komentarza, warto byś dokładnie przeczytał cały mój wpis ?

hiropter   10 #31 09.10.2013 10:31

@Pangrys
Do dwóch GTX295 w sumie nie wiem co bym wybrał, bo nie wiem co bym oprócz nich wsadził jeszcze do środka obudowy. Znając jednak prądożerność produktów nVidii, to pewnie nie mniej niż 600-700W.

To, że nie miałeś gier nie oznacza, że mogłeś zrobić testów na kilka innych benchmarkach, np.: Unigine Heaven Benchmark. Oczywiście mogłeś też zrobić testy na demach gier.

Przyznaje, że zdziwiłem się bardzo jak po przeczytaniu Twojego komentarza przejrzałem całość i znalazłem konfigurację. Czyżby czas na zmianę okularów? Także w tym punkcie zwracam honor.

PS: Przy testowaniu warto sięgnąć także do poprzednich wersji kart lub produktów konkurencji w podobnym przedziale cenowym. Słupki często dają do myślenia :)

Pangrys WSPÓŁPRACOWNIK  19 #32 09.10.2013 10:46

@hiropter
To był mój pierwszy test więc wiem że jest trochę niedociągnięć i nie miałem innych podobnej klasy kart graficznych do porównania. Tutaj nie miałem czasu na szukanie innych kart ale będę miał bazę porównawczą na przyszłość :)

PS
Ja już też muszę nosić okulary a się zarzekałem że nie potrzebuje :P

hiropter   10 #33 09.10.2013 11:14

@Pangrys
A skoro to "dziewiczy" test to zwracam w pełni honory ;)

Tak w ogóle mógłbyś napisać trochę więcej o gabarytach karty... ja ostatnio dokupiłem drugiego Radeona (dokładnie Radeon 7770 XFX 1GB DD Heatpipe, więc mam dwa w CF) i okazało się, że na płycie MSI wciska się go na siłę - jeżeli chce się mieć dostęp do portów USB w obudowie. Karta ma tak dużą obudowę radiatora i wiatraków, że nie da jej się wcisnąć bez problemowo do płyty od MSI, która ma za blisko krawędzi zlokalizowane drugie gniazdo PCI-E 16x. W moim przypadku musiałem zrezygnować z wyjścia AUDIO w obudowie (po prostu cięło kable), a porty USB musiałem trochę nagiąć do krawędzi (podejrzewam, że i tak za mało). Niby to są szczegóły, a ile nerwów potrafią zaoszczędzi :)

DjLeo MODERATOR BLOGA  18 #34 09.10.2013 12:17

@Pangrys

Jasne Pangrys, co do zasilacza to również się z Tobą i z semtexem jednocześnie (o ile to możliwe :) zgadzam. Czyli nie ma co przesadzać z ilością Watów, ale też zapas mocy uwzględniający inne urządzenia musi być.

Dla przykładu w moim sprzęcie mam 5 dysków HDD + 1 SSD, 2 dvd, 2 obudowy (kieszenie na dyski), kartę GTX660, czytnik kart sd, oczywiście MOBO z CPU i5 3,8 Ghz - OC i pamięci DDR3 8GB 1600Mhz. I ciągnę to na starym 500W Taganie. Nigdy nie było żadnych problemów. Warto wspomnieć, że co byś do tego komputera nie podłączył, raczej rzadko zdarza się, żeby wszystko działało na raz. Dyski wyłączają się po dłuższej bezczynności. W dodatku maksymalna suma obciążenia wszystkich podzespołów nigdy nie przekroczy 500W, nawet jak wszystko zacznie szaleć na maksa. Ale tak czy siak, dobrym zwyczajem jest zapas przynajmniej 20% mocy. Także jak bym używał 600Watowy zasilacz to miałbym zapasu z 30% :)

bart86   10 #35 09.10.2013 12:37

@DjLeo
"Warto wspomnieć, że co byś do tego komputera nie podłączył, raczej rzadko zdarza się, żeby wszystko działało na raz."
do tego zdania trzeba dodać gwiazdkę
*przy uruchamianiu komputera podczas ładowania BIOS wszystkie podzespoły komputera działają na maksymalnych obrotach bez trybu oszczędnego w celu sprawdzenia przez BIOS

Semtex   18 #36 09.10.2013 12:55

@Pangrys
Wiem, widziałem, szanuję ;)

Co do Waterroryzmu, sprawy wyglądaj tak a nie inaczej z powodu produktów zasilaczo-podobnych, których na rynku jest masę, producenci podając rekomendowane "waty" dla Swoich kart, kierują się właśnie na nonamy, które mają sprawność na poziomie 40%. Stąd zawyżanie na pudełkach.

Co do samych zasilaczy (markowych), kupując/budując zestaw, trzeba sobie sprawę dobrze przemyśleć, czy planuję w przyszłości multi-gpu, jeżeli tak, trzeba pomyśleć o większej mocy zasilacza, jeżeli idę w singla, lepiej kupić mniej "watów" a więcej sprawności, zamiast pod singla (GPU) kupować 800W lepiej kupić 550W/500W ale ze sprawnością Gold/Platna ;)

BTW> Moje powyższe słowa odnoszę się do zestawu, przykładowo: i5 z K, GPU Middle/Highend, 8GB RAM, HDD +/- 1TB, SSD pod system, BR/DVD, może jakaś karta dźwiękowa, z 4 wentylatory 120/140mm. Standardowy zestaw gracza :P

Pangrys WSPÓŁPRACOWNIK  19 #37 09.10.2013 13:15

@semtex

I słusznie prawisz ale sam wiesz co userzy potrafią ładować do swych komputerów.

foreste   15 #38 09.10.2013 13:44

Ładna karta ale był widział zamiast radeona chip nvidi seri ti ;>

DjLeo MODERATOR BLOGA  18 #39 09.10.2013 13:44

@bart86

Dlatego napisałem rzadko, a nie nigdy ;)

Pangrys WSPÓŁPRACOWNIK  19 #40 09.10.2013 13:53

@foreste
Tylko że póki co Nvidia nie obługuje DirectX 11.2 a Radeony z serii HD7XXX oraz z serii R7/R9 i owszem. Nvidia musi trochę podgonić .

foreste   15 #41 09.10.2013 18:01

e tam dx 11 zadna rewelka ja mam dx10(grafika 9600gt) i jakoś nie narzekam :) i grafa dobra jest :>

Jaro070   16 #42 09.10.2013 18:24

Ehh, znowu odgrzewane kotlety. Mogli chociaż zmniejszyć prądożerność, bo nadal są za zielonymi.

ra-v   12 #43 09.10.2013 21:14

Z tego co widziałem na YT podczas testów, jest porównywalny do NVidii serii 770, temperatury ma niższe, platforma testowa bierze 20-50W mniej prądu niż na 770, no i jest o ok 100$ tańsza.

@Jaro070
"Mogli chociaż zmniejszyć prądożerność, bo nadal są za zielonymi."
Nie wiem czy 295 Nvidii w podwójnym SLi coś pobije, pewnie poczwórny CrossFire :-P

bart86   10 #44 09.10.2013 23:01

@ra-V
tyle że GTX295 to są jakby dwie grafiki w jednej ma dwa chipy GTX280 a w SLI to już mamy 4 karty tak naprawdę czyli nie trafiłeś z tym porównaniem ;)

  #45 14.10.2013 11:14

HDD: Intel® SSD 330 180GB SATA III

Pangrys WSPÓŁPRACOWNIK  19 #46 14.10.2013 15:36

Poprawiłem :)