Strona używa cookies (ciasteczek). Dowiedz się więcej o celu ich używania i zmianach ustawień. Korzystając ze strony wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.    X

Club 3D AMD Radeon R9 285 — czyli wydajna karta na (niemal) każdą kieszeń

Gdy niemal dokładnie rok temu, AMD dumnie ogłaszało premierę nową generację swoich kart graficznych R9, które zastąpiły serię HD 7000, dzięki uprzejmości polskiego oddziału AMD, ja już od jakiegoś czasu mogłem testować MSI Radeon R9 280X Gaming OC. Karta marzenie, ale brakowało jej kilku fajnych rozwiązań, które pojawiły się w innych kartach AMD, czyli np. R9 260 czy R9 290. Niemal rok później, dostałem do testów autorską kartę AMD Radeon R9 285, autorskiej konstrukcji firmy Club 3D.

Dla mnie tym bardziej ciekawe, bowiem nigdy nie miałem okazji osobiście zetknąć się z produktami firmy Club 3D. Karta R9 285 zastępuje w ofercie "Czerwonych" Radeona R9 280, który był mniej więcej odpowiednikiem HD 7950. Tym samym odbiera smakowity kawałek tortu swojemu konkurentowi ze stajni Nvidii, czyli popularnemu GTX 760. Polscy gracze uwielbiają karty graficzne, które są połączeniem dobrej, (czyli relatywnie niskiej) ceny i dobrej wydajności. I właśnie dla takich odbiorców przeznaczony jest najnowsze dziecko "Czerwonych".

Karta jest o tyle ciekawa, że jest to pierwszy model z nowym, wykonanym w 28nm architekturze, chipsetem Tonga Pro, który przynosi nam w obsługę nowych technologii AMD. "Czerwoni udoskonalili chipset umieszczając aż cztery razy więcej jednostek ACE, które mają znaczącą poprawić efektywność wykorzystania jednostek cieniujących w obliczeniach oraz dwukrotnie więcej shader engine, co ma za zadanie znacząco poprawić i przyśpieszyć GPU w tesselacji. Co więcej, coraz ciekawiej wygląda sam chipset Tonga Pro. Okazuje się, że powierzchnia samego chipu to 359mm2, czyli jest naprawdę minimalnie mniejszy od poprzednika, czyli Tahiti, który ma 365mm2. Dodajmy jeszcze, że na tym nowym chipsecie liczba tranzystorów wzrosła z 4,3 miliarda do 5 miliardów, co daje nam gotowy obraz możliwości inżynierów z Sunnyvale.

Jest i pewne nieprzyjemne na pierwszy rzut oka zaskoczenie. Poprzednik testowanego modelu, czyli R9 280/280X miał 3 GB pamięci na szynie 384 bitowej i to zazwyczaj następca miał zwiększaną lub co najmniej tą samą ilość ramu jak poprzednik, ale tu AMD postanowiło odstąpić od tej zasady. W bohaterze naszej recenzji mamy tylko 2 GB Ram i to w dodatku na szynie 256 bitowej. Oczywiście jak się domyślacie, stało się to nie bez przyczyny i wbrew pozorom, nie odbiło się to jakoś znacząco na możliwościach karty.
Radeon R9 285 ma podobne wyniki w benchmarkach niż karta, którą zastępuje, czyli R9 280 mimo mniejszej ilości ramu i zmniejszonej szynie. Co prawda, na początku różnice w FPS w obu kartach, wahały się od 2 do 5% na korzyść, 280 ale na najnowszych sterownikach ta różnica zanika. Najnowszy Radeon ma mniejsze zapotrzebowanie na energię i jest tańszy od poprzednika, co powinno ucieszyć oszczędnych ... i zielonych :)

Specyfikacja karty

  • Interface: PCI Express 3.0
  • GPU Chipset: Tonga Pro
  • GPU Clock: ~ 945 MHz
  • Jednostki cieniujące: 1792
  • Jednostki teksturujące: 112
  • Jednostki ROP: 32
  • Pamięć: 2GB GDDR5
  • Szyna pamięci: 256BIT
  • Taktowanie pamięci: 5500 MHz
  • TDP: 150 Watt
  • Rozmiary: 225x112x38 mm
  • Waga: 695 g

Budowa

Płytka PCB karty Radeona, zaskoczyła mnie w pozytywnym tego słowa znaczeniu. W porównaniu z testowanym przez ze mnie wcześniej egzemplarzu R9 280X, którego długość wynosiła 270 mm, karta z logiem Club 3D jest dość krótka, bo ma zaledwie 225 mm długości i nawet właściciele mniejszych obudów mogą spać spokojnie, bowiem ten Radeon wejdzie do niemal każdej obudowy.

Za chłodzenie odpowiada autorski układ chłodzenia firmy Club 3D o nazwie CoolStream. Chłodzenie zbudowane niemal klasycznie, czyli dość spory aluminiowy radiator wyposażony w dwie rurki typu heat-pipe okraszone dwoma zdumiewająco cichymi 75 milimetrowymi wentylatorami. Całość gustownie zamknięta w czarnej, pomalowanej proszkowo aluminiowej obudowie.

CoolStream się sprawdza, bo karta nie była jakoś specjalnie głośniejsza a i temperatury miała bardziej niż przyzwoite. W stanie spoczynku i pisania tego tekstu karta osiągała raptem 32-36 stopni Celsjusza. Podczas gry było to astronomiczne 66 stopni Celsjusza, przy czym trzeba zaznaczyć, że wiatraki pozostawały naprawdę ciche w porównaniu z poprzednimi testowanymi egzemplarzami.

Z tyłu karty znajdziemy dość standardowe porty, czyli dwa wyjście DVI-D, jedno gniazdo HDMI obsługujące standard 1.4a oraz jedno wejście Display Port 1.2 . Zasilanie doprowadzają dwa standardowe do bólu, 6-pinowe gniazda. Przy użyciu huba do Display Port możemy do tej karty podłączyć aż sześć monitorów. Tylko, z ręką na sercu, kto z was się przyzna, że w domu trzyma aż sześć monitorów ;)

Technologie

Sercem karty jest chipset Tonga, który jest gotowy na obsługę najnowszego DirectX 12, ale również Mantle, czyli niskopoziomowego API, które coraz częściej jest implementowane na najnowszych grach. Nowe Radeony dzięki obsłudze API Mantle, pozwalają wycisnąć z naszego sprzętu o wiele więcej i będzie to szczególne przydatne dla zapalonych graczy, którzy raczej nie lubią zmarnowanych zasobów komputera. I jak pokazałem już wcześniej na testach w Battlefield 4, nie są to czcze przechwałki.

Karta R9 285 w odróżnieniu od poprzedniej przez ze mnie testowanej MSI R9 280X, obsługuje między innymi technologię AMD TrueAudio. Jak już wcześniej pisałem, dźwięk ma być renderowany normalnie niczym grafika, nie zaś odtwarzany i filtrowany, tak jak dotychczas. Z AMD TrueAudio korzystają z tego mają już takie gry jak: Tchief i Lichdom: Battlemage, którego i ja jestem również właścicielem, ale to tej technologii napiszę nieco później …

Jeśli dodamy do tego obsługę XDMA CrossFire oraz długo oczekiwanego FreeSync to mamy już pełen obraz możliwości tej karty.
Sam FreeSync, który ma być odpowiedzią na podobne rozwiązanie Nvidii, zadebiutuje już na początku przyszłego roku wraz z pojawieniem się pierwszych monitorów obsługujących tą technologię.

Platforma testowa

Tutaj za wiele się nie zmienia :)

Płyta Główna: Intel DZ77RE-75K

Procesor: Intel® Core™ i5-3570K 3.40GHz

Chłodzenie: Zalman CNPS14X

Ram: 8192 MB (2x 4096) DDR3 Kingston HyperX PC1600 XMP X2 CL9 Grey

Karta graficzna: Club 3D AMD Radeon R9 285

Sterowniki: AMD Catalyst 14.301

Zasilacz: XFX Core 550W 120mm 80+

SSD: Intel® SSD 330 180GB SATA III

HDD: Seagate SATA III SV35 1TB

Obudowa: SilentiumPC Regnum L50 Pure Black

OS: Windows 8.1 Update 1 Pro 64-bit

Monitor: BENQ 24" GL2460 (1920x1080)

Benchmarki

Unigine Heaven Benchmark

Unigine Valley Benchmark

Catzilla 1.3

3DMark

Fire Strike

Ice Storm

Cloud Gate

Sky Diver

Wyniki w grach

Wyniki nie zaskakują, jeśli ktoś lubi grać na ustawieniach ultra to owszem, da się w miarę komfortowo grać. Ale jeśli pobawimy się suwakami i niektóre detale zmniejszymy, to ilość FPS zadowoli nawet największego malkontenta.

Wyniki mierzyłem FRAPS ale w BF 4 posłużyłem się metodą opisywaną wcześniej przy okazji Mantle.

Screeny

Bez tego żaden test nie byłby pełen. Spójrzcie sami, jakie czasem dostawałem wyniki z FRAPS :)

Battlefield 4

Battlefield 4

Crysis 3

Podsumowanie

Właściciel Club 3D Radeon R9 285, dostaje kartę będącą bardziej wydajną niż bezpośredni konkurent, czyli Nvidia GeForce GTX760. W świetle opóźnionej premiery GTX 960, zakup Radeona R9 285 jest bardzo rozsądnym krokiem a jeszcze dochodzi program Nigdy nie spoczywaj na laurach w którym po zakupie tego Radeona możemy dostać za darmo trzy gry, które wybierzemy sobie z 29 dostępnych w tym programie tytułów. A gry w tym zestawieniu są naprawdę ciekawe, np. możemy wybrać najnowszy hit, czyli Alien: Isolation.

Nie można tutaj nie wspomnieć o AMD PowerTune, czyli pełnej automatyce w działaniu karty graficznej. Wystarczy w panelu Catalyst Control Center pobawić się suwakami, zadać parametr i karta automatycznie dostosuje pracę karty, żeby to utrzymać: reguluje napięcie, taktowanie, kontroluje pracę wentylatora oraz pilnuje temperatury karty.

Plusy

  • Obsługa Mantle
  • AMD True Audio
  • AMD FreeSync
  • Lepsza wydajność od GTX 760
  • Niski pobór energii
  • Program "Nigdy nie spoczywaj na laurach"
Minusy
  • Tylko 2 GB ramu
  • Zmniejszona szyna z 384 bit na 256 bit

Za zakupem tej karty przemawia kilka przyczyn, które powinniśmy brać pod uwagę.
Jest to naprawdę wydajna karta o dużych możliwościach i dość atrakcyjnej cenie. Obecnie przeglądając oferty z największych sklepów, nietrudno znaleźć ofertę na tą kartę w cenie ok 950 zł. Warto dodać, że ogłoszono dość sympatycznie brzmiące obniżki na referencyjne wersje tych Radeonów, co wraz z wieściami o przesunięciu premiery konkurencyjnego GTX 960 na początek 2015 roku tylko może zachęcić niezdecydowanych. R9 285 jest kierowany dla graczy, którzy grają w zwykłym i niemal powszechnym FullHD. Okazuje się, że mimo zmniejszenia ilości ramu i użyciu szyny 256 bit, to wydajność karty nadal utrzymuje się na wysokim poziomie. Tutaj nie można zapomnieć, że to zasługa nowego chipsetu Tonga Pro, który pokazuje lwi pazur.

Bardzo gorąco chciałbym podziękować firmie AMD za możliwość przetestowania tej karty. 

sprzęt gry

Komentarze

0 nowych
qbaz   12 #1 16.10.2014 02:34

@Pangrys - Po tytule można się spodziewać, że podasz cenę, jednak w opisie jej nie znalazłem. Podpowiem, że kwota jaką trzeba wydać na 285-tke to jakieś 890-1100 PLN w zależności od "taktów" i producenta.
Poza tym, tekst fajny i rzeczowy :)
Pozdrawiam

Odyniec_Stary   10 #2 16.10.2014 02:35

W plusach niskiego poboru energii bym nie wpisywał, bo ta karta nie pobiera wcale mało. Tym bardziej, że w żaden sposób tego nie zmierzyłeś.

wojtex   10 #3 16.10.2014 02:55

No pewnie, że na każdą kieszeń. W końcu to tylko 1000 PLN, ha!

Ja mam GTX 650 Ti BOOST. Z ciekawości odpaliłem Unigine Valley Benchmark. Średnia: 27 FPS. Czyli o 8,5 klatki mniej, ale cena dwa razy mniejsza.

@qbaz: też mnie to rozbawiło : )

LastNPC7   9 #4 16.10.2014 04:07

Obsługa Mantle: Nie potrafię wymienić nawet 3 gier, które to obsługują.
AMD True Audio: Tu akurat znam wszystkie... Dwie.
AMD FreeSync: Nie słyszałem o monitorze, który by to obsługiwał.
Lepsza wydajność od GTX 760: W jednych grach jest szybszy, w innych wolniejszy.
Niski pobór energii: Poziom GTX 980.

command-dos   18 #5 16.10.2014 06:08

Dobrze byłoby wspomnieć, jak sprawuje się to coś pod linuksem: kwestia sterowników, wydajność i jakieś tam uwagi, spostrzeżenia - czytałbym ;)

  #6 16.10.2014 06:20

Wszystko fajnie tylko nie na każdą kieszeń - to jest połowa przeciętnej wypłaty.

bart86   10 #7 16.10.2014 07:05

nowa komparka kryptowaluty ;>

bart86   10 #8 16.10.2014 07:05

@LastNPC7: marketing w AMD sam siebie już goni

  #9 16.10.2014 07:30

Na każdą kieszeń, jasne ludzie zarabiają 1200 zł to dla nich karta za 1000 zł to pikuś

  #10 16.10.2014 07:41

@LastNPC7:
Są już 4 gry z Mantle: Battlefield 4, Thief, Plants vs Zombies: Garden Warfare, Sniper Elite III. Zaraz będą kolejne 3: Civilization: Beyond Earth, Dragon Age: Inquisition oraz Battlefield Hardline. I to wszystko w ciągu roku od wprowadzenia jej po raz pierwszy. Znasz szybciej przyjmowaną przez branżę gier technologię? Nawet DirectX nie bywa tak szybko wprowadzany :)

DiamondBack   13 #11 16.10.2014 08:01

Wynik R9 290
http://s14.postimg.org/54zapacch/r9290.jpg i wcale nie dałem dużo więcej niż cena R285 a wynik sporo wyższy. Więc polecam polować na okazje. Ja za swoją 3 miechy temu zapłaciłem 1150 złota :)

@LastNPC7: Nie słyszałeś, bo nawet jak grałeś w gry obsługujące mantle to twoja grafika nawet nie zezwoliła na wyświetlenie opcji zmiany mantle z DX ;)

cyryllo   17 #12 16.10.2014 08:24

1000zł na kartę graficzną? Nigdy ;) Recka fajna ;)

Pangrys WSPÓŁPRACOWNIK  19 #13 16.10.2014 08:28

@DiamondBack: Gratki, świetny zakup za naprawdę dobrą cenę.

@qbaz: Musiałem nieopatrznie skasować zdanie z ceną . Dzięki za zwrócenie uwagi. Poprawiłem :)

Deliryk   10 #14 16.10.2014 08:54

Niestety ale CUDA definitywnie przesądzają w moim przypadku o wyborze "zielonych".

przemo_li   11 #15 16.10.2014 09:08

Na Linuksie jest Catalyst. Wyniki można znaleść na necie różnych benchmarków.

Jeśli chodzi o sterownik radeon to sprawa się komplikuje.

AMD chce wspólnego komponenetu po stronie systemu operacyjnego (moduł kernela) i dla flossowego radeona i dla Catalysta, i właśnie R285 będzie pierwszym gpu opartym o to rozwiązanie.

Niestety AMDGPU jeszcze nie jest gotowe, a programiści kernela nie przyjmują 2 sterowników pod ten sam sprzęt. Więc obsługi 285 nie ma w obecnym module kernela.

Data wydania AMDGPU to "późna jesień".

Ciekawe jak to się sprawdzi w praktyce :)

Pangrys WSPÓŁPRACOWNIK  19 #16 16.10.2014 09:15

@przemo_li: Mantle się sprawdziło, gram na BF4 i mam więcej klatek niż na DirectX :)

Sądzę że i AMDGPU się sprawdzi ale poczekajmy z ocenami.

  #17 16.10.2014 09:27

...karta na każdą kieszeń to to nie jest. Można również napisać, że Radeon R9 295X2 też jest na każdą kieszeń.

przemo_li   11 #18 16.10.2014 09:54

@Pangrys:
Widziałeś porównania sterowników z Mantle i z przed Mantle? :D

Coś tak im te średnie fps w DX troszkę .... spadły :D


Jestem za wykresami ilości ramek które zajęły najdłużej w ciągu X minut powtarzalnej gry.

Tylko taka metodyka ciąż jest zbyt mało popularna.
(Poza tym każdy łoś sczyta z ekranu literki obok FPS.. wykresy, czasy, ilości... wyższa szkoła jazdy)


Więc kluczowe pytanie to:
A płynność grania jak?

Edit:
Nie żebym wobec Ciebie stosował słowo na ł ;)

Autor edytował komentarz.
przemo_li   11 #19 16.10.2014 09:58

@Darek111 (niezalogowany):
:D

Trzeba się zgodzić. Nawet na Steam Survey (dane od typowych graczy) iGPU przeważają.

Na każdą kieszeń są APU od Intela* i AMD i Nvidii**

* APU to CPU + iGPU w przypadku intela, tak dla odróżnienia od tych CPU które obie firmy sprzedają bez zintegrowanej grafiki
** Tegry to też APU, tylko na ARMy nie pogramy w "gry" z klonów.

Autor edytował komentarz.
Siarczyslaw   7 #20 16.10.2014 10:01

Nie ma co, kupować półproduktów amd, za chwilkę 960, wystarczy trochę poczekać..

  #21 16.10.2014 10:46

Sądząc po ilości byków (nawet w pierwszym zdaniu), nie powinieneś się udzielać po 23-ej ;)

rradek   10 #22 16.10.2014 10:47

Jak to jest że wszyscy polecają radełony a i tak NVIDIA sprzedaję duużo więcej swoich kart hahaha

Jak widać radełonowi nic juz nie pomoże, oni tylko odgrzewane kotlety produkują, do nich to elektrowni potrzeba żeby to zasilić, porażka.

przemo_li   11 #23 16.10.2014 10:57

@rradek:
Wiesz gdybyś podał źródło...

A tak ktoś inny może to zrobić i nazwać Ciebie zwykłym fanbojem :P

http://www.dobreprogramy.pl/Rynek-ukladow-graficznych-AMD-i-Intel-zyskuja-NVIDIA...

AMD 17% vs Nv 14% ....

Pangrys WSPÓŁPRACOWNIK  19 #24 16.10.2014 11:16

@przemo_li: Na Mantle gra mi się płynniej i lepiej. Zresztą i tak, kto gra na Ultra :) Na mieszanych ustawieniach miałem na 64 slotowym serwerze w zadymie spadki do 80 FPS co uważam za i tak dobry wynik. Pomijam fakt, że BF4 ma naprawdę skopany kod sieciowy i kiepską optymalizację. W innych grach nie mam takich dropów.

Autor edytował komentarz.
Pangrys WSPÓŁPRACOWNIK  19 #25 16.10.2014 11:25

@Modeq (niezalogowany): Pewnie masz rację :)

rradek   10 #26 16.10.2014 11:32

źródło: http://pclab.pl/news59308.html

"Zieloni trzymają w garści aż 62 procent tego segmentu, podczas gdy konkurencja 37,9 procent."

No i co zatkało Cie?

  #27 16.10.2014 11:43

@qbaz: Też myślałem, że ta karta będzie za góra 300-350 zł. Tytuł z jakiegoś MATRIX'a. Autor tytułu chyba sie urwal z choinki na zielonej wyspie ;). Przy moich zarobkach 1850 zl brutto i stałych wydatkach to musiałbym pracować na tą kartę dobre 5 mc-y i właściwie niewiele jeść w tym czasie. Nie jestem jakimś wyjątkiem, bo tak ma ponad 60% Polaków, a w mojej firmie tyle zarabia 30 osob na 40 osob - pracownikow. - woj. łódzkie. Najwiecej zarabia wiadomo kto, prawie tyle co cala zaloga, GUS z mojej firmy wyciaga srednia ponad 3500 zl brutto - SZOK!. Pracy nie zmienię, bo w okolicy płacą podobnie -+15%, a na dojazdy kilkaset km mnie nie stac, bo mam dzieci na wychowaniu, a tu poszli mi na pewne ustepstwa, a malo gdzie ida... Obecnie posiadam integre Intela w Pentiumie (na Low/Medium dziala znosnie Crysis) oraz w laptopie Radeona HD 7650M, zaraz ktos powie, skoro tak, to czemu stac mnie na laptopa, otoz nie stac, dostalem dofinansowanie z PFRON (az 1500 zl), a komputer za 1000 zl jeszcze splacam, nie bralbym komputera gdybym wiedzial, ze dostane dofinansowanie. Bardzo chetnie kupilabym sobie taka karte, ale mnie nie stac, a kolejny kredyt odpada i mysle, ze tak jest w wiekszosci polskich domow.

DeliVeriuS   8 #28 16.10.2014 11:55

950 zł może i na każda kieszeń przy zarobkach 4-5 tyś zł. Mój 8800 GT nadal daje radę. BF3 40 fps :)
I tak brałbym nVidia.

Pangrys WSPÓŁPRACOWNIK  19 #29 16.10.2014 12:22

@Anonim (niezalogowany): Dlatego napisałem (niemal) na każdą kieszeń. To nie karty są za drogie ale my za mało zarabiamy ale to rozmowa na całkiem inny temat.

  #30 16.10.2014 12:28

1000zł na karte, jasne co tam wydać 2/3 wypłaty. Ludzie ogarnijcie się, zobaczcie jakie są realne zarobki w tym kraju a potem durne tytuły newsów wymyślajcie.

MaXDemage   18 #31 16.10.2014 12:36

@Pangrys: Łohoohohohoh, Panie Współpracowniku ;D Gratulacje.

A karta jednak nie na moją kieszeń, ja mógłbym max wydać 600zł... Gdyby tak wydajne były w tej cenie, ech, marzenie.

  #32 16.10.2014 12:38

Hm.. jakbym miał kupić kartę za 1000 zł to... dopłaciłbym dodatkowe 500 zł i kupiłbym jednak GeForce GTX 970. Znacznie mniejszy pobór mocy przy znacznie większej wydajności. Ok, jeszcze drożej, w cenie całego komputera, ale jednak byłoby na dłuuuuugo. No i sterowniki AMD...

Fakt, tyle, że ja nie mam rodziny i dzieci na głowie, a to diametralnie zmienia postać rzeczy.

Autor edytował komentarz.
  #33 16.10.2014 12:43

@MaXDemage: Masz GTX 750Ti... nie jest taka zła, a przynajmniej mało ciągnie.

budda86   9 #34 16.10.2014 12:55

Gdybym miał wydać 1000 zł na samą kartę... To kupiłbym konsolę :D

MaXDemage   18 #35 16.10.2014 13:00

@lukasamd: O widzisz, czasem dobrze jest zapytać speców ;D

MrBeckham666   19 #36 16.10.2014 13:14

gtx 750 czy TI to bym powiedział jest na każdą kieszeń.

minusy tylko 2 gb ram?

matko a jaka gra teraz potrzebuje wiecej? na wydajnych kartach 1 gb nawet wszystko śmiga jak trzeba. chyba że mówimy o nie wiadomo jakich rozdzielczościach.

przemo_li   11 #37 16.10.2014 13:15

@Pangrys:
Super. :)

MrBeckham666   19 #38 16.10.2014 13:16

@budda86: ja dołożyłbym parę zł i kupił gpu i cpu:)

przemo_li   11 #39 16.10.2014 13:16

@rradek:
Nie.

Bo twoja statystyka po prostu nie przedstawia całego rynku.

Moja tak :P

No chyba że chcesz mnie przekonać, że iGPU/APU to mniejszość rynku ... :D

Pangrys WSPÓŁPRACOWNIK  19 #40 16.10.2014 13:19

@MrBeckham666: Wiesz przy kiepsko napisanych grach ten jeden giga więcej ramu robi różnicę. I tu znów kłania się BF4 i doczytywanie tekstur na wielkich mapach, na 64 osobowych serwerach. W innych grach to nie ma takiego znaczenia.

MrBeckham666   19 #41 16.10.2014 13:26

@Pangrys: rozumiem nie sprwdzałem wyjątki zawsze jakieś są fakt że jak komuś zależy na tej grze to rozumiem ale w wiekszości przypadków dopłacanie np do 2 gb jest mało opłacalne widać to na nie jednym teście.

MiłoszW   8 #42 16.10.2014 13:31

Sorry, ale musiałbym się z koniem na łby pozamieniać by dać 1000zł za kartę. Tym bardziej, że od paru lat wzrost wydajności już nie jest taki wielki. Logika finansowa takiego zakupu jest równa na poziomie kupna smartfona "super high end total rewelacja topowy model" za 2500zł... przykład: Galaxy S4 rok temu i Galaxy S5 teraz. I nie chodzi o to, czy mnie stać, czy nie - stać, ale po kiego grzyba? Grafa za 5-6 stówek spokojnie starczy na 3 lata...

Autor edytował komentarz.
FilipStraburzynski   6 #43 16.10.2014 13:33

@lukasamd: Zerknij na komentarze. Dla wielu osób 1000 zł to już kosmos, a co dopiero 1500. Swoją drogą warto sprawdzić czy cena ostatecznie taka będzie, bo chyba ceny trochę skoczyły.

No i w przedziale do 1000 zł Radeony jednak rządzą jeśli chodzi o stosunek wydajności do ceny:
http://www.dobreprogramy.pl/Czerwone-czy-zielone-Przygladamy-sie-najciekawszym-k...

P.S. Jaki problem ze sterownikami AMD? :)

  #44 16.10.2014 13:47

@FilipStraburzynski: No tak, sam czekałem na GTX 960, bo pewnie był w tym przedziale i jestem zdziwiony że nie wypuszczają. Z Maxwellem pozmiataliby raczej rynek doszczętnie. Pozostaje pozostać przy 750Ti którego mam obecnie. Zastanawiałem się nad 270/270X, no ale pobór też ma dla mnie znaczenie.

Sterowniki... nie mam dobrych doświadczeń z desktopów. Z mobilnych to znowu dziwne rozwiązania jak pogarszanie jakości obrazu (np. kolorów) dla oszczędzania energii. Nie pamiętam jak to się nazywa, ale jest do skonfigurowania w CCC. Kiedyś gdy korzystałem z probooka 6540b z Radeonem HD 4550 straciłem multum czasu zanim się zorientowałem, co powoduje problemy z dziwnie wyglądającymi choćby stronami. No i na tym samym lapie miałem rozmyte czcionki na Windows 8 przez długi brak wsparcia dla tej serii (AMD wtedy porzuciło serię HD 4xxx po czym po bodaj pół roku jednak wypuściło kompatybilne sterowniki).

DonaldT   7 #45 16.10.2014 14:07

1000 zł to nie na prawie każdą kieszeń. Na prawie każdą kieszeń to karty za 600 zł są. A znam wielu, którzy kupują za 400 zł. Tysiak byłby dla nich zbyt wielką ceną.

Autor edytował komentarz.
  #46 16.10.2014 14:34

kurde... dlaczego nie da się zmontować podstawki pod laptopa w której będzie wpakowany inny hardware, jak np. kolejna kość RAM , lepsza grafika , lepszy dysk i żeby to dało się podłączyć do już istniejącego sprzętu? czy to serio, aż taki problem by to zrobić, a potem ustawić co ma działać? przecież w razie awarii mamy domyślny hardware z laptopa...

neXt___   12 #47 16.10.2014 14:35

Sporo literówek w tekście, no i karta jest tylko "niema" na każdą kieszeń, bo 1000 złotych to naprawdę spory pieniądz, nawet patrząc na średnią krajową. Dla mnie, jako studenta, to wydatek zdecydowanie poza kieszeń. Trzeba wciąż czekać na coś w stylu GTX 950/Ti, R7 360X lub pomyśleć nad R9 270 i GTX 660.

ekloszard   6 #48 16.10.2014 15:07

@lukasamd: Pobór mocy ma znaczenie? Aj, no tak, jesteśmy w UE, więc w tym dziwniutkim tworze ziścił się termin jakiego nawet socjalizm nie znał, czyli "ubóstwo energetyczne".
Karty graficzne nie chodzą u normalnego użyszkodnika na 100 % przez 24h, zasilacz zaś można dać ciut mocniejszy i po sprawie. Będąc całkiem serio to mój monitor potrafi więcej zeżreć niźli ten radek...

  #49 16.10.2014 15:24

@rradek: Bo NV szybciej pada ...

  #50 16.10.2014 15:33

@ekloszard: Jak kto woli. Ja złożyłem platformę bardzo wydajną, a jednocześnie energooszczędną: i5 Haswell, 750Ti, SSD... zasilacz Be Quiet 350 W o wysokiej skuteczności, brak wentylacji obudowy. No i mam max. pobór z gniazdka na poziomie 140 W (mierzone watomierzem, FurMark + Prime95, więc nierealne w codziennym zastosowaniu), do tego ciszę, chłód i minimalny wpływ na rachunki za energię. Graczem za bardzo nie jestem, więc uważam to za lepsze rozwiązanie niż pakowanie czegoś, co tylko wyrzuca mi prąd w formie ciepła*.

* - ok, w idle czy to GF czy AMD ciągnie mało (5-10 W), to fakt.

ekloszard   6 #51 16.10.2014 15:41

@lukasamd: Bardzo ładnie Ci ta konfiguracja pod względem moc/prąd wyszła, chociaż brak wentylacji obudowy brzmi jeszcze lepiej. Ja też bawiłem się w watomierz, ale już przestałem - zaakceptowałem fakty.

Autor edytował komentarz.
  #52 16.10.2014 16:10

@ekloszard: Ja nie musiałem, składałem od początku. Owszem, takie 660 czy 760 korciło.. ale w sumie do czego?

FilipStraburzynski   6 #53 16.10.2014 16:15

@lukasamd: No właśnie, skoro nie grasz to karta większość czasu i tak jest w idle, więc tu różnic praktycznie nie ma, a porównujemy przecież architekturę z grudnia 2011 do tej z lutego 2014. A jeśli nie grasz to Radeony w obliczeniach podwójnej precyzji są wciąż bardzo efektywne energetycznie :)

GCN to architektura nastawiona na uniwersalność. No i dla graczy będzie nabierał znaczenia fakt, że w jest w nowych konsolach. Jak widać po wynikach wydajności w Ryse: Son of Rome, czyli gry przygotowanej tylko z myślą o nowych konsolach i PC, Radeony wypadają tu sporo, sporo lepiej. I to bez wsparcia Mantle :)

bart86   10 #54 16.10.2014 16:48

@lukasamd: na GTX750 też da się grać w gry to nie jest taka grafika niskich lotów

mktos   10 #55 16.10.2014 17:26

"Tylko, z ręką na sercu, kto z was się przyzna, że w domu trzyma aż sześć monitorów ;)"

Jakbym dodał wszystkie ekrany w domu (w tym dwa telewizory) to nazbieram 6 monitorów ;-)

Shaki81 MODERATOR BLOGA  38 #56 16.10.2014 18:54

Narzekacie na cenę, ale przecież równoważny produkt ze stajni Nvidi będzie co najmniej 2 razy droższy.
A sama recka cóż, rewlka, jak zwykle super i na poziomie.

Autor edytował komentarz.
  #57 16.10.2014 19:41

Jak za kilka lat uda im się w końcu dopracować sterowniki to może wezmę pod uwagę zakup Radeona.

Odyniec_Stary   10 #58 16.10.2014 22:00

@DiamondBack: "Wynik R9 290
http://s14.postimg.org/54zapacch/r9290.jpg i wcale nie dałem dużo więcej niż cena R285 a wynik sporo wyższy. Więc polecam polować na okazje. Ja za swoją 3 miechy temu zapłaciłem 1150 złota :) "

Jeszcze dopisz, że to połowa ceny GTX 980, więc zrobiłeś świetny interes.

Odyniec_Stary   10 #59 16.10.2014 22:01

@Shaki81: "Narzekacie na cenę, ale przecież równoważny produkt ze stajni Nvidi będzie co najmniej 2 razy droższy.
A sama recka cóż, rewlka, jak zwykle super i na poziomie."

Kiedy ostatni raz sprawdzałeś ceny?

Odyniec_Stary   10 #60 16.10.2014 22:03

@mynikk (niezalogowany): "kurde... dlaczego nie da się zmontować podstawki pod laptopa w której będzie wpakowany inny hardware, jak np. kolejna kość RAM , lepsza grafika , lepszy dysk i żeby to dało się podłączyć do już istniejącego sprzętu? czy to serio, aż taki problem by to zrobić, a potem ustawić co ma działać? przecież w razie awarii mamy domyślny hardware z laptopa..."

Ponieważ wtedy byłby to PC, nie laptop.

  #61 16.10.2014 23:05

@bart86: No tak, choć w tym przypadku jak brać 750 vs 750Ti to warto dopłacić.