@SirckRTX 2080 Super vs. RTX 4070, czyli ray tracing 5 lat później

RTX 2080 Super vs. RTX 4070, czyli ray tracing 5 lat później

07.12.2023 12:17, aktualizacja: 07.12.2023 12:53

Ray tracing jest z nami już pięć lat. Warto sprawdzić gdzie zaczynaliśmy przygodę ze śledzeniem promieni a gdzie jesteśmy obecnie. Z tej okazji sięgnąłem po przedstawiciela generacji Turing oraz Ada Lovelace, które w dniu premiery okupowały zbliżony segment cenowy.

2420901

Krótka lekcja historii. Ray tracing wraz z DLSS zawitał pod strzechy wraz z premierą kart Nvidii serii RTX 2000. Recepcja nowych produktów nie była zbyt przychylna. MSRP RTX 2080 ustalono na 699$, czyli kosztował tyle, co GTX 1080 Ti. Za wariant Founders Edition trzeba było dopłacić 100$ . W tak pokaźny pieniądz dostaliśmy tyle samo pamięci VRAM, co w przypadku GTX 1080 oraz niestety wydajność w poszczególnych grach niższą od topowego Pascala z dopiskiem Ti. W roku 2018 brakowało też należycie napisanych gier z myślą o śledzeniu promieni a DLSS 1.0 pozostawiał wiele do życzenia. Pół dekady później mamy za sobą trzy generacje kart RTX oraz przeszło pięćset tytułów i programów wspierających ray tracing, DLSS oraz inne nowinki z obozu Nvidii.

Starcie przeszłości z teraźniejszością

Poniższy tekst ma charakter retrospektywy. Interesuje mnie ray tracing i DLSS. Na warsztat ląduje Battlefield V (2018) wraz z Control (2019), jako duże tytuły z przeszłości. Współczesność należy do Marvel’s Spider-Man Remastered (2022) i Cyberpunk 2077 w wersji 2.0 (2023). Małym bonusem będzie Crysis 3 Remastered. W testach skupiłem się wyłącznie na rozdzielczości 2560 x 1440 px.

Prezentacja generacji Turing. Na scenie Jensen Huang.
Prezentacja generacji Turing. Na scenie Jensen Huang.

Spytacie o sprzęt? Pierw sięgnęłem po Inno3D RTX 2080 Super. Układy z dopiskiem Super ukazały się niespełna kilka miesięcy po premierze pierwszych Turingów. Przede wszystkim uwzględniały one solidniejszą specyfikację. Oba warianty 2080-tki bazują na rdzeniu TU104 kutym w litografii 12 nm. Wersja Super otrzymała usprawnienie jednostek cieniujących z 2944 na 3072, teksturujących z 184 na 192, tyle samo jednostek rasteryzujących, czyli 64 oraz lekki upgrade rdzeni Tensor (368 vs. 384) i rdzeni RT (46 vs. 48). Obie karty miały 8GB pamięci GDDR6X.

RTX 2080 Super autorstwa Inno3D.
RTX 2080 Super autorstwa Inno3D.

2080 Super startowało z identycznym MSPR 699$, co zwykła 2080-tka. W Polsce ceny za Superkę oscylowały powyżej 3300 zł, co oczywiście zależało od producenta i modelu. Naturalnie zdarzały się warianty dużo droższe. Dziś na rynku wtórnym obie 2080-tki przeplatają się cenowo, startując już z pułapu niespełna tysiąca złotych. Mocniejszy wariant RTX 2080 Ti będzie oczywiście wydatkiem dużo większym.

RTX 4070 dostaniemy w dwóch opcjach: wielkiej cegły albo małej zgrabnej karty, jak ta na obrazku.
RTX 4070 dostaniemy w dwóch opcjach: wielkiej cegły albo małej zgrabnej karty, jak ta na obrazku.

Współczesność reprezentuje Inno3D RTX 4070 iChill X3. MSPR tego przedstawiciela rodziny Ada Lovelace pierwotnie ustalono w wysokości 599$, co stawia go na równi z identycznie wycenionym w dniu premiery RTX 3070 Ti. Obecnie 4070-tki mocno potaniały, gdzie ich ceny kształtują się w zakresie 2750 do 3600 PLN. W czarny piątek można było też wyhaczyć strzały za 2500 zł. Inno3D stoi po stronie tych tańszych modeli. Właśnie głównie ze względu na cenę ciekawie będzie porównać RTX 4070 z RTX 2080 Super.

192905
192904

RTX 4070 posiada 12GB w standardzie GDDR6X na szynie pamięci 192‑bit. Oczywiście karta otrzymała nowszą generację rdzeni RT oraz rdzeni Tensor. Do tego posiada obsługę kodeka wideo AV1. Słowem mamy wszystkie bonusy generacji Ada Lovelace – łącznie z DLSS Frame Generation. Dedykowany test 4070 znajdziecie w tym miejscu.

Zasady gry – przygotowania do testu

Oczywiście miałem okazję w przeszłości testować RTX 2080 Super. Dokładnie w dwóch wersjach: Super Black z zintegrowanym chłodzeniem wodnym i regularną chłodzoną powietrzem iChill X3. Wtedy całość realizowałem na procesorze i7‑8700, który dziś ustępuje miejsca nawet budżetowym jednostkom pokroju i3‑12100F.

Obie karty RTX lądują w platformie z Intel Core i7‑13700K z 32GB pamięci DDR4 3600MHz. Należy podkreślić, że współcześnie gry wykorzystujące ray tracing nie tylko mają apetyt na VRAM, ale potrafią mieć wysokie wymagania względem CPU. Z tego powodu Core i7 sprzed pięciu lat stanowi bottleneck, co miałem okazję już sprawdzić. Funkcja ReBar była domyślnie włączona, ale 2080 jej nie obsługuje. 4070 oczywiście korzystał z tego rozwiązania.

Platforma testowa

  • Procesor: Core i7-13700K
  • Płyta główna: NZXT N7 Z690
  • Chłodzenie: CM MasterAir MA824 Stealth
  • Pamięć RAM: 32GB 3600 MHz G.Skill Ripjaws V
  • Dysk: Corsair MP600 Core XT
  • Obudowa: NZXT H6 Airflow RGB
  • Zasilacz: NZXT C1000
  • System: Windows 10

Battlefield V

Przedostatnia gra studia DICE przeszła wiele aktualizacji. Generalnie zmiana platformy z i7‑8700 na i7‑13700K też daje sporą różnicę. Pięć lat temu w rasteryzacji (bez RT) 2080 Super wyciągnęła średnio 75 klatek i maksymalnie 145 fps. Teraz średnio uzyskuję 140 fps. W trybie wieloosobowym z włączonym RT i kampanii dla pojedynczego gracza bez RT gra cierpiała na poważny stuttering. Nie był on obecny w kampanii single player z włączonym RT. Ciekawe.

2421135

RTX 4070 w żadnych z wybranych trybów graficznych nie cierpiał na stuttering. Pokazał też zdrowy postęp wykonany przez rdzenie RT oraz Tensor. W grze wieloosobowej odnotowałem 60% skok wydajności w średniej ilości klatek. Aby to osiągnąć sama karta pobierała około 170W, podczas gdy starszy układ wykazał 240W.

2421136

Battlefield V z włączonym RT wymusza użytkowanie DLSS, choć gra nie zdradza w jakim trybie działa upscaler. Alokacja pamięci wynosiła 5700 MB dla obu testowanych układów.

Artefakty to częsty problem DLSS 1.0.
Artefakty to częsty problem DLSS 1.0.

Osobiście uważam, że w trybie wieloosobowym śledzenie promieni nie wnosi znaczących zmian do oprawy. Są to subtelne detale, na które nie zwracamy uwagi w ferworze walki. Jednocześnie, mimo licznych poprawek, zdarzają się graficzne bugi – jak choćby pikselowata woda na mapie Wake Island. Mimo wszystko to wczesna wersja RT i DLSS 1.0. Bonusowe wodotryski graficzne sensowniej zarezerwować wyłącznie dla kampanii dla pojedynczego gracza.

Control

Jest to wyjątkowy tytuł, bo Studio Remedy niemal od podstaw pisało go z myślą o śledzeniu promieni. Dlatego różnice są bardziej niż znaczące między dwoma trybami renderowania grafiki. Control nie stanowi wyzwania dla CPU. Nawet z włączonym RT obciążenie wynosił 15%.

2421139

Pełen ray tracing potrafi przydusić obie karty, co biorąc pod uwagę datę wydania gry robi wrażenie. Z racji wieku 2080 test wykonałem z bazowym RT: odbicia i RT elementów przezroczystych. Przechodząc na pełen RT trzeba uciąć po 20 fps z każdej z powyższych wartości dla obu kart.

2421141

Ciekawostką jest, że nawet bez śledzenia promieni Control potrafi być wymagającą grą dla karty graficznej. Tym samym jak na dłoni widać przydatność DLSS. W trybie rasteryzacji boost wydajności dla obu układów jest znaczący, bo wynosi około 66%. Control otrzymał update do DLSS 2.0, stąd tak dobre rezultaty.

Odbicia i refleksy to drobne smaczki RT, które faktycznie wzbogacają Control.
Odbicia i refleksy to drobne smaczki RT, które faktycznie wzbogacają Control.

Control był łatany przez długi czas. Mimo tego wciąż widać irytujące doczytywanie tekstur w locie – ulegają wyostrzeniu po sekundzie dwóch, gdy do nich podejdziemy. Ten sam problem dostrzegam w dużo młodszym Cyberpunk, ale na szczęście już na mniejszą skalę.

Marvel’s Spider-Man Remastered

W przypadku tej gry załączam wyłącznie jeden wykres. Ta gra to mistrzostwo optymalizacji. Obie karty z włączonym RT i DLSS Quality śmigają aż miło. Żadnej czkawki ani problemów graficznych. Zadziwiające jest też to, jak blisko są siebie.

2421143

Spider-Man z włączonym RT narzuca spore wymagania względem CPU. Są one na tyle wysokie, że procesor typu Quad Core z hyper threading (czyli dowolne stare i7) dostaje wyraźnej zadyszki. Jeśli korzystacie z takiego CPU i macie kartę Turing to ograniczacie swojego GPU. Dotyczy to też układów AMD RDNA 1 oraz topowych Pascali od Nvidii.

Spider-Man wygląda i działa znakomicie nawet z włączony RT.
Spider-Man wygląda i działa znakomicie nawet z włączony RT.

W przypadku i7‑13700K odnotowałem średnie obciążenie na poziomie 60%. Ciekawostką jest dla mnie, że podczas szybkiego poruszania się po mieście obie karty wyciągają równe 100‑110 fps. Generalnie proszę o więcej takich gier, a nie potworki pokroju Starfield :)

Cyberpunk 2077

Gra Polaków debiutowała trzy lata temu w okresie przejściowym między serią RTX 2000 a 3000. Przez ten czas przeszła gruntowne zmiany, także w zakresie oprawy wizualnej, głównie za sprawą ostatniej wielkiej łatki 2.0. Uwzgędnia ona m.in. Ray Reconstruction (DLSS 3.5), obsługiwany przez wszystkie układy RTX. Na pewnym etapie rozwoju produktu twórcy dodali m.in. path tracing, czyli jeszcze wyższą formę ray tracingu.

RTX 4070: z lewej rasteryzacja + DLSS, z prawej pełen ray tracing + DLSS.
RTX 4070: z lewej rasteryzacja + DLSS, z prawej pełen ray tracing + DLSS.

Biorąc pod uwagę wiek RTX 2080 Super zdecydowałem się na bardzo podstawowe śledzenie promieni. Mimo włączonego DLSS Quality karta generowała słabe 60 fps, ale wartość 1% low pokazuje, że nie było problemów płynnością animacji. Pełen RT dla Turinga oznacza naciągane 43 klatki w średnim fpsie. W bardziej intensywnych momentach działa to dość słabo.

2421147

W tym konkretnym przypadku RTX 4070 stanowi zdrowy przyrost sprawności w renderowania grafiki. Jestem trochę zaskoczony, jak niewielka różnica jest między zwykłą rasteryzacją a włączonym podstawowym RT. Z pełnym RT młodsza karta Ada Lovelace z pomocą DLSS Quality osiąga 70 klatek. Generator klatek (DLSS 3.0) potrafi poprawić ten wynik do 120 fps.

2421148

Path tracing masakruje RTX 2080 Super – w porywach 15 fps z pomocą DLSS. RTX 4070 też nie ma łatwego życia. Bez upscalera również zobaczymy ledwo 15‑20 fps a włączenie DLSS Quality pozwoli uzyskać 30‑35 fps. Szału nie ma. Dołożenie generatora klatek podbija płynność do 60 fps. Czuć jednak inputlag. Oczywiście grać się da, ale nie jest do doświadczenie idealne. Mimo wszystko zrezygnowałbym z path tracingu, szczególnie jeśli użytkujecie procesor z niższego segmentu.

Crysis 3 Remastered

Grę studia Crytek wybrałem z sentymentu. Przez lata „Jedynka” była pewnego rodzaju memem – Can it run Crysis? Później miejsce to zajęła część trzecia wydana w 2013 roku. Tytuł ten graficznie i gameplay’owo z powodzeniem broni się do dziś. Remaster graficznie nie robi rewolucji a jedynie wnosi lekki lifting, łącznie z dołożeniem raczej subtelnego śledzenia promieni. Wystarczy powiedzieć, że to jedyna gra w moim zestawieniu działająca tylko z DirectX 11.

192971
192970

Odświeżony Crysis 3 działa rewelacyjnie. Na obu kartach świadczy o tym wartość 1% low i płynna rozgrywka. Trzeba jednak przyznać, że 77 klatek z DLSS dla RTX 2080 Super pokazuje, że gra wciąż potrafi przydusić kartę graficzną.

Gra z 2013 roku otrzymała wyłącznie lekki lifting, m.in. animację trawy w 60 klatkach a nie 30.
Gra z 2013 roku otrzymała wyłącznie lekki lifting, m.in. animację trawy w 60 klatkach a nie 30.

Ray tracing w przypadku Crysis 3 został dodany raczej symbolicznie. Gra i bez niego wygląda świetnie, dlatego uważnie trzeba doszukiwać się różnic. I bez tego możemy docenić fakt, iż wyciera sobie buty niektórymi tegorocznymi nowościami. W tym tytule bardziej cieszy obecność DLSS, co będzie bonusem dla kart pokroju RTX 2060, RTX 3050 albo Superki z numerem 60.

Pojedynek starego z nowym

Przez pięć lat ukazała się masa produkcji wykorzystująca ray tracing i DLSS. Konkurencja w postaci AMD też nie śpi. Ich karty również wspierają RT oraz mają swój odpowiedniki upscalowania w postaci FSR. Niestety póki co, nie mam możliwości pozyskania RX serii 6000 albo 7000. Trochę szkoda, bo takie porównanie mogłoby zyskać na większej wartości.

Generacyjny postęp szczególnie docenią profesjonaliści.
Generacyjny postęp szczególnie docenią profesjonaliści.

RTX 2080 Super zaskoczył pozytywnie. Oczywiście w nowościach trzeba liczyć się z koniecznością obniżania detali, ale mimo tego karta wciąż pozwala na bardzo dużo. Rdzenie RT pierwszej generacji nie są tak wydajne, jak współczesne odpowiedniki. Trzeba też się liczyć z tym, że nie zawsze DLSS 2.0 da spektakularny wzrost wydajności. Niestety nie jest on idealnym lekarstwem na starzenie się GPU. 8GB VRAM to też za mało na zabawę w 4K z wysokimi detalami. Z innej beczki, 2080 to całkiem dobre rozwiązanie dla kreatywnych, co pokazuje powyższy wykres. Dostępna pamięć pozwala na zabawę z Blender oraz spokojne renderowanie filmów w 4K.

RTX 4070 w porównaniu do 2080 Super daje całkiem spory skok wydajności. Widać, jak przez lata postawiono spory nacisk na optymalizację architektury skupionej wokół rdzeni RT i tensor. Niemniej miejscami odczuwałem pewien niedosyt, mając nadzieję na ciut więcej. Karta nadrabia to sprawnością energetyczną, pobierając 150‑199W. W tym samym czasie Superka pobierała od 220 do 245W. Oczywiście w przypadku obu układów można zastosować udervolting. Bardzo dobrze wypada też sprawność w zastosowaniach profesjonalnych.

RTX 2080 Super daje radę, tylko potrzebuje sprawnego partnera w postaci dobrego CPU :)
RTX 2080 Super daje radę, tylko potrzebuje sprawnego partnera w postaci dobrego CPU :)

Jeśli konfigurowaliście PC w 2019 roku w oparciu o RTX 2080 Super bardzo możliwe, że robiliście to na którymś wariancie Core i7, Core i5 lub odpowiedniku w obozie Ryzen serii 1000 albo 2000. Na gruncie technologii CPU i tego co wymagają od nich gry przez pięć lat wykonano spory skok. Chcąc wykorzystać dziś cały potencjał Turinga lub planując przesiadkę na Ada Lovelace koniecznym jest modernizacja platformy. Użytkownicy AMD mają o wiele łatwiejsze zadanie, bo wystarczy podmienić procesor po uprzedniej aktualizacji BIOS. Użytkownicy Intela muszą sięgnąć po nową płytę główną i RAM, jeśli wybór padł na platformę DDR5.

W mojej ocenie 4070 to całkiem dobry upgrade dla użytkowników z kartami 2080. Podobno jednak nachodzi odświeżona seria 4000 z dopiskiem Super. Zobaczymy, co wtedy się zmieni. Kończąc, jak wy zapatrujecie się na ostatnich pięć lat ray tracingu i DLSS? Spoglądacie w przyszłość (kolejnych 5 lat) z optymizmem czy raczej dużą dozą rezerwy?

Wybrane dla Ciebie
Komentarze (7)