r   e   k   l   a   m   a
reklama

Tanie karty Nvidii nie na serwerach: licencyjny zakaz uderza w naukowców

Strona główna Aktualności

O autorze

Hodowca maszyn wirtualnych i psów, poza tym stary linuksiarz, bonvivant i śmieszek. W 2012 roku napisał na DP o algorytmie haszowania Keccak i wciąż pamięta, jak on działa.

Nvidia właśnie zakazała korzystania ze swoich gamingowych kart graficznych GeForce i Titan do profesjonalnych zastosowań w centrach danych. Oficjalnie chodzi o zatrzymanie nadużywania sprzętu ponad jego normalne obciążenie w wymagających środowiskach biznesowych, nieoficjalnie… no cóż, chyba sami wiecie, o co chodzi nieoficjalnie, biorąc pod uwagę to, ile kosztują akceleratory GPU z rodziny Tesla.

Producent najszybszych na świecie układów graficznych uaktualnił warunki licencjonowania swoich sterowników dla kart GeForce GTX i Titan, wprowadzając kolejne ograniczenie: żadnych wdrożeń w centrach danych – za wyjątkiem obciążeń związanych z przetwarzaniem blockchaina (czyli przede wszystkim wykopywania kryptowalut). Jeśli więc ktoś chce wykorzystać w swojej serwerowni gamingowe karty Nvidii do np. obliczeń inżynierskich czy analityki biznesowej, to cóż, złamie w ten sposób warunki licencjonowania sterowników. A bez tych własnościowych sterowników nie wykorzysta dostępnej mocy obliczeniowej kart.

Według Nvidii, gamingowe karty graficzne nie były projektowane z myślą o obciążeniach, z jakimi można spotkać się w centrach danych. Zrobienie wyjątku dla wyliczania blockchaina sprawia, że trudno uwierzyć w te tłumaczenia – przecież karty graficzne pracują wówczas pod maksymalnym obciążeniem non-stop, zwykle nawet bez przerw technicznych. W porównaniu obliczenia natury inżynierskiej czy naukowej są znacznie mniej obciążające dla sprzętu.

Jeśli nie wiadomo o co chodzi, to chodzi o pieniądze. Za sprawą upowszechnienia się własnościowego frameworku CUDA, na rynku akceleratorów graficznych Nvidia właściwie nie ma konkurentów… zmuszona jest konkurować sama z sobą. Coraz częściej dochodzi do sytuacji, w których klienci zamiast kupować karty Tesla V100 za jedyne 8 tys. dolarów, kupują sobie karty GeForce GTX 1080Ti za niespełna 700 dolarów. Szyna PCIe to przecież szyna PCIe, GeForce w serwerze ruszy zarówno na Linuksie jak i Windowsie.

Oczywiście Tesla V100 jest wydajniejszą kartą, niż GeForce GTX 1080Ti. Ale o ile wydajniejszą? Odpowiedź brzmi: to zależy – od rodzaju obliczeń, jakie mamy do przeprowadzenia. Jak widać na poniższym wykresie, profesjonalne karty Tesla mają miażdżącą przewagę nad GeForce w obliczeniach zmiennoprzecinkowych podwójnej precyzji, wykorzystywanych głównie w zastosowaniach inżynierskich. Jeszcze większą przewagę mają w obliczeniach połowicznej precyzji, coraz częściej wykorzystywanych w obciążeniach związanych ze sztucznymi inteligencjami – trenowaniem sieci neuronowych. Jednak w obliczeniach normalnej precyzji ich wydajność nie jest znacząco większa.

Czy coś tu się nie zgadza? Skąd tak wielka różnica w wydajności? Wyjaśnieniem zagadki są pierwsze karty Titan z rodziny Kepler, produkowane w 2013 roku. Zastowano w nich praktycznie to samo GPU, które znalazło zastosowanie w kartach GeForce GTX 780Ti, tj. układ GK110. Różnica wydajności w obliczeniach zmiennoprzecinkowych podwójnej precyzji była jednak ogromna: podczas gdy GTX 780Ti osiągało jakieś 210 GFLOPS, Titan był w stanie uzyskać 1500 GFLOPS.

Wydanie Titana doprowadziło do zamieszania na rynku. Nagle okazało się, że ludzie nie kupują karty Quadro K6000, o dziwo z tym samym procesorem GK110, zapewniającym tu wydajność podwójnej precyzji na poziomie 1730 GFLOPS… w tej samej cenie mogą bowiem kupić cztery karty Titan. Dalszy rozwój wydarzeń był łatwy do przewidzenia. Te potężne Titany po prostu wycofano z produkcji w 2014 roku. Zastąpiły je karty Titan X z procesorem GM200, które w podwójnej precyzji oferowały co najwyżej 225 GFLOPS. Zagrożenie dla kart Quadro zniknęło.

Sęk jednak w tym, że w wielu obciążeniach roboczych, szczególnie tych używanych w obliczeniach naukowych, wcale podwójna precyzja nie jest potrzebna. Instytut biologii komputacyjnej, prowadzący badania nad fałdowaniem białek, z przyjemnością skorzystałby z tanich kart GeForce, oferujących świetną wydajność w obliczeniach pojedynczej precyzji, ponieważ obliczeniami związanymi z projektowaniem CAD się nie zajmuje. I do takich scenariuszy dochodziło – nierzadko w sprzęcie budowanym pod zamówienia (i budżety) naukowców pojawiały się karty GeForce. Teraz te wszystkie instytucje będą miały problem z licencjonowaniem.

Sama Nvidia przyznaje, że zdaje sobie sprawę z takich działań naukowców – i nie zamierza ich powstrzymywać, o ile nie jest to prowadzone na skalę centrum danych. Jak jednak zdefiniować centrum danych? Zapytany o to przez serwis The Register rzecznik zielonych przyznał, że istnieje wiele typów centrów danych – są to większe wdrożenia, często w wieloserwerowych szafach, dające dostęp wielu użytkownikom. Innymi słowy praktycznie każdy uniwersytecki klaster obliczeniowy to centrum danych.

Takie postawienie sprawy jest tłumaczone troską o zachowanie standardów wydajności i niezawodności dla sprzętu i oprogramowania – i zapewne można byłoby zrozumieć, że firma nie chce dawać gwarancji na gamingowe karty do pecetów tym, którzy chcą wsadzać je do serwerów i zmuszać do pracy w cyklu 24-godzinnym. Odmawianie gwarancji jest jednak czymś innym, niż zakazywanie stosowania, i to w sytuacji, gdy otwiera się furtkę dla komercyjnych kopalni kryptowalut, w których panują przecież straszliwe dla sprzętu warunki.

© dobreprogramy
reklama
r   e   k   l   a   m   a

Komentarze

reklama
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.   
Polecamy w WP TechnologieWP TechnologieAsus VivoBook Flip 14: laptop, który staje się tabletem