r   e   k   l   a   m   a
r   e   k   l   a   m   a

Xbox One w centrum danych, czyli wciąż musimy słuchać bajek o chmurze

Strona główna Aktualności

Opowieści dziwnej treści? Gdy z porównań mocy obliczeniowej dostępnych dla nowych konsol ósmej generacji wyszło, że Xbox One pozostaje w tyle za Playstation 4, niemal natychmiast z Redmond otrzymaliśmy na to odpowiedź, z której wynikało, że jest wręcz przeciwnie – a to dlatego, że konsola Microsoftu będzie korzystała z dodatkowej mocy obliczeniowej w chmurze. Jeff Henshaw, menedżer grupy Xbox Incubation & Prototyping stwierdził, że dla każdej wyprodukowanej konsoli Xbox One Microsoft zapewni w chmurze moc obliczeniową i storage porównywalną do trzech takich konsol. Brzmi to niczym kolejna software'owa rewolucja, ale też nieprecyzyjność takich deklaracji nasuwa sporo wątpliwości, szczególnie tym, którzy ze wstrzemięźliwością podchodzą do marketingowej papki, otaczającej technologie chmur obliczeniowych.

Szczęśliwie znaczenie słów Henshawa rozjaśnił Matt Booty z Redmond Game Studios. O co chodzi z tą outsource'owaną mocą obliczeniową, porównywalną z trzema Xboksami? Menedżer tak to wyjaśnia: powiedzmy, że patrzysz na scenę w lesie i musisz wyliczyć światło przenikające korony drzew, lub idziesz przez pole bitwy i masz bardzo gęstą wolumetryczną mgłę, która pokrywa teren. Takie rzeczy często wiążą się ze wstępnymi skomplikowanymi obliczeniami, które wykonać trzeba zanim wejdziesz do świata gry, ale nie muszą być one przeprowadzane co każdą ramkę. One to są idealnymi kandydatami do przeniesienia obciążenia konsoli do chmury – chmura może wykonać ciężką pracę, ponieważ możesz wykorzystać wiele urządzeń do rozwiązania problemu w chmurze. Inne opisane przez Booty'ego zastosowania chmury dla konsol to modelowanie fizyki, dynamika cieczy czy ruchy tkanin i włosów, które wymagają wiele wstępnych obliczeń, a nie wprowadzą opóźnień w samej grze.

A teraz zastanówmy się nad problemami, bez których nieprzetestowany przecież jeszcze na masową skalę pomysł nie może się obejść. Wbrew pozorom, rozwiązanie z Xboksa One nie jest całkowitą nowością – jakiś czas temu nad podobną technologią pracowała Nvidia – i osiągnęła w tym niezłe rezultaty. Jej platforma VGX służy do dostarczania na cienkie końcówki zwirtualizowanych desktopów, zapewniając na nich wydajność porównywalną z porządnymi stacjami roboczymi. Tutaj jedna karta VGX jest w stanie obsłużyć do stu końcowych użytkowników, korzystających z wirtualizacji działającej pod kontrolą komercyjnych hiperwizorów, np. XenServera od Citriksa. Z kolei platforma GRID służyć ma do świadczenia usług typu GaaS (Gaming-as-a-Service), w których najbardziej wymagające gry strumieniowane są na cienkie urządzenia klienckie (np. tablety z Androidem czy telewizory „smart”). Tutaj jedna karta GRID zapewnia dwa procesory na architekturze Kepler – łącznie 3072 rdzenie CUDA i 4,7 teraflopsa mocy obliczeniowej.

Co łączy oba rozwiązania Nvidii? Cóż, aby dobrze działały, potrzebne jest naprawdę dobre połączenie z Siecią, o bardzo niskiej latencji i bez ograniczeń transferu – coś, czego wciąż większość internautów na świecie nie ma. Nawet ci, którzy cieszą się dobrymi łączami szerokopasmowymi, mają je zestawione z myślą o pobieraniu treści, nie do szybkiej komunikacji w obie strony z dziesiątkami niezależnych połączeń. Nawet jeśli weźmiemy pod uwagę to, że rozwiązania Nvidii zastępują konsolę w całości, podczas gdy Xbox One trochę własnej mocy obliczeniowej wnosi do (excuse le mot) gry, to i tak przy tym, co oferują ISP, właśnie domowy Internet stanie się wąskim gardłem dla takiego odciążania konsol. Co bowiem gra ma zrobić, gdy akurat wyników zażądanych od chmury obliczeń nie będzie mogła otrzymać?

Nasuwa się tu pytanie o ekonomię takiego działania. Skoro w swoich centrach danych Microsoft zapewnić ma trzykrotność mocy obliczeniowej dla każdej wyprodukowanej konsoli, to dlaczego nie wbudować po prostu tej mocy w samą konsolę? W ten sposób byłaby ona dostępna na miejscu, bez żadnych opóźnień. Być może mamy tu do czynienia wyłącznie z deklaracją marketingową, a faktycznie Microsoft będzie bawił się w overselling swoich usług, zakładając np. że jednocześnie grać na konsolach może jedynie 1/4 ich posiadaczy (nie jest to wskaźnik zupełnie nierealny, z badań rozmaitych gier MMORPG wynika, że szczytowe obciążenia rzadko kiedy przekraczają 20% wszystkich subskrybentów).

Jednak nawet w takiej sytuacji nie wygląda to za dobrze. Zakładając, że Microsoft w swoich centrach danych będzie musiał zarezerwować 3*25% mocy obliczeniowej i pamięci/powierzchni dyskowej wszystkich aktywowanych Xboksów One, to musimy pamiętać, że rozwiązania serwerowe są wielokrotnie bardziej kosztowne, niż tania elektronika skierowana na rynek konsumencki. Czy będzie to można sfinansować wpływami z samych gier? Czy gry będą wówczas sprzedawane w kilku wersjach – np. 25% droższe Premium, z lepszą fizyką i ładniejszymi mgłami, dla garstki użytkowników, którzy mają Xboksa One ze świetnymi łączami do Sieci? Nie wiadomo jednak, czy taki model pozwoliłby na sfinansowanie prac deweloperskich.

Tak się też składa, że deklaracje Microsoftu przypadły na trochę niefortunny okres – bo jeszcze pamiętamy deklaracje Electronic Arts, dotyczące najnowszej wersji Sim City. Pamiętamy, jak wyjaśniano wymóg stałego podłączenia do Internetu koniecznością przeprowadzania skomplikowanych obliczeń na serwerze do symulacji świata gry – i jakim okazało się to kłamstwem, gdy crackerom udało się przerobić grę tak, by działała ona bez połączenia z Siecią, a złożoność symulacji pozostała na tym samym (żenująco kiepskim) poziomie.

Finalnie nie do końca wiadomo, na ile umiejętności programistów w studiach deweloperskich wystarczą do pisania gier, które uruchamiane są lokalnie, mogą, ale nie muszą wykorzystywać zewnętrzne zasoby sieciowe, a gra musi być gotowa w każdej chwili na poradzenie sobie bez nich, nawet jeśli wcześniej miała do nich dostęp. Wszystko to wychodzi przeciwko zasadzie KISS, na pewno mocno wydłużając zarówno czas tworzenia gry, jak i poziom trudności jej debugowania – i to dla w sumie raczej małych korzyści, takich jak zasugerowane lepsze oświetlenie w leśnej scenerii, czy też (co wydaje się bardziej realistyczne), lepsza sztuczna inteligencja przeciwników na ogromnych mapach, w których to co dzieje się w dużym oddaleniu od awatara gracza, nie musi być rozstrzygane w czasie rzeczywistym.

Oczywiście czas dopiero pokaże, na ile taki cloud-gaming będzie miał sens. Na razie jednak, w moich oczach bardziej to przypomina próbę wzmocnienia kontroli nad graczami i wprowadzenia tylnymi drzwiami konieczności stałego podłączenia do Sieci, niż realny technologiczny przełom w graniu.

r   e   k   l   a   m   a
© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.