r   e   k   l   a   m   a
r   e   k   l   a   m   a

Wirtualna rzeczywistość – ostateczna granica dla sieci

Strona główna AktualnościINTERNET

Już to kiedyś przerabialiśmy, gdy z Internetem łączyliśmy się za pomocą analogowych modemów telefonicznych, wybierając słynny numer 0202122. Szybko pojawiły się jednak multimedia i gry sieciowe, które uczyniły tamte modemy bezużytecznymi, wyganiając internautów spragnionych czegoś więcej do kafejek internetowych. Teraz, wraz z rosnącą popularnością serwisów z wideo 4K, Internetu Rzeczy, i przede wszystkim wirtualnej rzeczywistości, domowe łącza internetowe na kablu koncentrycznym czy skrętce telefonicznej stają się równie bezużyteczne, co tamte modemy. Tym razem jednak do kafejki internetowej biegać nie będzie trzeba.

Spośród tych wszystkich nowości, jakie jeszcze w tej dekadzie mają opanować nasze domy i miejsca pracy, najwięcej kłopotów jest z technologią, która jest zarazem najbardziej obiecująca. Wirtualna rzeczywistość (VR), medium doskonale responsywne, dostarczyć ma treści w pełni skupiające na sobie uwagę odbiorcy. Gry to najbardziej oczywiste jej zastosowanie, ale nie mniejsze znaczenie VR odegrać ma w edukacji (czy to nauce pilotażu, czy chirurgii), inżynierii (projektowanie, symulacje, naprawy) czy też komunikacji biznesowej (gdzie wirtualna rzeczywistość w połączeniu z teleprezencją może zastąpić w wielu wypadkach kosztowne podróże pracowników).

W wirtualną rzeczywistość inwestują dziś największe firmy świata IT. Microsoft zapowiada „holograficzny” interfejs Windowsa 10 i tanie gogle VR dla komputerów osobistych, Google pracuje nad przekształceniem smartfonów z Androidem w wyświetlacze VR, producenci kart graficznych licytują się pod kątem możliwości ich sprzętu w połączeniu z goglami HTC Vive czy Oculus Rift, kręcone są pierwsze filmy w wirtualnej rzeczywistości. Coraz więcej też na rynku startupów, które próbują różnych, często szalonych pomysłów, by zdobyć sobie przyczółek w tej wschodzącej dziedzinie.

r   e   k   l   a   m   a

Wszyscy ci pionierzy wirtualnej rzeczywistości muszą sobie jednak w pewnym momencie zdać sprawę z największej przeszkody. Ludzki zmysł wzroku jest zbyt ostry. By dostarczyć nam wiarygodnego widoku wirtualnego świata, w którym będziemy mogli w pełni się zanurzyć, zapominając o fizyczności, potrzebujemy nie tylko świetnych wyświetlaczy wysokiej rozdzielczości, wmontowanych w lekkie, wygodne gogle. Potrzebujemy nie tylko interfejsów pozwalających intuicyjnie przełożyć ruch ciała na przemieszczanie się w wirtualnym świecie i manipulowanie jego obiektami. Przede wszystkim potrzebujemy infrastruktury sieciowej, która wytrzymałaby taką ilość danych, jaka konieczna jest, by ten wirtualny świat narysować.

Większe rury

Spójrzmy na sprawę od strony klienta. Używane przez niego urządzenia uzyskać mogą dziś w teorii najszybsze połączenia z punktem dostępowym Internetu wcale nie przez kabel. W idealnych warunkach laboratoryjnych bezprzewodowy standard 802.11ac pozwala na wykorzystanie w paśmie 5 GHz maksymalnie ośmiu strumieni o maksymalnej szerokości 160 MHz (jego poprzednik, 802.11n, ma do dyspozycji maksymalnie cztery strumienie o szerokości 40 MHz).

W połączeniu z modulacją 256-QAM, pozwalającą przesłać do 256 różnych sygnałów w tej samej częstotliwości poprzez przesuwanie ich w fazie, każdy taki strumień może mieć maksymalną przepustowość do 866,7 MHz – więc w teorii najszybsze urządzenia 802.11ac są w stanie uzyskać niemal 7 Gb/s (6933 Mb/s).

Oczywiście w praktyce rzadko kiedy mamy możliwość skorzystania z więcej niż trzech strumieni, tak więc maksymalna realna szybkość do uzyskania w warunkach domowych to 2,5 Gb/s. Wciąż jednak to znacznie więcej od maksymalnej teoretycznej szybkości 802.11n (600 Mb/s), a nawet maksymalnej teoretycznej szybkości kablowego połączenia po gigabitowym Ethernecie (do 1 Gb/s).

W wypadku łączności komórkowej, komercyjne sieci oferują nam dziś LTE i LTE-Advanced, w teorii zapewniające smartfonom maksymalne szybkości do 300 Mb/s. Na horyzoncie widzimy już jednak pierwsze sieci 5G, które wykorzystując pasma wysokiej częstotliwości i skomplikowane systemy wielu anten, celują w osiągnięcie przepustowości daleko wyższej.

Jak dużej? Laboratoryjne rekordy są tu oszałamiające. Japońscy inżynierowie, wychodząc poza milimetrowe fale radiowe do pasma 275-305 GHz, byli w stanie bezprzewodowo przesłać do 10 Gb/s na kanał danych – agregując je, osiągnęli łączną przepustowość rzędu 100 Gb/s, porównywalną z podmorskimi światłowodami. To jednak rozwiązanie wysoce eksperymentalne, bardziej realne póki co są rekordy takie jak Ericssona, który korzystając z 512-antenowej stacji bazowej 5G w paśmie 15 GHz, zdołał zapewnić poruszającemu się terminalowi przepustowość na poziomie 25 Gb/s.

To wszystko to jednak tylko część opowieści. Użytkownicy i ich urządzenia są coraz bardziej mobilni, ale sama sieć mobilna już nie jest. Szkieletem infrastruktury telekomunikacyjnej naszej planety jest sieć światłowodowa: grube wiązki włókien optycznych położonych na dnie mórz i oceanów. Każde takie włókno jest w stanie zapewnić przepustowość w jednej długości fali na poziomie 100 Gb/s. To wielkość wynikająca z kumulujących się zakłóceń i szumu, ale i ją udało się obejść. Znaleziono sposób na jednoczesne wysyłanie po światłowodzie nawet stu sygnałów jednocześnie, wykorzystując różne długości fal. Dzięki temu podmorskie kable optyczne zapewniają dziś przepustowość rzędu 10 Tb/s na jednym włóknie.

Rozwijane są też nowe konstrukcje światłowodów, w których rdzeń ma większą średnicę niż standardowe 9 mikrometrów, a intensywność światła jest niższa. Zmniejsza to szumy kosztem zmniejszenia odporności takiej konstrukcji na zginanie i rozciąganie, jednak przy dobrej osłonie, na długich prostych odcinkach nie stanowi to problemu. Dzięki tego typu nowym światłowodom udało się podnieść przepustowość dla jednej długości fali do 150 Gb/s, zwiększając zarazem trzykrotnie maksymalną długość optycznego kabla.

Jeśli połączyć to z nowymi technikami laserowymi, które pozwalają na wytworzenie sygnałów optycznych w różnych długościach fal przez jeden laser, a nie macierz niezależnie działających laserów, szum optycznym może zostać zmniejszony nawet dwukrotnie. Zajmujący się tą tematyką eksperci twierdzą, że do 2030 roku wiązka światłowodów nowej generacji w jednym podmorskim kablu będzie w stanie zapewnić przepustowość rzędu 1 Pb/s (tysiąca terabitów na sekundę).

Zmysły trudno oszukać

Skoro już wiemy, gdzie mniej więcej są te wąskie gardła sieci, zastanówmy się, ile tak naprawdę potrzeba do wiarygodnej wirtualnej rzeczywistości. Co mamy na myśli, pisząc „wiarygodnej”? To już formalnie zdefiniowana kwestia: zajmujący się VR naukowcy wyróżniają dwa aspekty tej wiarygodności: interaktywność oraz obrazowość. Pierwsza wiąże się ze stopniem, w jakim użytkownicy mogą uczestniczyć w modyfikowaniu formy i treści wirtualnego środowiska w czasie rzeczywistym, druga określa bogactwo reprezentacji wirtualnego środowiska pod względem jego formalnych własności – tego, jak dokładnie przedstawia się zmysłom. Wiarygodna wirtualna rzeczywistość to taka, która reaguje na działania użytkownika bez odczuwalnych dla niego opóźnień, i w której nie widzi on pikseli składających się na obraz.

Do tej pory nie bardzo wiemy, jak do VR przenieść inne zmysły niż wzrok, słuch i w ograniczonym stopniu dotyk, ale powiedzmy, że ograniczenie do tych kanałów percepcji póki co wystarczy. Nawet w dzisiejszych goglach HTC Vive, oglądając przygotowaną przez Nvidię wyprawę w Himalaje, można na chwilę się zapomnieć, mimo że nie czujemy zapachu gór, tylko plastiku, gumy i elektroniki. Ludzie to wzrokowcy. I to właśnie wzrok szybko przypomni, że ten Mount Everest jest tylko narysowany, rozdzielczość jest po prostu za mała dla uzyskania wiarygodności.

Obszar najostrzejszego widzenia u ludzi, obejmujący gęsto wypełniony czopkami dołek środkowy siatkówki, obejmuje ledwie 2 stopnie kąta widzenia, ale pozwala zdrowemu oku odróżnić obiekty o rozmiarze 0,005 stopnia (ok. 0,3 minuty kątowej). Oznacza to więc, że w tym obszarze oko rozpozna do 200 oddzielnych punktów na stopień pola widzenia. Jak to się ma do pikseli na ekranie? To oczywiście zależy od odległości ekranu od oka. Wyświetlacz iPhone’a o znamiennej nazwie „Retina” zapewnia np. gęstość kątową ok. 70 pikseli na stopień, przy oglądaniu go z odległości kilkunastu centymetrów. Można założyć, że odpowiednik Retiny dla gogli VR z wyświetlaczami znacznie bliżej oka powinien zapewnić przynajmniej te 200 pikseli na stopień.

Przy takiej gęstości obrazu szybko jednak odkrywamy, że pole widzenia jest daleko większe niż dzisiejsze wyświetlacze 4K. Z badań fizjologów wynika, że ludzie obejmują wzrokiem jednocześnie ponad 170 stopni w poziomie i 120 stopni w pionie. Prosta arytmetyka daje nam więc obraz o rozdzielczości 34000×24000 pikseli (z czego w polu 22000×24000 pikseli cieszymy się widzeniem stereoskopowym) – ponad 800 milionów pikseli, dla nieruchomej głowy.

Uważni Czytelnicy zapytają teraz: co z nieostrością widzenia na peryferiach? Ano nic, dzięki szybkim, szarpanym ruchom gałki ocznej dosłownie w okamgnieniu jesteśmy w stanie skupić nasze widzenie przez dołek środkowy siatkówki na tych peryferyjnych obszarach. System wirtualnej rzeczywistości nie wie przecież, gdzie akurat spojrzymy.

Teraz zaś weźmy pod uwagę to, że w wirtualnej rzeczywistości chcemy móc ruszać głową, jak i całym ciałem. 360 stopni w poziomie, 180 stopni w pionie, to rozdzielczość 72000×36000 pikseli – łącznie ponad 2,5 miliarda pikseli, i to dla nieruchomego obrazu.

W wirtualnej rzeczywistości obraz ma być interaktywny, nie nieruchomy. Gdy w latach dziewięćdziesiątych naukowcy pracujący dla amerykańskiego lotnictwa wojskowego prowadzili badania nad wpływem symulatorów lotu na pilotów, jednym z głównych ich osiągnięć było odkrycie, że za „chorobę symulatorową” odpowiada niskiej jakości obraz. Gdy oczy postrzegają ruch, którego ciało nie odbiera błędnikiem, następuje przyprawiający o mdłości konflikt sygnału. Im niższe jest tempo odświeżania wideo, gdy następują opóźnienia w rysowaniu obrazu, czy wręcz gubione są klatki, tym jest gorzej, od takiego obrazu można po prostu się pochorować. I odwrotnie, im obraz jest płynniejszy, tym mniej doskwiera brak bodźców z błędnika.

Symulacja powolnego obrotu głową, 30 stopni na sekundę. Nawet odświeżanie 120 Hz nie wystarczy – zobaczcie sami.

Ile tej płynności potrzeba? Na pewno 30 FPS, wystarczające do zapewnienia złudzenia ruchomego obrazu w telewizji, nie rozwiązuje sprawy. Ba, 60 FPS, w które celują dziś gracze, to też za mało. Kora wzrokowa człowieka zaczyna zapewniać ciągłość doświadczenia widzenia, płynność obrazu dopiero przy 150 FPS, a wytrenowani piloci myśliwców potrafią wychwycić obiekty pojawiające się w ciągu 1/240 sekundy.

Trzymając się tych 150 FPS jako wystarczających dla otrzymania wiarygodnej wirtualnej rzeczywistości, zderzamy się z ogromnymi ilościami danych. 800 mln pikseli dla nieruchomej głowy, co najmniej 24 bity na piksel pełnej głębi kolorów, 150 klatek na sekundę – to daje minimalną przepustowość na poziomie 2,88 Tb/s. Całe szczęście, że istnieją algorytmy kompresji wideo, bo inaczej wyszłoby, że do gogli wiarygodnego VR trzeba by było ciągnąć oceaniczne kable światłowodowe. Najlepszy obecnie algorytm HEVC pozwala uzyskać kompresję maksymalnie rzędu 500:1, co jednak i tak oznacza mordercze dla współczesnego sprzętu 5,7 Gb/s.

Świat zamknięty w VR

Jak więc widać, do dostarczenia w pełni angażującej, wiarygodnej wirtualnej rzeczywistości współczesne sieci w ogóle nie są przystosowane. Jedynie najszybsze sieci światłowodowe dostarczające sygnał świetlny wprost do domu (FTTH), takie jak Orange Światłowód z jego maksymalną przepustowością 600 Mb/s, mogą tu pomóc. Mają bowiem największy potencjał dalszego wzrostu szybkości, w szczególności dzięki modernizacji technologii laserowych. Ocenia się, że dla zwykłego włókna optycznego w już istniejącej infrastrukturze możliwe byłoby w ten sposób dostarczenie nawet 100 Gb/s.

Paradoksalnie większym wyzwaniem będzie jednak nie zwiększenie przepustowości istniejących łączy optycznych FTTH do poziomu wymaganego przez wirtualną rzeczywistość, ale zarządzanie tym ogromnym ruchem. Tradycyjny multicast w wypadku wirtualnej rzeczywistości nie jest możliwy, to nie wideo, które każdy widzi takie samo. Tu trzeba dostarczyć gigabitowe strumienie danych każdemu użytkownikowi niezależnie, każdy z nich ma bowiem swój niepowtarzalny punkt widzenia w wirtualnym świecie.

I tu jednak postęp techniczny zaczyna wychodzić naprzeciw tym wymaganiom. Nie tylko rośnie przepustowość infrastruktury szkieletowej, ale zmienia się jej architektura. W technologie software’owo definiowanych sieci i wirtualizacji funkcji sieciowych firmy takie jak VMware, Intel, Nokia czy Cisco inwestują miliardy. W przyszłości znikną sprzętowe routery i switche, zastąpi je elastyczna platforma software’owa, dynamicznie optymalizująca rozłożenie zasobów zgodnie z aktualnymi potrzebami. Gdy zabraknie akurat mocy obliczeniowej, do serwerowej szafy włoży się kolejne pudełko.

Zapewne też nie poprzestaniemy na kompresji HEVC czy też konkurencyjnych odpowiedników – prowadzone są badania nad kompresją fraktalną, mogącą zapewnić zmniejszenie ilości przesyłanych danych nawet 10 tysięcy razy, jak również wykorzystaniem faktu podobieństwa obrazów z bliskich sobie perspektyw. Efekty są zachęcające – i można sądzić, że dzięki konwergencji tych wszystkich metod, już do końca 2020 roku możliwe staną się pierwsze eksperymentalne transmisje światów VR do domowych użytkowników, a do 2025 roku wiarygodna wirtualna rzeczywistość będzie czymś spotykanym na co dzień.

Co później? To już pytanie do futurystów. Być może będziemy coraz więcej aspektów naszego życia wirtualizować i przenosić do VR. Jednym z wyjaśnień paradoksu Drake’a (braku widocznych śladów obecności obcych cywilizacji we wszechświecie) jest właśnie wirtualna rzeczywistość. Mówi się, że każda cywilizacja naukowo-techniczna w pewnym momencie wymyśla wiarygodną wirtualną rzeczywistość. A później już w niej pozostaje.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.   

Trwa konkurs "Ogól naczelnego", w którym codziennie możecie wygrać najnowsze maszynki systemowe Hydro Connect 5 marki Wilkinson Sword.

Więcej informacji

Gratulacje!

znalezione maszynki:

Twój czas:

Ogól Naczelnego!
Znalazłeś(aś) 10 maszynek Wilkinson Sword
oraz ogoliłaś naszego naczelnego!
Przejdź do rankingu
Podpowiedź: Przyciśnij lewy przycisk myszki i poruszaj nią, aby ogolić brodę.