r   e   k   l   a   m   a
r   e   k   l   a   m   a

Windows Server 2016: w Microsofcie pracują prawdziwi fanatycy chmury #ignite

Strona główna AktualnościOPROGRAMOWANIE

Windows Server 2016 już jest – został oficjalnie zapowiedziany i udostępniony do pobrania wczoraj, na rozpoczęciu konferencji Microsoft Ignite. W sprzedaży będzie od 1 października. Jak zawsze w takich sytuacjach mogliśmy się dowiedzieć, że to najlepszy system serwerowy świata, jeden z fundamentów hybrydowych środowisk chmurowych, w których Microsoft stał się liderem (drugim fundamentem jest oczywiście chmura Azure). Czy faktycznie najlepszy? Przyjrzyjmy się bliżej tym wszystkim cudom, które sprawią, że klienci mają sięgnąć do portfela po przecież kosztujące niemało oprogramowanie. Już na pierwszy rzut oka widać bowiem, że to po prostu kontynuacja założeń, jakie poczyniono w Windows Serverze 2012.

Nano Server

Jako serwerowy system Windows był po prostu ogromny. Uruchamiane z nim maszyny wirtualne zużywały znacznie więcej pamięci operacyjnej i masowej, niż Debian czy CentOS, nie mówiąc już o takich ekstremalnie zwinnych dystrybucjach jak Alpine Linux, który mieści się w kontenerze o rozmiarach 8 megabajtów!

Microsoft lata pracy włożył w odchudzenie Windows Servera do akceptowalnego dla realiów chmury poziomu. Efektem jest Nano Server, system, który miał być tak mały, jak to możliwe. By to osiągnąć usunięto z niego nawet interfejsy użytkownika, systemem zarządza się albo specjalnymi zdalnymi narzędziami, albo przez PowerShella.

r   e   k   l   a   m   a

I faktycznie, Nano jest mały. Jak na Windows. Powinien poradzić sobie w kontenerze o wielkości 512 MB, zużywając 300 MB RAM (oczywiście bez żadnej uruchomionej usługi) i uruchamiając się w ciągu 9 sekund (pełna wersja Windows Servera uruchamia się 135 sekund). Czy Nano Server zdoła zastąpić lekkie Linuksy w chmurze Microsoftu, skoro 35% instancji w Azure obecnie działa pod kontrolą Pingwina? Nawet jeśli daleko mu do linuksowej lekkości, nadrabiać ma wygodą używania – skrypty w PowerShellu pozwolą na tworzenie instancji Nano na żądanie, pojawią się też narzędzia do tworzenia systemów uruchamialnych z pendrive’a.

Kontenery na Dockerze

Cóż, to kolejna rzecz podpatrzona z Linuksa – konteneryzacja aplikacji, czyli uruchamianie ich w izolowanych od reszty systemu „pojemnikach”, które można swobodnie przenosić między maszynami, nie martwiąc się o żadne zależności. Docker jest obecnie najczęściej stosowanym w chmurach (tak prywatnych jak i publicznych) mechanizmem zarządzania takimi kontenerami. Uruchomione przez niego kontenery dają aplikacjom oddzielną przestrzeń plików, przestrzeń procesów, interfejsy sieciowe, można narzucić im ograniczenia w dostępie do zasobów sprzętowych. Sęk w tym, że od początku Docker całkowicie zależał od linuksowych mechanizmów jądra, takich jak cgroups i namespaces.

Przeniesienie tego na Windowsa musiało być wielkim wyzwaniem, ale z tego co piszą pierwsi, którzy mieli okazję korzystać z Dockera na Windows Serverze, wyszło bardzo dobrze. Docker wspiera tu dwa różne typy kontenerów: kontenery Windows Servera i kontenery Hyper-V. . Pierwsze z nich są typowymi kontenerami-aplikacjami działającymi pod kontrolą systemu gospodarza. Te drugie to izolowane maszyny wirtualne, z własnym windowsowym kernelem, podobno jednak lżejsze, niż zwykłe maszyny Hyper-V.

PowerShell zapewnia teraz pełne wsparcie dla kontenerów. Co nieco dziwne (może poszło o kwestie licencjonowania), samego silnika Dockera w Windowsie nie znajdziemy, trzeba zainstalować go ręcznie, z serwerów projektu. Wszystkie informacje znajdziecie na stronach MSDN. Żadnego klikania myszką, wszystko oczywiście w naturalnym środowisku pracy administratora, tj. w konsoli.

Nowe atrakcje PowerShella

PowerShell mocno się rozrasta i bez dobrej dokumentacji już się nie obędziemy. W tej wersji pojawiło się ponad 250 nowych cmdletów, sama rola Network Controllera przynosi ponad 140. Dostajemy też w pełni już działający mechanizm Desired State Configuration (DSC), będący deklaratywną platformą do konfigurowania, wdrażania i zarządzania systemami – i to nie tylko windowsowymi, ale też linuksowymi.

Biorąc pod uwagę to, że PowerShell stał się rozwiązaniem opensource’owym, oraz że pojawiły się jego wydania na Linuksa i macOS-a, można się spodziewać, że będzie to powszechnie wykorzystywane przez administratorów narzędzie. Zainteresowanym szczegółowym opisem tych nowości polecamy blog Jose Barreto na TechNecie.

Konwergencja sieci

Nowy system znacznie inteligentniej zarządza interfejsami sieciowymi – Microsoft obiecuje, że zmniejszy zapotrzebowanie na nie w niektórych wypadkach nawet o połowę. Do tego dochodzi nowa rola serwera Network Controller, służąca do monitorowania infrastruktury sieciowej i działających w niej usług, dostarczająca bramek do chmury Azure i load balancer. Zwiększona ma być też wydajność samej sieci dzięki mechanizmowi Packet Direct.

Chronione maszyny wirtualne

Wraz z nowym systemem debiutuje mechanizm mający znacznie zwiększyć bezpieczeństwo uruchamianego na nim oprogramowania. Shielded VM – pod tą nazwą kryją się maszyny wirtualne z zaszyfrowaną BitLockerem wirtualną pamięcią masową, korzystające z centralnego magazynu certyfikatów do uwierzytelnienia swojego uruchomienia. Innymi słowy, maszyna uruchomi się tylko wtedy, jeśli będzie zgodna z wpisem na liście zweryfikowanych obrazów. Na każdym etapie swojego działania pozostanie ona zaszyfrowana, nawet podczas migracji między serwerami.

Dla bezpieczeństwa, procesy zarządzania kluczami i sprawdzania poprawności maszyn uruchamiane są na oddzielnym serwerze (Host Guardian Service). Microsoft oferuje dwa tryby uwierzytelnień. W pierwszym maszyny są zatwierdzane na podstawie ich przynależności do grupy bezpieczeństwa Active Directory, drugi zaś wykorzystuje sprzętowe zabezpieczenia Trusted Platform Module 2.0. W tym drugim wypadku praktycznie nie ma możliwości, by chroniona maszyna wirtualna była uruchomiona inaczej niż na znanym, bezpiecznym i zdrowym hoście.

Usprawnienia i optymalizacje

Wspomnijmy także o mniejszych, a nie mniej ciekawych ulepszeniach i nowościach:

Replikacja pamięci masowej

Windows Server 2016 pozwoli teraz na replikowanie całych wolumenów na poziomie blokowym, zarówno w trybie synchronicznym jak i asynchronicznym (wcześnie można było replikować jedynie wirtualne dyski twarde w trybie asynchronicznym). Zastosowanie łatwo sobie wyobrazić: to ratunek na wypadek poważnej awarii – kiedy serwer padnie, będzie można go błyskawicznie przywrócić z zapasowego serwera w klastrze.

Gorąca pamięć dla maszyn wirtualnych

Hyper-V zyskuje możliwości znane dotąd tylko z oprogramowania VMware. Nie trzeba będzie wyłączać maszyn wirtualnych, by dołożyć im pamięci. Tak samo można będzie „na gorąco” dołożyć kontrolery sieciowe.

ReFS przyspieszy maszyny wirtualne

System plików ReFS zadebiutował w Windows Serverze 2012, jednak nie zastąpił NTFS, można powiedzieć, że pozostały mu zastosowania drugorzędne. W nowym systemie ReFS będzie znacznie ważniejszy. Wszystkie obciążenia robocze hiperwizora Hyper-V będą domyślnie wykorzystywać nowy system plików. Oznacza to m.in. możliwość błyskawicznego tworzenia maszyn wirtualnych o zadanych rozmiarach, łączenia ze sobą wolumenów czy tworzenia ich migawek.

Centralna kontrola zasobów dla maszyn wirtualnych

Mechanizm Storage QoS pojawił się w Windows Serverze 2012 R2, pozwalając kontrolować zasoby I/O wykorzystywane przez maszyny wirtualne. Działało to jednak tylko na pojedynczym serwerze. Nowa wersja systemu rozszerza to na całe grupy maszyn i klastry serwerów – można nimi zbiorczo zarządzać przez PowerShella, kontrolować ich wydajność i i ustanawiać polityki pracy.

Musisz zanurzyć się w chmurach

To jest przewodnia linia firmy z Redmond. Koniec z lokalnymi, izolowanymi systemami. Podczas Ignite mogliśmy zobaczyć tych wszystkich administratorów, którzy nie wiedzieli, jak żyli, zanim nie przenieśli się do chmury, by potem podekscytowanym głosem opowiadać, o ile lepsze stało się ich życie po połączeniu z Azure. Nowy Windows Server to niezbędny element tej układanki. Jak go już sobie sprawicie, to pytanie o chmurę – przynajmniej zdaniem Microsoftu – zabrzmi zupełnie inaczej. Zamiast pytać, „po co wdrażać w chmurze” zaczniemy pytać „po co wdrażać lokalnie”.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.