Zrozumieć chmurę – to (nie) tylko dane

Strona główna Aktualności
Dzisiejsza techniczna rzeczywistość bez "Cloud Computing" nic nie znaczy
Dzisiejsza techniczna rzeczywistość bez "Cloud Computing" nic nie znaczy

O autorze

Chmury obliczeniowe i cały model przetwarzania danych znany pod nazwą cloud computing to dziś istotna część technicznej rzeczywistości. Oferuje funkcjonalność, której uzyskanie za pomocą tradycyjnych systemów informatycznych jest albo bardzo trudne, albo niezwykle kosztowne. Dziś na fali wznoszącej są rozwiązania określane mianem infrastruktura hiperkonwergentna (HCI), to model łączący zalety zarówno klasycznej infrastruktury jak i rozwiązań stricte chmurowych.

Artykuł sponsorowany

Zrozumienie jaką przewagę dają rozwiązania hiperkonwergentne w stosunku do klasycznych systemów informatycznych czy chmurowych zacząć należy od przybliżenia podstawowych cech wszystkich tych rozwiązań.

Klasyczna architektura to już przeszłość

W klasycznych centrach danych o wielopoziomowej strukturze poszczególne elementy tej struktury podzielone są na warstwy. Mamy wyodrębnioną i niezależnie zarządzaną warstwę fizyczną sieci, realizowaną za pomocą różnego typu osprzętu sieciowego, takiego jak np. stakowalne, wieloportowe i zarządzalne przełączniki sieciowe. Odrębny poziom wyznacza warstwa serwerów, która w klasycznych rozwiązaniach decyduje o dostępnej mocy obliczeniowej. Kolejnym poziomem jest warstwa pamięci masowej. Wszystkie te trzy warstwy klasycznej infrastruktury są fizycznie odrębnymi urządzeniami.

W tak zorganizowanym centrum danych znajdziemy odrębne szafy z serwerami, odrębne jednostki z przełącznikami i wreszcie odrębne szafy z pamięcią masową. Wiele niedużych centrów danych korzysta także z architektury scentralizowanej (z pojedynczym rdzeniem sieci, dostępem do niej i główną krosownicą), ale takie rozwiązanie bardzo utrudnia skalowanie i rozbudowę centrum danych. W przypadku większych rozwiązań stosuje się podział strefowy, który co prawda zwiększa elastyczność, ale jedynie w niewielkim stopniu, za to jest bardzo wymagający jeżeli chodzi o koszty – tak wdrożenia, jak i bieżącego utrzymania całej klasycznej infrastruktury (dedykowane pomieszczenia, dedykowane sekcje zasilania, specjalne systemy chłodzenia i klimatyzacji itp.).

Ponadto architektura klasyczna nakłada na system informatyczny szereg ograniczeń, wśród których można wymienić np. sztywny przydział zasobów pod konkretne cele (zadania, aplikacje, użytkowników), utrudniona relokacja pamięci masowej (o ile w ogóle), utrudniona czy wręcz niemożliwa modernizacja sprzętowa, czy dokonanie upgrade’u (np. wymiana procesorów, pamięci) bez unieruchamiania całego systemu.

Wreszcie pozostawanie przy klasycznych rozwiązaniach infrastrukturalnych w IT wobec istnienia na rynku interesujących i znacznie nowocześniejszych modelowo alternatyw jest nieopłacalne. Oczywiście cały czas dostępny jest odpowiedni, nowszy sprzęt, który możemy wymienić w istniejącym klasycznym centrum danych, ale ekonomiczna efektywność takiego rozwiązania dziś jest żadna. Od kilku lat klasyczne rozwiązania systematycznie ustępują chmurom obliczeniowym i systemom hiperkonwergentnym, jest to szczególnie widoczne w biznesie, znacznie wolniej ta modernizacja przebiega w administracji – cóż, pieniądze podatników zawsze były „gorzej liczone” niż w przypadku firm, które muszą pozostać konkurencyjne na zmieniającym się rynku i samodzielnie się utrzymać.

Chmury obliczeniowe – świetna skalowalność, ale…

Jedną z fundamentalnych cech chmur obliczeniowych z punktu widzenia firm, czy innych podmiotów korzystających z tego modelu IT jest to, że dbałość o infrastrukturę leży po stronie usługodawcy chmurowego. Klient chmury może oczekiwać od dostawcy zwirtualizowanego systemu skrojonego pod własne potrzeby. To co jeszcze wyróżnia ten model to system rozliczeń – jesteśmy rozliczani za faktycznie zużyte zasoby. Pod tym względem jest to sytuacja podobna do tej, z jaką mieli do czynienia użytkownicy pierwszych komputerów klasy mainframe w latach 60-tych ubiegłego wieku, kiedy również dostęp do zasobów obliczeniowych był ściśle regulowany, a użytkownicy byli rozliczani za czas wykorzystania systemu.

W ujęciu współczesnym przetwarzanie w chmurze nierozerwalnie wiąże się z jeszcze jednym istotnym terminem: wirtualizacją. Skoro podstawową cechą chmury jest usługowy charakter takiej infrastruktury, to model ten musi uwzględniać zróżnicowane potrzeby klientów/użytkowników chmury.

Ta konieczność obsługi zdywersyfikowanych potrzeb różnych podmiotów korzystających z chmury obliczeniowej wymusiła elastyczne dostosowanie możliwości fizycznej infrastruktury do wymogów poszczególnych klientów, a to w praktyce oznacza konieczność zwirtualizowania posiadanych zasobów. Warto też zaznaczyć, że istotnym krokiem w rozwoju technologicznym na drodze do łatwiejszej wirtualizacji zasobów było pojawienie się technik wirtualizacyjnych zaimplementowanych bezpośrednio w procesorach obliczeniowych (np. AMD-V czy Intel VT-x) – pozwoliło to znacznie efektywniej wykorzystywać fizyczne zasoby chmurowego dostawcy usług IT.

Oczywiście samo zwirtualizowanie zasobów dostawcy chmury nie wystarczy by chmurowe centrum danych mogło świadczyć użyteczne usługi podmiotom zewnętrznym. Konieczne jest jeszcze przygotowanie konkretnych usług, które można świadczyć firmom za pomocą zwirtualizowanych środowisk.

Generalnie zgodnie z amerykańską organizacją NIST (National Institute of Standards and Technology) architektura cloud to „model dostarczania i korzystania z zasobów informatycznych, takich jak zasoby obliczeniowe (serwerowe), magazynowanie danych, przepustowość sieci, a nawet aplikacje. Model cechuje się takimi funkcjami, jak samoobsługa na żądanie, duża elastyczność, taryfikacja usług (pay-as-you-use), implementacja puli zasobów i szeroki dostęp do sieci.”

Jest jednak istotne „ale” powstrzymujące wiele firm, organizacji, placówek edukacyjnych czy jednostek samorządowych i urzędów przed całkowitym „wyekspediowaniem” swoich wewnętrzych zasobów IT do chmury. Z jednej strony chodzi o samą fizyczną lokalizację danych. Firmy przetwarzające wrażliwe dane (i za te dane odpowiedzialne) chcą je mieć „u siebie”.

Ponadto IT oparte na chmurze jest silnie uzależnione od istniejącej publicznej infrastruktury sieciowej, na którą pojedyncza organizacja ma bardzo ograniczony wpływ. Firma, która dysponuje siedzibą w nowoczesnym biurowcu wpiętym do szkieletowej rozległej sieci światłowodowej raczej nie musi martwić się dostępem do internetu, za pośrednictwem którego uzyskuje dostęp do wykupionej, zwirtualizowanej infrastruktury w chmurze (choć dalej pozostaje problem fizycznej lokalizacji wrażliwych danych).

Co jednak w przypadku, gdy przedsiębiorstwo prowadzi działalność w mniej „ucywilizowanych cyfrowo” regionach, a potrzebuje zarówno odpowiednich usług IT i mocy obliczeniowej? Wreszcie pamiętajmy, że wiele zadań, szczególnie tych, które wymagają przetwarzania danych i pozyskiwania wyników w czasie rzeczywistym nie będzie działać w chmurze niezależnie od wydajności istniejących łączy internetowych. To trochę tak jak z próbą zdalnego sterowania łazikiem na Marsie z Ziemi, teoretycznie się da, w praktyce to bez sensu – ograniczeniem jest fizyka. Również firmy potrzebujące nowoczesnej infrastruktury IT wymagają posiadania cyfrowej autonomii, własnych zasobów, które zapewnią odpowiednią funkcjonalność jednocześnie nie drenując budżetu w takim stopniu jak klasyczna infrastruktura IT. Czy to możliwe? Dziś, dzięki istniejącym rozwiązaniom hiperkonwergentnym wiemy, że tak.

HCI – droga do przyszłości

Paradoksalnie to właśnie upowszechnienie wirtualizacji (co zawdzięczamy chmurom) w połączeniu ze wzrostem dostępnych mocy obliczeniowej na jednostkę przyczyniło się do popularyzacji najnowszego typu systemów informatycznych: infrastruktury hiperkonwergentnej.

Doskonałym przykładem ilustrującym zalety HCI jest propozycja opracowana wspólnie przez firmy Lenovo i Microsoft. Mowa o certyfikowanych, węzłowych serwerach Lenovo ThinkAgile MX i Azure Stack HCI. W rzeczy samej jest to połączenie zalet klasycznej infrastruktury informatycznej (wysoka moc obliczeniowa, fizyczna lokalizacja danych w siedzibie firmy) i zalet modelu chmurowego (wirtualizacja warstwy sieciowej – ta jest definiowana programowo, możliwość tworzenia maszyn wirtualnych dzięki Hyper-V i wreszcie programowo definiowana pamięć masowa dzięki technologii Storage Space Direct).

Implementacja technik wirtualizacyjnych w HCI pozwala utworzyć teoretycznie dowolną liczbę maszyn wirtualnych, na których mogą być uruchomione dowolne zadania i usługi. Oczywiście, cały czas trzeba mieć na uwadze ograniczone zasoby (możliwościami serwerów Lenovo ThinkAgile MX), jednak to ograniczenie jest wyłącznie ilościowe, a nie narzucone szczegółami konstrukcyjnymi czy infrastrukturą. Dzięki HCI organizacja decydująca się na taką architekturę własnego systemu IT ma możliwość budowania maszyn wirtualnych precyzyjnie dopasowanych do własnych, wewnętrznych potrzeb. Kompaktowość tego rozwiązania oznacza nie tylko zalety wynikające , bo maszynę wirtualną można utworzyć dowolną, dopasowaną do bieżących potrzeb.

Olbrzymią zaletą infrastruktury hiperkonwergentnej jest to, że oferuje ona moc obliczeniową przy niższym całkowitym koszcie posiadania sprzętowych zasobów IT. Dodatkowo przetestowane i prekonfigurowane przez dostawcę rozwiązania środowisko jest znacznie prostsze w bieżącej obsłudze i konserwacji niż klasyczne rozwiązania, a jednocześnie firma decydująca się na takie rozwiązanie nie ma ograniczeń jakie są udziałem tych, którzy bazują wyłącznie na usługach w chmurze. HCI w wydaniu Lenovo to idealne połączenie zalet klasycznego IT z modelami przetwarzania danych znanymi z chmur obliczeniowych. Dodajmy – wyłącznie zalet.

Artykuł sponsorowany

© dobreprogramy
s