Blog (393)
Komentarze (5k)
Recenzje (0)
@macminikMicrosoft Submarine – project Natick

Microsoft Submarine – project Natick

02.02.2016 14:52, aktualizacja: 02.02.2016 18:40

Współczesne technologie to nieustająca walka konstruktorów z kosztami, wydajnością, energooszczędnością, miniaturyzacją i problemem odprowadzana ciepła. Czasy gdy na procesor komputera można było dać aluminiowy radiator nie przekraczający jego powierzchni, już dawno odeszły w niepamięć. Współczesne maszyny wymagają coraz bardziej wydajnego systemu chłodzenia, a sama problematyka chłodzenia głównych układów komputera stała się niemal oddzielną gałęzią nauki.

Komputery domowe, wyposażone zazwyczaj w maksymalnie kilka procesorów wymagających szybkiego i skutecznego odprowadzenia ciepła, tak naprawdę nie są wielkim problemem. W końcu chłodzenie wodne nie jest już niczym niezwykłym. A co jeśli nasz komputer składa się z kilkunastu, kilkudziesięciu lub nawet kilkuset procesorów ? Problem chłodzenia tak rozbudowanych maszyn, staje się problemem niezwykle istotnym.

Gdy w zeszłym roku miałem możliwość rzucenia okiem na krakowskiego Prometeusa, zupełnie inaczej wyobrażałem sobie tą maszynę. W rzeczywistości jest to kilkunastometrowa szafa, zawierająca 1700 serwerów HP Apollo 8000 dających do dyspozycji użytkownika 41 tysięcy rdzeni obliczeniowych Intel Haswell. Do tego dołączono 215 TB pamięci RAM i dwa systemy plików o łącznej pojemności 10 PB. Krakowski Prometeus stoi samotnie w sporym pomieszczeniu ze szczelnie zamykanymi drzwiami, a wizyty wewnątrz hali ograniczane są do niezbędnego minimum. Spowodowane jest to tym, że Prometeus jako superkomputer (jeden z 30 najszybszych na świecie) wymaga bardzo skomplikowanego i precyzyjnego chłodzenia. Specjalnie przystosowana hala, zawiera zaprojektowane pod kontem Prometeusa ciągi wodne, służące do bezpośredniego chłodzenia wszystkich procesorów superkomputera oraz modułów pamięci. Z informacji uzyskanych od jednej osoby czuwającej nad jego poprawną pracą i dobrym samopoczuciem wiem, że różnica pomiędzy temperaturą każdego procesora, a temperaturą chłodzącej go wody wynosi nie więcej niż 2C, gdyż wówczas chłodzenie jest najbardziej optymalne. Nie bez dumy właściciele Prometeusa - krakowskia AGH - szczyci się tym, że Prometeus poza swoimi niebagatelnymi możliwościami obliczeniowymi, jest jedną z najbardziej energooszczędnych maszyn na świecie, zużywając 650 kW (a więc zaledwie o 25% więcej niż jego poprzednik - czterokrotnie słabszy Zeus).

Superkomputer Prometeus na krakowskim AGH.
Superkomputer Prometeus na krakowskim AGH.

Potrzeby efektywnego i zarazem taniego chłodzenia superkomputerów i olbrzymich centrów serwerowych wymusza na ludziach nie tylko postęp technologiczny, ale ekonomia. Główne centra obliczeniowe i serwerowe zlokalizowane na terenie USA pochłaniają roczną produkcję 34 elektrowni węglowych, a połowa z pochłanianej energii jest zużywana na problematykę chłodzenia komputerów. Spryt inżynierów, projektujących coraz bardziej efektywne systemy chłodzenia nie wystarcza ekonomom i od jakiegoś czasy modnym staje się przenoszenie tego typu centrów w chłodniejsze miejsca na kuli ziemskiej. Wspominana w niektórych wpisach Irlandia, Islandia, Alaska czy Syberia nie są już niczym niezwykłym jeśli chodzi o lokalizację centrów obliczeniowych. W budynkach mieszczących takie centra, normalną praktyką jest ogrzewanie pomieszczeń z wykorzystaniem cieczy chłodzących systemy obliczeniowe, budowanie sporych rozmiarów chłodnic na zewnątrz budynków. Pomysłowość inżynierów jest coraz większa w tej dziedzinie, choć "walka" pomiędzy chłodzeniem i wydajnością ciągle się toczy i chyba nie prędko zobaczymy jej finał, o ile kiedykolwiek go zobaczymy.

Centra obliczeniowe i serwerownie ulokowane w odległych i zimnych rejonach naszej planety wydają się być świetnym pomysłem, ale nie idealnym. Z natury rzeczy, są one dosyć znacznie oddalone od większych skupisk ludzkich. Oszczędności uzyskane na chłodzeniu, częściowo pochłaniane są przez koszty przesyłu ogromnych ilości danych. Dlatego też ciekawym pomysłem wykazali się inżynierowie Microsoftu, którym lokalizacje centrów serwerowych w zimnych rejonach planety nie w pełni zadowalają. Nie można przesunąć Alaski z jej klimatem w pobliże słonecznej i gorącej Kalifornii, ale można w pobliżu poszukać chłodnych miejsc, a tego jest pod dostatkiem - ocean !

We all live in a yellow submarine Yellow submarine, yellow submarine

Refren tego znanego hitu zespołu The Beatles w pełni oddaje to, do czego dążą inżynierowie Microsoftu. Wszak część naszego ludzkiego życia, dzieje się właśnie na rozmaitych serwerach. Potrzeba ciągłej rozbudowy centrów obliczeniowych i serwerów jest koniecznością, choć nie jest to oczywiste dla każdego użytkownika domowego komputera, tableta czy smartfona.

Kiedy wyciągasz smartfona wydaje ci się, że za pracujesz za pomocą tego cudownego małego komputera, ale w rzeczywistości używasz więcej niż 100 komputerów pracujących w chmurze. Jeśli pomnożyć to przez miliardy ludzi, jest to po prostu ogromna ilość komputerów pracujących w chmurze. Peter Lee, wiceprezes Microsoft Research

W lutym 2013 roku inżynierowi Microsoftu wystąpili do zarządu z wnioskiem o rozpoczęcie badań nad podwodnymi centrami obliczeniowymi i centrami serwerowymi, jakie można by umieścić w pobliżu wybrzeży USA. Zdaniem inżynierów zajmujących się wstępnymi założeniami tego projektu, centra takie można by częściowo zasilać energią elektryczną wytwarzaną przez prądy morskie, otaczający je ocen będzie wystarczającym "urządzeniem" chłodzącym, a z racji niewielkiego oddalenia od wybrzeża, koszty przesyłania danych będą dużo niższe niż ma to miejsce w przypadku lokalizacji takich obiektów w chłodnych rejonach naszej planety. Pomysł ten uzyskał akceptację zarządu Microsoftu i w sierpniu 2014 roku Microsoft oficjalnie rozpoczął projekt "Natick".

Już w zeszłym roku przeprowadzono doświadczenia, umieszczając serwery w specjalnej kapsule o nazwie Leona Philpot (są na sali miłośnicy Hallo ?), która to kapsuła została zanurzona na głębokość 10 metrów w Ocenie Spokojnym około 1 km od wybrzeży Kalifornii, niedaleko miejscowości San Luis Obispo.

Zgodnie z morską tradycją, Leona Philpot została ochrzczona.
Zgodnie z morską tradycją, Leona Philpot została ochrzczona.

Leona Philpot spędziła w oceanie dokładnie 105 dni, podczas których monitorowano jej pracę, temperaturę, ciśnienie i generowany hałas przy pomocy 100 umieszczonych wewnątrz kapsuły czujników oraz badano trafność podjętych założeń. Wyniki eksperymentu okazały się najwyraźniej pomyślne, gdyż prace nad podwodnymi serwerami i centrami obliczeniowymi będą kontynuowane, choć przed pomysłodawcami jeszcze długa droga. Jak wynika z ostatnich doniesień, inżynierowie Microsoftu rozpoczęli pracę nad budową kapsuły trzykrotnie większej niż Leona Philpot, a ma ona być umieszczona nieopodal wybrzeży Florydy, gdzie są silniejsze prądy morskie. Prawdopodobnie zostanie ona też wyposażona w możliwość generowania energii elektrycznej.

Zgodnie z poczynionymi założeniami, kapsuły w których przechowywane będą komputery, muszą cechować się wytrzymałością i bezobsługowym czasem pracy przez okres minimum 10 lat. Jak wynika z harmonogramu obsługi tych urządzeń, "wkład" centrów obliczeniowych będzie wymieniany co 5 lat, natomiast "wkład" centrów serwerowych powinien być wymieniany nie rzadziej niż co 20 lat.

Sam pomysł na przechowywanie tego typu urządzeń pod wodą wydaje się nie tylko ciekawy, ale i niesie wiele innych, nie tylko czysto ekonomicznych korzyści.

  • Umieszczając je na odpowiedniej głębokości, gdzie woda ma stała temperaturę, wahania temperatury wewnątrz układów będą bardzo niewielkie, co może przełożyć się na ich trwałość i okres bezawaryjnej pracy
  • Niemałą zaletą jest fakt, że jak wyliczono, około 3,5 mld ludności żyje w odległości nie większej niż 125 mil (201 km) od wybrzeży mórz i oceanów, a tym samym można znacząco obniżyć koszty przesyłania danych, oraz koszty związane z budową infrastruktury.
  • Serwery takie byłyby niewrażliwe, a przynajmniej mniej podatne na rozmaite zdarzenia losowe typu huragany, trzęsienia ziemi, czy powodzie.
  • Zdaniem Microsoftu, czas potrzebny na zbudowanie odpowiedniej kapsuły i podpięcie jej do globalnej sieci nie powinien przekraczać trzech miesięcy, co jest okresem dużo krótszym niż czas potrzebny na budowę dedykowanej serwerowni.
  • Podwodne kapsuły ułatwią podłączenie z globalną siecią rejonów, które do dnia dzisiejszego nie posiadają odpowiedniej infrastruktury ze względu na warunki geopolityczne.

Choć nikt oficjalnie o tym nie mówi, moim zdaniem równie ważnym argumentem jest możliwość schowania kapsuł z serwerami na dnie oceanu, w końcu zajmują one większą część naszego globu. Dzięki temu, sieć może przynajmniej w teorii stać się mniej podatna na atak terrorystyczne, czy wydarzenia wojenne. Teoretycznie, bo jak pokazały wydarzenia z 5 sierpnia 1914 roku gdy Anglicy przecięli kabel łączący Niemcy z Ameryką, nic co jest pod wodą nie może być w 100% bezpieczne.

Jak wynika z powyższego, pomysł inżynierów Microsoftu jest ciekawy i chyba całkiem niezły. Pytanie tylko... kiedy w kapsułach Microsoftu wroga odkryją ekolodzy i dowiodą, że takie kapsuły będą przyczyną zmiany mórz i oceanów w zupę rybną, śmierć głodową białych niedźwiedzi i błędy nawigacyjne narwali.

Z ekologami zdaje się liczyć mocno też sam Microsoft, gdyż podczas eksperymentu z kapsułą Leona Philpot, badano jej wpływ na toczące się wokół życie w oceanie. Jak wynika z raportu, poziom hałasu generowany przez kapsułę jest zagłuszany przez pływ wody i morskie życie, a żyjące w otoczeniu kapsuły krewetki, dosyć szybko zaakceptowały jej obecność w swoim środowisku.

Natick Team: Eric Peterson, Spencer Fowers, Norm Whitaker, Ben Cutler, Jeff Kramer.
Natick Team: Eric Peterson, Spencer Fowers, Norm Whitaker, Ben Cutler, Jeff Kramer.
Wybrane dla Ciebie
Komentarze (22)