r   e   k   l   a   m   a
r   e   k   l   a   m   a

Budowa Akamai i podstawy działania wielkich sieci dystrybucyjnych

Strona główna Aktualności

Czasem ciekawe informacje pozostają niezauważone w sieci przez dłuższy czas. Nie inaczej jest w przypadku publikacji Erika Nygrena, Ramesha Sitaramana i Jennifer Sun, pracowników Akamai Technologies, którzy opisali działanie tej platformy dystrybucji treści w Internecie. Pochodzący z 2010 roku dokument odnaleziony niedawno przez serwis High Scalability naświetla wiele ciekawych aspektów ruchu w Internecie i działania CDN-ów.

Internet zbudowany jest z tysięcy mniejszych lub większych podsieci połączonych ze sobą. Autorzy wskazują na ich silne rozdrobnienie jako naczelny problem dostarczania treści. Według ich danych największa jednolita sieć akumuluje zaledwie 5% ruchu w Internecie, a udział w transporcie kolejnych dużych sieci maleje bardzo szybko, przez co potrzeba ich aż 650 by zakumulować 90% internetowego ruchu. Ilość połączeń między nimi idzie w tysiące, co niesie za sobą szereg konsekwencji. Najważniejszą jest związany z brakiem finansowej motywacji dla poprawiania jakości połączeń, przez co ruch na stykach sieci jest wiecznie obarczony znacznymi opóźnieniami. Okresowe awarie i ataki (głównie DDoS) nie poprawiają wcale sytuacji. Innymi problemami sieci wskazanymi w publikacji są nieefektywne mechanizmy trasowania oraz poważne wady stosowanego powszechnie protokołu TCP.

Autorzy wyjaśniają klarownie zasadę działania wielkich sieci dystrybucyjnych, takich jak Akamai, od przypisania użytkownika do konkretnego centrum dystrybucyjnego na podstawie danych historycznych (położenia, typu treści, których szuka, itp.) przez potencjalny transport danych z serwera źródłowego do serwerów w wyznaczonym centrum, po właściwą odpowiedź na zapytanie użytkownika. Jednocześnie wprowadzają silne rozróżnienie między sposobem działania tego potoku w przypadku serwowania dynamicznych danych dla aplikacji sieciowych a danych statycznych.

r   e   k   l   a   m   a

Wszystkie aspekty prowadzenia złożonej sieci dystrybucyjnej oraz trudności związanych z dostarczeniem konkretnych są szczegółowo opisane w dokumencie. Co ciekawe pracownicy firmy chętnie aktualizują część historycznych danych zawartych w publikacji w dyskusjach w sieci. Przykładowo od 2010 roku liczba serwerów operowanych przez Akamai wzrosła z 61 tysięcy do blisko 96 tysięcy. Nic dziwnego, że przypisuje się Akamai serwowanie do 30% internetowych treści. Biorąc pod uwagę znaczący udział ruchu w sieciach P2P, jest to liczba naprawdę gigantyczna.

Serwowanie takiego ogromu danych nie byłoby możliwe bez odpowiedniej sieci rozlokowanych na świecie serwerowni. Zainteresowanych budową tych największych zachęcamy do zapoznania się z materiałem wideo z niemieckiego centrum 1&1, które redakcja odwiedziła w ubiegłym miesiącu.

© dobreprogramy

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.