System plików na wagę miliarda: Red Hat widzi w XFS przyszłość Linuksa

30.12.2013 14:38, aktual.: 30.12.2013 16:38

Zalogowani mogą więcej

Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika

11 grudnia Red Hat ogłosił dostępność pierwszej bety RHEL-a 7,najważniejszej komercyjnej dystrybucji Linuksa. Spośród wprowadzonychw tym wydaniu zmian jedna wydaje się szczególnie zastanawiająca:system operacyjny, w którym stabilność była stawiana zawsze napierwszym miejscu, będzie korzystał teraz domyślnie z systemu plikówXFS – znanego od niemal dwudziestu lat, lecz do tej poryznajdującego użytkowników raczej nieze względu na stabilność. Co spowodowało taką decyzję „CzerwonegoKapelusza”, i kto jeszcze porzuci królujący dziś na linuksowychdesktopach i serwerach system plików ext4?XFS nie wywodzi się ze świata Linuksa, jest wynikiem pracdeweloperów Silicon Graphics, opracowujących system plików dladziałającego na stacjach roboczych tej firmy systemu IRIX. Nalicencji GNU wydany został w 2000 roku, siedem lat po swojejpremierze, a rok później został przeniesiony na Linuksa, gdziefunkcjonował jako jeden z pomocniczych systemów plików, uznawany zaodpowiedni dla partycji przeznaczonych do przechowywania dużej liczbyplików, szczególnie multimediów. To efekt jego wydajności przyrównoległych operacjach I/O, możliwości ustawienia gwarantowanejprzepustowości dla operacji dyskowych, opóźnionej allokacji plików isprawnej defragmentacji, jak również nieosiągalnych w praktycelimitów rozmiarów plików i wolumenów (maks. 16 eksbibajtów, tj. 264 bajtów).[img=redhat]Czemu w takim razie XFS nie stał się domyślnym systemem plików dlaLinuksa? Przede wszystkim nie wydawał się za dobrze zintegrowany zjądrem (używał np. własnych mechanizmów blokowania dostępu), miał teżogromne problemy z operacjami, które wiązały się ze zmianamimetadanych plików. Jak mówiłpodczas konferencji linux.conf.au Dave Chinner, jeden z deweloperówXFS, przy obciążeniach, w których dochodziło do wielu takich zmian,np. rozpakowywaniu archiwów tar, był on od 20-50 razy wolniejszy odstandardowego ext4. Do tego dochodziła marna (w porównaniu do ext4)skalowalność i odczuwalna „kruchość” systemu plików,szczególnie na desktopach, gdzie losowa utrata zasilania jestbardziej prawdopodobna niż na chronionych UPS-ami serwerach.Mimo dominacji ext4, który jest dziś standardowym systemem plikóww każdej znanej dystrybucji Linuksa, prace nad XFS nie ustały, inajwyraźniej przyniosły dobre rezultaty. Problem z metadanymi zostałcałkowicie rozwiązany, przede wszystkim poprzez zastąpieniedotychczasowego mechanizmu księgowania mechanizmem zapożyczonym zext3, w którym aktualizacje kroniki są opóźnione – wprowadzanew metadanych zmiany są łączone, i dopiero finalny wynik zapisywany dobloku. Poradzono sobie też dobrze ze skalowalnością, eliminującblokady znalezione w warstwie wirtualnego systemu plików. Jednak jeszcze w 2012 roku Jonathan Corbet na łamach LWN.netostrzegał, że największym wyzwaniem pozostaje niezawodność, aporadzenie sobie z tą kwestią będzie wymagało poważnych zmian w XFS,uwzględniających realia stosowania ogromnych wolumenów. Narzędziasprawdzające i naprawiające metadane muszą tu działać „nażywo”. Dodanie samych sum kontrolnych tu nie wystarcza, gdyżsuma jedynie dowodzi tego, że to co zostało znalezione, jest tym, cobyło zapisane. Potrzebne są „samoopisujące się” metadane,pozwalające wykryć bloki zapisane w niewłaściwym miejscu, dziękiczemu możliwe jest odtwarzenie popsutego systemu. Oczywiście prowadzi to do znacznego wzrostu złożoności metadanych,jak i konieczności znalezienia dla nich miejsca, ale przynieść bymiało wiele miłych użytkownikom atrakcji: proaktywnego wykrywaniauszkodzeń systemu plików, lokalizacji i zastępowania rozłączonychbloków, czy skutecznego naprawiania aktywnego systemu plików.Odczuwalne ma być to przede wszystkim przez tych, którzy plików majądużo – już nie milion, a miliard – taki bowiem cel stawiasobie Red Hat, poszukując wydajnego sposobu radzenia sobie zdyskami w erze big data.Zresztą, może już nie tak bardzo big,to macierz 10 TB wypełniona plikami o rozmiarach 10 KB, czyli coś, zczym wyobraźnia sobie dziś już radzi.W każdym razie Red Hat jest przekonane, że XFS gotowe jest nazadania, jakie go czekają. Ron Pacheco, menedżer Red Hataodpowiedzialny za prace nad RHEL 7, stwierdził, że klienci firmypróbują sobie poradzić z prawdziwą eksplozją ilości przechowywanychdanych – i ten drastyczny wzrost wymaga skalowalnego, wydajnegosystemu plików, którym jest właśnie XFS.Czy inne dystrybucje (oprócz oczywiście jego klonów: CentOS-a i ScientificLinuksa) pójdą w ślady Red Hata? Trudno powiedzieć. Ext4 wyglądacoraz bardziej jak zbiór łatek, btrfs, przy wszystkich swoichzaletach, bywa dość powolny, a ZFSon Linux wciąż ze względów licencyjnych może być w wieluzastosowaniach problematyczny. Na zwykłym desktopie nie jest tokluczową kwestią, ale dla serwerów, szczególnie bazodanowych, jestwręcz odwrotnie – tam wydajność systemu plików to priorytet.Osobom, które mają coś więc wspólnego z administracją Linuksa,przydać się może więc krótkiprzewodnik po XFS, opublikowany niedawno w serwisie Unix Arena.Przydał się w każdym razie autorowi tego newsa, po tym jak po kilkulatach przerwy ponownie po XFS sięgnął, by dać się zaskoczyćwielkiemu postępowi, jaki w tym systemie plików zaszedł.

Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (46)