Wstępniak na nowy tydzień: bałagan na biurku i przyszłość pamięci zewnętrznych

Wstępniak na nowy tydzień: bałagan na biurku i przyszłość pamięci zewnętrznych

Wstępniak na nowy tydzień: bałagan na biurku i przyszłość pamięci zewnętrznych
16.03.2015 13:32, aktualizacja: 16.03.2015 16:25

Pamiętacie pojemność swoich pierwszych twardych dysków? Mójpierwszy, w Amidze 1200, był 2,5-calową jednostką, na której możnabyło pomieścić zawrotne 40 MB. Nie było tego dużo, twardy dysk byłbardziej dopełnieniem walizki z dyskietkami niż uniwersalną pamięciązewnętrzną. Tyle, jeśli chodzi o realia storage w pięknym roku 1994.Dziesięć lat później, już na PC, dysk twardy był już o kilka rzędówwielkości większy – i wciąż miejsca brakowało, był bardziejdopełnieniem klaserów z płytami CD, niż uniwersalną pamięciązewnętrzną. Rok 2014 przyniósł mi wreszcie przejście na dysk SSD, alei on był bardziej dopełnieniem domowego serwera NAS z terabajtowymtwardym dyskiem, niż uniwersalną pamięcią masową. Ostatnio dysk wNAS-ie wymieniłem na pojemniejszy i cichszy, jego poprzednikwylądował na biurku, by zalec obok rozmaitych pendrive'ów, kart SD imicroSD, testowanych superszybkich napędów M.2 i kilku nieszczęsnychostatnich płyt optycznych, jakie mi w domu zostały. Ten stosikpamięci masowych każe mi się zastanawiać – czy to zawsze jużtak będzie?

Nie ma wątpliwości – tematy dysków SSD i HD wciąż są jednymiz najgorętszych w naszym portalu. Nie ma w tym nic dziwnego, wciążmnóstwo osób jako podstawowej pamięci używa klasycznych, talerzowychtwardych dysków, ale ceny SSD spadły do poziomu przystępnego dlatypowego Kowalskiego. Niektórzy twierdzą, że w erze tanich SSD iwszechobecnego streamingu mediów, HD to już kompletny przeżytek. Czyaby na pewno – i czy kiedykolwiek dojdziemy do sytuacji, wktórej pozostanie tylko jeden, uniwersalny typ pamięci nieulotnych?

Wydaje się, że SSD ma tu wszystkie atuty „w rękawie”.Prawo Moore'a zapewnia temu typowi nośników dalsze wzrosty wydajnościi opłacalności, a cykl życia i niezawodność okazują się znacznielepsze, niż ktokolwiek się spodziewał. Dyskom talerzowym zostajeprzewaga ceny i oczywiście pojemności, Western Digital dopiero cozapowiedział wprowadzenie na rynek przeznaczonych dla biznesu napędówo pojemności 10 TB (wypełnionych helem i stosujących ten nowy,gontowy system zapisu z częściowym nakładaniem się na siebieścieżek). Nawet jednak łącząc wszystkie innowacje w zakresie dyskówtwardych (a także te, o których się dopiero dyskutuje, takich jakprzetwarzanie sygnału w dwuwymiarowym zapisie magnetycznym, czy zapiswspomagany termicznie, za pomocą laserów podgrzewających ścieżkę), toi tak wydaje się, że wszystkie nisko rosnące owoce zostały zerwane.Znaleźć można opinie analityków, utrzymujących że innowacyjnościproducentom dysków twardych pozostanie jeszcze na 4-5 lat dalszegowzrostu, przez które zdołają utrzymać dalszy wzrost pojemności iniższe ceny, niż pamięci flash NAND.

Nie zmienia tego wrażenia przeglądanie doniesień od producentówpamięci półprzewodnikowych. Trójwymiarowe upakowanie macierzytranzystorów w czipie (3D NAND) i zastosowanie komórek wielowarstwowych(MLC) mają zapewnić ogromny wzrost pojemności SSD – Intelobiecuje pomieszczenie w ten sposób 48 GB w jednym czipie, by już wprzyszłym roku budować terabajtowe, atrakcyjne cenowo SSD dlaklientów indywidualnych i za 2-3 lata aż 10-terabajtowe dyski dlabiznesu. Do tego dochodzi szybki rozwój pamięci trzywarstwowych (TLC),mogących w jednej komórce przechowywać więcej informacji niż wużywanych dzisiaj MLC. Jak wiecie pewnie, obecne komórki pamięciflash nie przechowują już jednego z dwóch napięć, odpowiedników zeralub jedynki, lecz cztery poziomy napięć, pozwalające upakować wjednej komórce równowartość danych zawartych w dwóch jednowarstwowychkomórkach. Już w tym roku Micron obiecuje niedrogie pamięci flashTLC, które w jednej komórce pomieszczą osiem takich poziomów,pozwalając przechować o 50% więcej danych.

Do tego dochodzi niemały postęp w dziedzinie oprogramowania. Nowemechanizmy w sterownikach mają ograniczyć problemy związane zwielowarstwowymi komórkami. Silicon Motion obiecuje praktycznewykorzystanie silnika testów parzystości niskiej gęstości (LDPC) dokorygowania błędów odczytu z matematycznie gwarantowanąniezawodnością i śledzenia poziomów napięć w macierzach komórek, takby dostosowywać się do zachodzących zmian, a nie odrzucać je jakobłędy. Czyli więc co, kolejnego dysku twardego już nie kupię, doNAS-a trafi za to jakiś intelowy dysk SSD?

Szczerze mówiąc wątpię w to, i to wcale nie dlatego, że wątpię wpostęp w pamięciach flash. Patrząc na dostępne dziś w handlu dyskiSSD, nawet te najnowocześniejsze, do interfejsu M.2, widać, że todzieci kompromisów. Ktoś po prostu potrzebował wynaleźć urządzenie,które da się podpiąć do tych miliardów portów SATA na całym świecie.Witajcie opóźnienia, odziedziczone po erze dysków twardych. Późniejoczywiście próbowano zaradzić temu wszystkiemu, wprowadzając kolejneszybsze generacje SATA czy nawet NVM Express, ale i tak podstawoweograniczenie nie znikało. Wszystkie kolejne generacje napędów SSDkorzystały z warstwy translacji flash (FTL), utrzymującej ciągłąlogiczną przestrzeń adresową, za którą dzieją się te wszystkiebrzydkie rzeczy, o których żaden teoretyk informatyki nie chcesłyszeć.

Obraz

I nie byłoby w tym nic złego, gdyby nie to, że my już mamy „odzawsze” warstwę translacji do utrzymania ciągłej logicznejprzestrzeni adresowej, zarządzającej fizyczną lokalizacją danych wkompleksowych metadanych. Tą warstwą jest oczywiście system plików. Wwypadku SSD mamy więc do czynienia z dwoma warstwami translacji,często wchodzącymi sobie w drogę. Czy nie lepiej, by sam systemplików zajmował się tym, co dzieje się normalnie za FTL-em –zbieraniem nieużytków, kontrolowaniem zużycia komórek itp? O tym, żecoś takiego jest możliwe, przekonała mnie ciekawa pracadoktorska amerykańskiej informatyk, Yiying Zhang, pt.De-indirection for Flash-based Solid State Drives. Uważa ona, że SSD poprostu są przestarzałe z samej architektury, a my marnujemy pamięciflash, traktując je jak dyski.

To fundamentalne ograniczenie SSD długo jeszcze nie zniknie –sugerowane zmiany idą zbyt daleko, by zorientowany na zysk przemysłkomputerowy mógł się w coś takiego bawić. Tymczasem bez tego staleulepszane twarde dyski osiągają parametry, które sprawiają, że ichpozycja jako niedrogich pamięci zewnętrznych do przechowywania danychbędzie nie do ruszenia – i ze względu na cenę, i wydajność.

Zapytacie pewnie, a co ze science-fiction? Jasne, na horyzonciewidać wiele dosłownie fantastycznych typów nowych pamięci, na czele zmemrystorami i krystalicznymi PRAM, ich parametry biją na głowęwszystko, co widzimy na co dzień (np. czas zapisu pamięcimemrystorowej to 20-30 ns, cztery rzędy wielkości mniej niż flashNAND) ale co z tego? Technologie produkcji na skalę masową nieistnieją, nikt nie ma żadnych realnych planów biznesowych z tymicudami związanych, pozostają zabawką fizyków w laboratoriach. DuopoluSSD i dysków talerzowych długo jeszcze nic nie złamie – tychpierwszych jako systemowych napędów, tych drugich jako odpowiedników„walizek z dyskietkami” z czasów Amigi.

A co u nas? Sądząc po rozmiarach naszej bazy oprogramowania, długojeszcze będziemy korzystali w naszych serwerach ze sprawdzonych,pojemnych „twardzieli”. Zainteresowanych wynikamikonkursu AMD muszę poinformować, że do końca dotarło ponad sto osób –nie spodziewaliśmy się, że będziecie aż tak dzielni. Trwa terazredakcyjne czytanie i ocenianie odpowiedzi, wyniki przedstawimypodczas programu na żywo w przyszłym tygodniu. Zapraszam Was więc dokolejnego, ciekawego tygodnia z dobrymi programami.

Programy

Zobacz więcej
Źródło artykułu:www.dobreprogramy.pl
Oceń jakość naszego artykułuTwoja opinia pozwala nam tworzyć lepsze treści.
Wybrane dla Ciebie
Komentarze (22)