r   e   k   l   a   m   a
r   e   k   l   a   m   a

Wstępniak na nowy tydzień: bałagan na biurku i przyszłość pamięci zewnętrznych

Strona główna AktualnościDOBREPROGRAMY

Pamiętacie pojemność swoich pierwszych twardych dysków? Mój pierwszy, w Amidze 1200, był 2,5-calową jednostką, na której można było pomieścić zawrotne 40 MB. Nie było tego dużo, twardy dysk był bardziej dopełnieniem walizki z dyskietkami niż uniwersalną pamięcią zewnętrzną. Tyle, jeśli chodzi o realia storage w pięknym roku 1994. Dziesięć lat później, już na PC, dysk twardy był już o kilka rzędów wielkości większy – i wciąż miejsca brakowało, był bardziej dopełnieniem klaserów z płytami CD, niż uniwersalną pamięcią zewnętrzną. Rok 2014 przyniósł mi wreszcie przejście na dysk SSD, ale i on był bardziej dopełnieniem domowego serwera NAS z terabajtowym twardym dyskiem, niż uniwersalną pamięcią masową. Ostatnio dysk w NAS-ie wymieniłem na pojemniejszy i cichszy, jego poprzednik wylądował na biurku, by zalec obok rozmaitych pendrive'ów, kart SD i microSD, testowanych superszybkich napędów M.2 i kilku nieszczęsnych ostatnich płyt optycznych, jakie mi w domu zostały. Ten stosik pamięci masowych każe mi się zastanawiać – czy to zawsze już tak będzie?

Nie ma wątpliwości – tematy dysków SSD i HD wciąż są jednymi z najgorętszych w naszym portalu. Nie ma w tym nic dziwnego, wciąż mnóstwo osób jako podstawowej pamięci używa klasycznych, talerzowych twardych dysków, ale ceny SSD spadły do poziomu przystępnego dla typowego Kowalskiego. Niektórzy twierdzą, że w erze tanich SSD i wszechobecnego streamingu mediów, HD to już kompletny przeżytek. Czy aby na pewno – i czy kiedykolwiek dojdziemy do sytuacji, w której pozostanie tylko jeden, uniwersalny typ pamięci nieulotnych?

Wydaje się, że SSD ma tu wszystkie atuty „w rękawie”. Prawo Moore'a zapewnia temu typowi nośników dalsze wzrosty wydajności i opłacalności, a cykl życia i niezawodność okazują się znacznie lepsze, niż ktokolwiek się spodziewał. Dyskom talerzowym zostaje przewaga ceny i oczywiście pojemności, Western Digital dopiero co zapowiedział wprowadzenie na rynek przeznaczonych dla biznesu napędów o pojemności 10 TB (wypełnionych helem i stosujących ten nowy, gontowy system zapisu z częściowym nakładaniem się na siebie ścieżek). Nawet jednak łącząc wszystkie innowacje w zakresie dysków twardych (a także te, o których się dopiero dyskutuje, takich jak przetwarzanie sygnału w dwuwymiarowym zapisie magnetycznym, czy zapis wspomagany termicznie, za pomocą laserów podgrzewających ścieżkę), to i tak wydaje się, że wszystkie nisko rosnące owoce zostały zerwane. Znaleźć można opinie analityków, utrzymujących że innowacyjności producentom dysków twardych pozostanie jeszcze na 4-5 lat dalszego wzrostu, przez które zdołają utrzymać dalszy wzrost pojemności i niższe ceny, niż pamięci flash NAND.

r   e   k   l   a   m   a

Nie zmienia tego wrażenia przeglądanie doniesień od producentów pamięci półprzewodnikowych. Trójwymiarowe upakowanie macierzy tranzystorów w czipie (3D NAND) i zastosowanie komórek wielowarstwowych (MLC) mają zapewnić ogromny wzrost pojemności SSD – Intel obiecuje pomieszczenie w ten sposób 48 GB w jednym czipie, by już w przyszłym roku budować terabajtowe, atrakcyjne cenowo SSD dla klientów indywidualnych i za 2-3 lata aż 10-terabajtowe dyski dla biznesu. Do tego dochodzi szybki rozwój pamięci trzywarstwowych (TLC), mogących w jednej komórce przechowywać więcej informacji niż w używanych dzisiaj MLC. Jak wiecie pewnie, obecne komórki pamięci flash nie przechowują już jednego z dwóch napięć, odpowiedników zera lub jedynki, lecz cztery poziomy napięć, pozwalające upakować w jednej komórce równowartość danych zawartych w dwóch jednowarstwowych komórkach. Już w tym roku Micron obiecuje niedrogie pamięci flash TLC, które w jednej komórce pomieszczą osiem takich poziomów, pozwalając przechować o 50% więcej danych.

Do tego dochodzi niemały postęp w dziedzinie oprogramowania. Nowe mechanizmy w sterownikach mają ograniczyć problemy związane z wielowarstwowymi komórkami. Silicon Motion obiecuje praktyczne wykorzystanie silnika testów parzystości niskiej gęstości (LDPC) do korygowania błędów odczytu z matematycznie gwarantowaną niezawodnością i śledzenia poziomów napięć w macierzach komórek, tak by dostosowywać się do zachodzących zmian, a nie odrzucać je jako błędy. Czyli więc co, kolejnego dysku twardego już nie kupię, do NAS-a trafi za to jakiś intelowy dysk SSD?

Szczerze mówiąc wątpię w to, i to wcale nie dlatego, że wątpię w postęp w pamięciach flash. Patrząc na dostępne dziś w handlu dyski SSD, nawet te najnowocześniejsze, do interfejsu M.2, widać, że to dzieci kompromisów. Ktoś po prostu potrzebował wynaleźć urządzenie, które da się podpiąć do tych miliardów portów SATA na całym świecie. Witajcie opóźnienia, odziedziczone po erze dysków twardych. Później oczywiście próbowano zaradzić temu wszystkiemu, wprowadzając kolejne szybsze generacje SATA czy nawet NVM Express, ale i tak podstawowe ograniczenie nie znikało. Wszystkie kolejne generacje napędów SSD korzystały z warstwy translacji flash (FTL), utrzymującej ciągłą logiczną przestrzeń adresową, za którą dzieją się te wszystkie brzydkie rzeczy, o których żaden teoretyk informatyki nie chce słyszeć.

I nie byłoby w tym nic złego, gdyby nie to, że my już mamy „od zawsze” warstwę translacji do utrzymania ciągłej logicznej przestrzeni adresowej, zarządzającej fizyczną lokalizacją danych w kompleksowych metadanych. Tą warstwą jest oczywiście system plików. W wypadku SSD mamy więc do czynienia z dwoma warstwami translacji, często wchodzącymi sobie w drogę. Czy nie lepiej, by sam system plików zajmował się tym, co dzieje się normalnie za FTL-em – zbieraniem nieużytków, kontrolowaniem zużycia komórek itp? O tym, że coś takiego jest możliwe, przekonała mnie ciekawa praca doktorska amerykańskiej informatyk, Yiying Zhang, pt. De-indirection for Flash-based Solid State Drives. Uważa ona, że SSD po prostu są przestarzałe z samej architektury, a my marnujemy pamięci flash, traktując je jak dyski.

To fundamentalne ograniczenie SSD długo jeszcze nie zniknie – sugerowane zmiany idą zbyt daleko, by zorientowany na zysk przemysł komputerowy mógł się w coś takiego bawić. Tymczasem bez tego stale ulepszane twarde dyski osiągają parametry, które sprawiają, że ich pozycja jako niedrogich pamięci zewnętrznych do przechowywania danych będzie nie do ruszenia – i ze względu na cenę, i wydajność.

Zapytacie pewnie, a co ze science-fiction? Jasne, na horyzoncie widać wiele dosłownie fantastycznych typów nowych pamięci, na czele z memrystorami i krystalicznymi PRAM, ich parametry biją na głowę wszystko, co widzimy na co dzień (np. czas zapisu pamięci memrystorowej to 20-30 ns, cztery rzędy wielkości mniej niż flash NAND) ale co z tego? Technologie produkcji na skalę masową nie istnieją, nikt nie ma żadnych realnych planów biznesowych z tymi cudami związanych, pozostają zabawką fizyków w laboratoriach. Duopolu SSD i dysków talerzowych długo jeszcze nic nie złamie – tych pierwszych jako systemowych napędów, tych drugich jako odpowiedników „walizek z dyskietkami” z czasów Amigi.

A co u nas? Sądząc po rozmiarach naszej bazy oprogramowania, długo jeszcze będziemy korzystali w naszych serwerach ze sprawdzonych, pojemnych „twardzieli”. Zainteresowanych wynikami konkursu AMD muszę poinformować, że do końca dotarło ponad sto osób – nie spodziewaliśmy się, że będziecie aż tak dzielni. Trwa teraz redakcyjne czytanie i ocenianie odpowiedzi, wyniki przedstawimy podczas programu na żywo w przyszłym tygodniu. Zapraszam Was więc do kolejnego, ciekawego tygodnia z dobrymi programami.

© dobreprogramy
r   e   k   l   a   m   a
r   e   k   l   a   m   a

Komentarze

r   e   k   l   a   m   a
r   e   k   l   a   m   a
Czy wiesz, że używamy cookies (ciasteczek)? Dowiedz się więcej o celu ich używania i zmianach ustawień.
Korzystając ze strony i asystenta pobierania wyrażasz zgodę na używanie cookies, zgodnie z aktualnymi ustawieniami przeglądarki.