Od SSHD po SSD na SATA po SSD na M.2.© Dobreprogramy.pl | Przemysław Juraszek

20 lat zmian w dyskach SSD. Kiedyś ekstrawagancja, dziś - podstawa

Przemysław Juraszek
28 października 2022

Dzisiaj nikt nie wyobraża sobie komputera bez dysku SSD, ale nie zawsze tak było. W pierwszych latach istnienia dobrychprogramów pojawiały się pierwsze dyski SSD w astronomicznych wręcz cenach i były tylko ciekawostką, ale przez następne lata wszystko się zmieniło.

Pierwsze eksperymenty z dyskami SSD (które co prawda powinny być nazywane nośnikami, ale na rynku przyjęło się określenie dysk) sięgają 1976 roku, kiedy to Dataram wydał "the Bulk Core" o pojemności 2 MB przewyższający 10 tys. razy osiągi klasycznych HDD. Ten jednak kosztował ówczesne 9700 dolarów, co dzisiaj przełożyłoby się na blisko 18 tys. USD. Warto jednak zaznaczyć, że były to konstrukcje oparte na pamięci RAM, a więc po stracie zasilania (stosowano baterie) dane nie były zachowywane.

Z kolei korzeni dzisiejszych dysków SSD należy się doszukiwać w 1995 roku, kiedy to izraelska firma M-Systems (wchłonięta później przez SanDiska) zaprezentowała konstrukcję opartą o pamięci typu flash - nietracące danych po odcięciu od zasilania. Mowa tutaj o pamięciach typu NOR i NAND różniących się typem bramki logicznej stosowanej w komórkach pamięci, z czego drugi typ stał się najbardziej popularny.

Dyski z serii FFD-350 od M-Systems w formacie 3,5 cala korzystające z interfejsu SCSI były oferowane w pojemnościach od 16 do 896 MB i kosztowały tysiące lub dziesiątki tys. dolarów za sztukę. Z tego względu były stosowane głównie w przemyśle zbrojeniowym i lotniczym, tak samo jak późniejsze rozwiązania konkurencji.

Narodziny konsumenckich dysków SSD

Konsumenckie dyski SSD korzystające z interfejsu SATA w formacie 2,5 cala zaczęły się pojawiać na świecie po 2006 roku - początkowo w pojemnościach 32 lub 64 GB w dość absurdalnych cenach rzędu 4 tys. złotych. Dzięki nim uruchamianie systemu nie zajmowało już minut, tylko sekundy oraz oferowały transfery nieosiągalne dla zwykłych dysków talerzowych.

Jednakże główną zmienną, która spowodowała tę rewolucję, był czas dostępu, który w przypadku dysków SSD wynosi 0,1/0,2 ms. W przypadku najszybszych HDD pokroju WD VelociRaptor (10000 RPM) wymagających radiatora, było to kilka milisekund, więc mowa o prawdziwej przepaści. Na szczęście ceny szybko spadały i już w 2009 roku dyski kosztowały mniej niż 1000 zł, a za ponad 3 tys. dostępne były pierwsze konstrukcje o pojemności 256 GB.

Były to dyski stworzone na kościach MLC, a pierwsze modele na kościach TLC pojawiły się w 2013 roku w formie Samsunga 840 EVO, który poza dobrą wydajnością w przystępnej cenie, przyniósł też niestety problemy z degradacją osiągów. Jego rywalami były dobrze przyjęte na rynku m.in. Crucial M500, Plextor M5 Pro czy GoodRam Iridium Pro i ich rewizje.

Samsung jednak znacznie poprawił się w 2015 roku przy okazji modelu 850 EVO, który pokazał, że 3D TLC może zapewniać porównywalne osiągi do flagowych dysków SSD opartych na MLC. Gorzej było jednak z dyskami wykorzystującymi standardowo położone na płasko (2D) kości TLC, które rozczarowywały wydajnością (przykład to seria Crucial BX200).

Gdy SATA III to za mało — dyski wykorzystujące interfejs PCIe

Dyski SSD pokazały, że fizyczną barierą w dalszym rozwoju był interfejs SATA ograniczający wydajność do lekko ponad 500 MB/s, więc producenci zaczęli eksperymentować z wykorzystaniem interfejsu PCI-e. W tym celu opracowywano specjalne nowe złącze NGFF (Next Generation Form Factor), które w 2013 roku przemianowano na M.2.

Było ono wersją rozwojową znanego od 2009 roku mSATA, które było wymiarowo tożsame z mini-PCIe wykorzystywanym do montażu m.in. kart sieciowych w laptopach. M.2 zastąpiło te dwa standardy i od 2014 roku było stosowane na płytach głównych z chipsetem Intela H97 i Z97. Początkowo pod złącza M.2 podprowadzone były dwie lub cztery linie PCIe (klucz B lub M), ale ostatecznie normą stały się cztery - tak samo jak długość dysków wynosząca 80 mm.

  • Złącze M.2.
  • Era dysków PCIe i NVMe. Po lewej Plextor M8PeG, a po prawej WD BLACK SN850 (PCIe 4.0).
  • Crucial MX200.
  • Złącze M.2.
  • Złącza SATA.
  • Od HDD po SSD na SATA po SSD na M.2.
  • Od SSHD po SSD na SATA po SSD na M.2.
[1/7] Złącze M.2.Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek

W związku z tym powstały też adaptery M.2 do gniazda PCIe dedykowanego kartom graficznym dla starszych płyt głównych, a stosowanym protokołem początkowo był AHCI (Advanced Host Controller Interface) pozwalający na transfery do 750 MB/s, dość szybko wyparty przez zaprojektowany od zera dla SSD protokół NVMe (Non-Volatile Memory Express) pozwalający bezproblemowe wykorzystanie linii PCIe.

W przypadku PCIe 3.0 granicą przepustowości były 4 GB/s, a dla obecnie popularnych SSD opartych o PCIe 4.0 maksimum to 8 GB/s. Na horyzoncie są już jednak dyski wspierające PCIe 5.0, gdzie granicą będzie 16 GB/s.

Warto zaznaczyć, że o ile przesiadka z HDD na SSD SATA była ogromnym przeskokiem w komforcie użytkowania komputera, to progres w codziennych zastosowaniach jest dużo mniej wyczuwalny w przypadku przejścia z SATA na PCIe 3.0. Z kolei przejście z dysków PCIe 3.0 na 4.0 docenią głównie ludzie zajmujący się m.in. przenoszeniem ogromnych baz danych lub zawodową obróbką zdjęć lub wideo. Jednakże i tak wiele będzie zależeć od zastosowanych kostek pamięci i kontrolera, ponieważ historia zna przypadki dysków PCIe 4.0 wolniejszych od dobrych sztuk PCIe 3.0 w praktycznych zastosowaniach.

Rodzaje kości pamięci — rdzeń, który przesądza o wartości dysku

Dyski SSD składają się z kości pamięci, kontrolera i niestety coraz rzadziej spotykanego dodatkowego bufora pamięci RAM. Początkowo SSD były produkowane przy wykorzystaniu (uważanych przez wielu za swoistego świętego Graala) kości pamięci SLC (Single-Level Cell), ale ich popularność w domowych komputerach przyniosły dopiero modele oparte na MLC (Multi-Level Cell), Triple-level cell (TLC) i Quad-level cell (QLC). W przypadku kości SLC w jednej komórce można zapisać tylko jeden bit, w MLC dwa, w TLC i QLC kolejno trzy lub cztery bity.

Ceną za to jest zmniejszenie wytrzymałości, ponieważ kości SLC są teoretycznie zdolne wytrzymać 100 tys. cykli zapisu, MLC ~10 tys., TLC 3 tys., a QLC 1000 cykli. Ponadto wzrasta też zużycie energii i spada wydajność (głównie zapisu), ale z drugiej strony maleje cena, dzięki czemu np. dyski SSD o pojemności 2 TB można dostać za 600-700 zł.

Teraz na rynku konsumenckim dominują dyski SSD oparte na kościach 3D TLC lub 3D QLC, a jeśli ktoś koniecznie chce MLC, to musi patrzeć na starsze modele lub produkty serwerowe.

Rodzaje kości pamięci NAND.
Rodzaje kości pamięci NAND.Źródło zdjęć: © Materiały prasowe | Kingston

Niemiecka redakcja heise.de przeprowadziła długotrwały test dysków SSD, gdzie uczestniczyły: OCZ TR150, Crucial BX 200, Samsung 750 Evo, Samsung 850 Pro i SanDisk Extreme Pro. Wszystkie dyski przestały działać znaczenie powyżej ustalonego przez producenta współczynnika TBW, ale tylko modele oparte na MLC pokonały granicę 2000 TBW, z czego jeden z dwóch Samsungów 850 Pro (3D MLC) przetrwał zapisanie 9100 TB!

Z czasem okazało się, że ustawianie kości pamięci w pionowe stosy na inteposerze (kości pamięci oznaczone jako 3D) mogą osiągać kilkukrotnie wyższą wytrzymałość. W przypadku kości 3D TLC mowa o nawet 10 tys. cykli zapisu w przypadku najnowszych rozwiązań. W skrócie - im więcej warstw tym lepiej, a ostatnio pojawiły się dyski SSD z 176-warstwowymi kośćmi 3D TLC.

Ponadto producenci dysków wykorzystują też fakt możliwości programowego przerobienia części powierzchni dysku w bufor tzw. pseudo-SLC, gdzie część kości TLC działa niczym SLC, co znacznie podnosi osiągi. Jego działanie i wielkość różni się w zależności od konkretnych dysków, ich zapełnienia. W skrócie, pierwsze zapisywane dane trafiają na bufor, a dopiero później są zapisywane w tle na kościach TLC. Takie rozwiązanie pozytywnie wpływa także na wytrzymałość kości.

Przykładowo, w przypadku zaszyfrowania powierzchni całego dysku, dobrze będzie widać różnicę pomiędzy dyskami pokroju starego Samsunga 970 Pro (3D MLC) i innym popularnym konkurentem opartym na kościach 3D TLC lub QLC. W przypadku dwóch ostatnich, po jakimś czasie (po przepełnieniu bufora) nastąpi drastyczny spadek szybkości zapisu. W takim teście doskonale widać też jakość zastosowanych kostek (mniejsza wydajność = gorsze kostki).

Publikacja powstała w ramach cyklu z okazji 20-lecia dobrychprogramów. Wszystkie artykuły można znaleźć na stronie poświęconej jubileuszowi.

Przemysław Juraszek, dziennikarz dobreprogramy.pl

Udostępnij:
Komentarze (36)