20 lat zmian w dyskach SSD. Kiedyś ekstrawagancja, dziś - podstawa

20 lat zmian w dyskach SSD. Kiedyś ekstrawagancja, dziś - podstawa28.10.2022 14:32
Od SSHD po SSD na SATA po SSD na M.2.
Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek

Dzisiaj nikt nie wyobraża sobie komputera bez dysku SSD, ale nie zawsze tak było. W pierwszych latach istnienia dobrychprogramów pojawiały się pierwsze dyski SSD w astronomicznych wręcz cenach i były tylko ciekawostką, ale przez następne lata wszystko się zmieniło.

Pierwsze eksperymenty z dyskami SSD (które co prawda powinny być nazywane nośnikami, ale na rynku przyjęło się określenie dysk) sięgają 1976 roku, kiedy to Dataram wydał "the Bulk Core" o pojemności 2 MB przewyższający 10 tys. razy osiągi klasycznych HDD. Ten jednak kosztował ówczesne 9700 dolarów, co dzisiaj przełożyłoby się na blisko 18 tys. USD. Warto jednak zaznaczyć, że były to konstrukcje oparte na pamięci RAM, a więc po stracie zasilania (stosowano baterie) dane nie były zachowywane.

Z kolei korzeni dzisiejszych dysków SSD należy się doszukiwać w 1995 roku, kiedy to izraelska firma M-Systems (wchłonięta później przez SanDiska) zaprezentowała konstrukcję opartą o pamięci typu flash - nietracące danych po odcięciu od zasilania. Mowa tutaj o pamięciach typu NOR i NAND różniących się typem bramki logicznej stosowanej w komórkach pamięci, z czego drugi typ stał się najbardziej popularny.

Dyski z serii FFD-350 od M-Systems w formacie 3,5 cala korzystające z interfejsu SCSI były oferowane w pojemnościach od 16 do 896 MB i kosztowały tysiące lub dziesiątki tys. dolarów za sztukę. Z tego względu były stosowane głównie w przemyśle zbrojeniowym i lotniczym, tak samo jak późniejsze rozwiązania konkurencji.

Narodziny konsumenckich dysków SSD

Konsumenckie dyski SSD korzystające z interfejsu SATA w formacie 2,5 cala zaczęły się pojawiać na świecie po 2006 roku - początkowo w pojemnościach 32 lub 64 GB w dość absurdalnych cenach rzędu 4 tys. złotych. Dzięki nim uruchamianie systemu nie zajmowało już minut, tylko sekundy oraz oferowały transfery nieosiągalne dla zwykłych dysków talerzowych.

Jednakże główną zmienną, która spowodowała tę rewolucję, był czas dostępu, który w przypadku dysków SSD wynosi 0,1/0,2 ms. W przypadku najszybszych HDD pokroju WD VelociRaptor (10000 RPM) wymagających radiatora, było to kilka milisekund, więc mowa o prawdziwej przepaści. Na szczęście ceny szybko spadały i już w 2009 roku dyski kosztowały mniej niż 1000 zł, a za ponad 3 tys. dostępne były pierwsze konstrukcje o pojemności 256 GB.

Były to dyski stworzone na kościach MLC, a pierwsze modele na kościach TLC pojawiły się w 2013 roku w formie Samsunga 840 EVO, który poza dobrą wydajnością w przystępnej cenie, przyniósł też niestety problemy z degradacją osiągów. Jego rywalami były dobrze przyjęte na rynku m.in. Crucial M500, Plextor M5 Pro czy GoodRam Iridium Pro i ich rewizje.

Samsung jednak znacznie poprawił się w 2015 roku przy okazji modelu 850 EVO, który pokazał, że 3D TLC może zapewniać porównywalne osiągi do flagowych dysków SSD opartych na MLC. Gorzej było jednak z dyskami wykorzystującymi standardowo położone na płasko (2D) kości TLC, które rozczarowywały wydajnością (przykład to seria Crucial BX200).

Gdy SATA III to za mało — dyski wykorzystujące interfejs PCIe

Dyski SSD pokazały, że fizyczną barierą w dalszym rozwoju był interfejs SATA ograniczający wydajność do lekko ponad 500 MB/s, więc producenci zaczęli eksperymentować z wykorzystaniem interfejsu PCI-e. W tym celu opracowywano specjalne nowe złącze NGFF (Next Generation Form Factor), które w 2013 roku przemianowano na M.2.

Było ono wersją rozwojową znanego od 2009 roku mSATA, które było wymiarowo tożsame z mini-PCIe wykorzystywanym do montażu m.in. kart sieciowych w laptopach. M.2 zastąpiło te dwa standardy i od 2014 roku było stosowane na płytach głównych z chipsetem Intela H97 i Z97. Początkowo pod złącza M.2 podprowadzone były dwie lub cztery linie PCIe (klucz B lub M), ale ostatecznie normą stały się cztery - tak samo jak długość dysków wynosząca 80 mm.

[1/7] Złącze M.2., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[2/7] Era dysków PCIe i NVMe. Po lewej Plextor M8PeG, a po prawej WD BLACK SN850 (PCIe 4.0)., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[3/7] Crucial MX200., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[4/7] Złącze M.2., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[5/7] Złącza SATA., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[6/7] Od HDD po SSD na SATA po SSD na M.2., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek
[7/7] Od SSHD po SSD na SATA po SSD na M.2., Źródło zdjęć: © Dobreprogramy.pl | Przemysław Juraszek

W związku z tym powstały też adaptery M.2 do gniazda PCIe dedykowanego kartom graficznym dla starszych płyt głównych, a stosowanym protokołem początkowo był AHCI (Advanced Host Controller Interface) pozwalający na transfery do 750 MB/s, dość szybko wyparty przez zaprojektowany od zera dla SSD protokół NVMe (Non-Volatile Memory Express) pozwalający bezproblemowe wykorzystanie linii PCIe.

W przypadku PCIe 3.0 granicą przepustowości były 4 GB/s, a dla obecnie popularnych SSD opartych o PCIe 4.0 maksimum to 8 GB/s. Na horyzoncie są już jednak dyski wspierające PCIe 5.0, gdzie granicą będzie 16 GB/s.

Warto zaznaczyć, że o ile przesiadka z HDD na SSD SATA była ogromnym przeskokiem w komforcie użytkowania komputera, to progres w codziennych zastosowaniach jest dużo mniej wyczuwalny w przypadku przejścia z SATA na PCIe 3.0. Z kolei przejście z dysków PCIe 3.0 na 4.0 docenią głównie ludzie zajmujący się m.in. przenoszeniem ogromnych baz danych lub zawodową obróbką zdjęć lub wideo. Jednakże i tak wiele będzie zależeć od zastosowanych kostek pamięci i kontrolera, ponieważ historia zna przypadki dysków PCIe 4.0 wolniejszych od dobrych sztuk PCIe 3.0 w praktycznych zastosowaniach.

Rodzaje kości pamięci — rdzeń, który przesądza o wartości dysku

Dyski SSD składają się z kości pamięci, kontrolera i niestety coraz rzadziej spotykanego dodatkowego bufora pamięci RAM. Początkowo SSD były produkowane przy wykorzystaniu (uważanych przez wielu za swoistego świętego Graala) kości pamięci SLC (Single-Level Cell), ale ich popularność w domowych komputerach przyniosły dopiero modele oparte na MLC (Multi-Level Cell), Triple-level cell (TLC) i Quad-level cell (QLC). W przypadku kości SLC w jednej komórce można zapisać tylko jeden bit, w MLC dwa, w TLC i QLC kolejno trzy lub cztery bity.

Ceną za to jest zmniejszenie wytrzymałości, ponieważ kości SLC są teoretycznie zdolne wytrzymać 100 tys. cykli zapisu, MLC ~10 tys., TLC 3 tys., a QLC 1000 cykli. Ponadto wzrasta też zużycie energii i spada wydajność (głównie zapisu), ale z drugiej strony maleje cena, dzięki czemu np. dyski SSD o pojemności 2 TB można dostać za 600-700 zł.

Teraz na rynku konsumenckim dominują dyski SSD oparte na kościach 3D TLC lub 3D QLC, a jeśli ktoś koniecznie chce MLC, to musi patrzeć na starsze modele lub produkty serwerowe.

Rodzaje kości pamięci NAND., Źródło zdjęć: © Materiały prasowe | Kingston
Rodzaje kości pamięci NAND.
Źródło zdjęć: © Materiały prasowe | Kingston

Niemiecka redakcja heise.de przeprowadziła długotrwały test dysków SSD, gdzie uczestniczyły: OCZ TR150, Crucial BX 200, Samsung 750 Evo, Samsung 850 Pro i SanDisk Extreme Pro. Wszystkie dyski przestały działać znaczenie powyżej ustalonego przez producenta współczynnika TBW, ale tylko modele oparte na MLC pokonały granicę 2000 TBW, z czego jeden z dwóch Samsungów 850 Pro (3D MLC) przetrwał zapisanie 9100 TB!

Z czasem okazało się, że ustawianie kości pamięci w pionowe stosy na inteposerze (kości pamięci oznaczone jako 3D) mogą osiągać kilkukrotnie wyższą wytrzymałość. W przypadku kości 3D TLC mowa o nawet 10 tys. cykli zapisu w przypadku najnowszych rozwiązań. W skrócie - im więcej warstw tym lepiej, a ostatnio pojawiły się dyski SSD z 176-warstwowymi kośćmi 3D TLC.

Ponadto producenci dysków wykorzystują też fakt możliwości programowego przerobienia części powierzchni dysku w bufor tzw. pseudo-SLC, gdzie część kości TLC działa niczym SLC, co znacznie podnosi osiągi. Jego działanie i wielkość różni się w zależności od konkretnych dysków, ich zapełnienia. W skrócie, pierwsze zapisywane dane trafiają na bufor, a dopiero później są zapisywane w tle na kościach TLC. Takie rozwiązanie pozytywnie wpływa także na wytrzymałość kości.

Przykładowo, w przypadku zaszyfrowania powierzchni całego dysku, dobrze będzie widać różnicę pomiędzy dyskami pokroju starego Samsunga 970 Pro (3D MLC) i innym popularnym konkurentem opartym na kościach 3D TLC lub QLC. W przypadku dwóch ostatnich, po jakimś czasie (po przepełnieniu bufora) nastąpi drastyczny spadek szybkości zapisu. W takim teście doskonale widać też jakość zastosowanych kostek (mniejsza wydajność = gorsze kostki).

Publikacja powstała w ramach cyklu z okazji 20-lecia dobrychprogramów. Wszystkie artykuły można znaleźć na stronie poświęconej jubileuszowi.

Przemysław Juraszek, dziennikarz dobreprogramy.pl

Szanowna Użytkowniczko! Szanowny Użytkowniku!
×
Aby dalej móc dostarczać coraz lepsze materiały redakcyjne i udostępniać coraz lepsze usługi, potrzebujemy zgody na dopasowanie treści marketingowych do Twojego zachowania. Twoje dane są u nas bezpieczne, a zgodę możesz wycofać w każdej chwili na podstronie polityka prywatności.

Kliknij "PRZECHODZĘ DO SERWISU" lub na symbol "X" w górnym rogu tej planszy, jeżeli zgadzasz się na przetwarzanie przez Wirtualną Polskę i naszych Zaufanych Partnerów Twoich danych osobowych, zbieranych w ramach korzystania przez Ciebie z usług, portali i serwisów internetowych Wirtualnej Polski (w tym danych zapisywanych w plikach cookies) w celach marketingowych realizowanych na zlecenie naszych Zaufanych Partnerów. Jeśli nie zgadzasz się na przetwarzanie Twoich danych osobowych skorzystaj z ustawień w polityce prywatności. Zgoda jest dobrowolna i możesz ją w dowolnym momencie wycofać zmieniając ustawienia w polityce prywatności (w której znajdziesz odpowiedzi na wszystkie pytania związane z przetwarzaniem Twoich danych osobowych).

Od 25 maja 2018 roku obowiązuje Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (określane jako "RODO"). W związku z tym chcielibyśmy poinformować o przetwarzaniu Twoich danych oraz zasadach, na jakich odbywa się to po dniu 25 maja 2018 roku.

Kto będzie administratorem Twoich danych?

Administratorami Twoich danych będzie Wirtualna Polska Media Spółka Akcyjna z siedzibą w Warszawie, oraz pozostałe spółki z grupy Wirtualna Polska, jak również nasi Zaufani Partnerzy, z którymi stale współpracujemy. Szczegółowe informacje dotyczące administratorów znajdują się w polityce prywatności.

O jakich danych mówimy?

Chodzi o dane osobowe, które są zbierane w ramach korzystania przez Ciebie z naszych usług, portali i serwisów internetowych udostępnianych przez Wirtualną Polskę, w tym zapisywanych w plikach cookies, które są instalowane na naszych stronach przez Wirtualną Polskę oraz naszych Zaufanych Partnerów.

Dlaczego chcemy przetwarzać Twoje dane?

Przetwarzamy je dostarczać coraz lepsze materiały redakcyjne, dopasować ich tematykę do Twoich zainteresowań, tworzyć portale i serwisy internetowe, z których będziesz korzystać z przyjemnością, zapewniać większe bezpieczeństwo usług, udoskonalać nasze usługi i maksymalnie dopasować je do Twoich zainteresowań, pokazywać reklamy dopasowane do Twoich potrzeb. Szczegółowe informacje dotyczące celów przetwarzania Twoich danych znajdują się w polityce prywatności.

Komu możemy przekazać dane?

Twoje dane możemy przekazywać podmiotom przetwarzającym je na nasze zlecenie oraz podmiotom uprawnionym do uzyskania danych na podstawie obowiązującego prawa – oczywiście tylko, gdy wystąpią z żądaniem w oparciu o stosowną podstawę prawną.

Jakie masz prawa w stosunku do Twoich danych?

Masz prawo żądania dostępu, sprostowania, usunięcia lub ograniczenia przetwarzania danych. Możesz wycofać zgodę na przetwarzanie, zgłosić sprzeciw oraz skorzystać z innych praw wymienionych szczegółowo w polityce prywatności.

Jakie są podstawy prawne przetwarzania Twoich danych?

Podstawą prawną przetwarzania Twoich danych w celu świadczenia usług jest niezbędność do wykonania umów o ich świadczenie (tymi umowami są zazwyczaj regulaminy). Podstawą prawną przetwarzania danych w celu pomiarów statystycznych i marketingu własnego administratorów jest tzw. uzasadniony interes administratora. Przetwarzanie Twoich danych w celach marketingowych realizowanych przez Wirtualną Polskę na zlecenie Zaufanych Partnerów i bezpośrednio przez Zaufanych Partnerów będzie odbywać się na podstawie Twojej dobrowolnej zgody.