Okiem testera: jak szybki powinien być dysk SSD?

SSD, wydajność dysku SSD, jak szybki SSD, jaki dysk, wybór dysku, dysk

Mam nadzieję, że każdy z Was stając dziś przed wyborem głównego systemowego dysku ma przed oczami dysk SSD, a nie HDD. Pozostaje więc pytanie… jak wydajny powinien być, żebyśmy nie utopili kasy, a czerpali z niego pełnię mocy?

Jako że dyski SSD zadomowiły się już na rynku całkiem godnie, oferując sporą pojemność w niskiej cenie (nie to, co przed kilkoma laty), a na dodatek zaczęły osiągać nowe poziomy wydajności, to warto zadbać o świadomość konsumentów na ich temat. Tak więc, w skrócie – jeśli nie mówimy o stosunku ceny do pojemności, dysk SSD będzie zawsze lepszy od swojego talerzowego dalekiego kuzyna. Koniec kropka, ale uzasadnijmy to na wszelki wypadek.

Tak więc technologia półprzewodnikowa i struktura dysków SSD uwolniła nasze komputerowe magazyny danych od przepastnych talerzy magnetycznych i usadowionych na nich głowic odczytujących. Kiedy coś od nich żądamy, impuls elektryczny wychodzący z kontrolera do określonej komórki pamięci ma to na wyciągnięcie ręki. Dzięki temu nie musi bawić się w ustawianie głowicy nad talerzem, który zresztą musi się nieustannie obracać. Wynik? Przeskoczenie fizycznego ograniczenia, wpływającego na wydajność dysków.

Budowa dysku SSD i HDD

Pod zwykle obudową albo po prostu na laminacie SSD znajdują się głównie kości pamięci oraz zarządzający nimi kontroler, który odpowiada za mechanizm zapisu i odczytu danych. To właśnie te dwa elementy określają pojemność i prędkości wszystkich dysków SSD.

Nie możemy jednak zapominać również o innych komponentach jak np. pamięci podręcznej (zwykle od 256 do nawet 2 GB pamięci DRAM) współpracującej bezpośrednio ze wspomnianym kontrolerem.

Podrzucając analogiczny przykład dysków talerzowych, w nich rolę kości pamięci odgrywają nieustannie obracające się talerze, z których informacje odczytuje i zapisuje fizycznie zmieniająca swoje położenie głowica, czyli swojego rodzaju odpowiednik kontrolera SSD. Pomimo tego, że ilość talerzy może rosnąć (co skutkuje jedynie większą pojemnością), to obsługujący je zestaw mechanicznych głowic będzie mógł skupić się z pełną wydajnością wyłącznie na jednym zadaniu.

Sprawa ma się całkowicie inaczej w przypadku dysków SSD. Obecny tam kontroler może zapisywać i odczytywać dane równocześnie z kilku kości pamięci, które właśnie określają dostępne miejsce. To swoją drogą sprawia, że im więcej kości producent wpakuje na laminat, tym większą wydajność w określonych zadaniach zaoferuje dysk. Oczywiście o ile zaimplementowany kontroler będzie w stanie obsłużyć wszystkie z nich, dlatego i on jest kluczowy w konkretnych modelach.

Jak szybki powinien być dysk SSD?

Wróćmy tym samym do głównego pytania, czyli tego, jak szybkiego dysku potrzebujecie. Spodziewam się bowiem, że określenie jego pojemności jest dla Was pestką (po prostu strońcie od wszystkiego poniżej 128 GB), ale wydajność… no cóż, stojące za nią szczegóły potrafią być naprawdę skomplikowane. Porzucając suche fakty, przypomnę tutaj jeden z moich testów.

Testów jednych z najwydajniejszych konsumenckich dysków SSD na M.2, które wykorzystują nowy standard PCIe 4.0, a nie PCIe 3.0, z którego korzysta znakomita większość z nas. Gigabyte AORUS w 1 i 2 TB wersji (bo o nich mowa) oferują całe 5000 MB/s odczytu i do 4400 MB/s. To cholernie dużo i praktycznie 10 razy więcej niż w przypadku najtańszych dysków na SATA III. Jednak czy dziesięć razy większa szybkość sprawiła, że sprzęt zaczął działać dziesięciokrotnie lepiej? Heh, nie zdziwię Was, chyba że nie?

Idąc bowiem tym tropem, może się nam wydawać, że dziesięciokrotnie wydajniejszy dysk sprawi, że wczytywanie gry z 5 sekund spadnie do pół sekundy, a proces instalacji skróci się z np. 10 minut do zaledwie jednej. Niestety nic z tego, co potwierdzają testy, w których zysk zaoszczędzonego czasu często nie był wart zachodu:

Sekwencyjne operacje są bowiem specyficzne i to bardzo specyficzne, ponieważ chociaż trąbi o nich każdy producent, to w rzeczywistości rzadko skorzystamy z pełni ich potencjału. Tak naprawdę dokonamy tego tylko w momencie, kiedy będziemy pracować na niewielu przepastnych plikach. Dlatego tak ważne są operację IOPS (Input/Output Operations Per Second), bo określają wydajność dysku w najczęstszych zadaniach, jakie mu rzucamy. Dlatego właśnie SSD Są szybsze od HDD (pamiętacie porównanie kontrolera i kości pamięci do głowicy i talerzy?

Jednak nie takie IOPSy proste, jak mogą się wydawać. Są z nimi bezpośrednio związane tak zwane Queue Deep (QD), czyli swoiste kolejki zadań, które układa sobie kontroler, kiedy zawalamy go zadaniami. Dlatego nie zdziwicie się, kiedy tuż obok operacji IOPS znajdziecie wzmiankę o parametrze QD. Nie popadajcie jednak w panikę przy ich licznych wariantach, bo tak naprawdę tutaj kluczowym jest QD1, podczas gdy QD4 jest po prostu ważnym. Nic dziwnego, bo jego przekroczenie i wzbicie się do poziomu QD8, QD32 i wreszcie QD64, to już zupełnie inna para kaloszy. Nawet dla tych, którzy pracują na plikach.

Jeśli jednak chodzi nawet o operacje IOPS, to nie szalejcie, jeśli nie wykonujecie na swoim sprzęcie specjalnie wymagających zadań. Co tu dużo mówić, obecnie na rynku znakomita większość markowych dysków SSD spełni wymagania każdego typowego użytkownika i to nawet w przypadku modeli na SATA. Te oferują już w większości operacje IOPS na poziomie ponad 100000 jednostek, które przekładają się na jakieś 30 MB/s odczytu.

Jeśli wydaje się Wam, że to niewiele, to jesteście w błędzie. To tak naprawdę bardzo dużo dla codziennych użytkowników komputera, bo pamiętajcie – mowa tutaj o szeregu niewielkich, często nawet kilobajtowych plików porozrzucanych po szeregu komórek pamięci.

Osobiście uważam jednak, że jeśli zależy Wam na czasie i akurat szukacie drugiego nośnika do swojego komputera, to dobrym wyjściem będzie zainwestowanie w ten na złącze M.2. Kilkadziesiąt złotych więcej w zamian za prędkości rzędu 3000 MB/s odczytu sekwencyjnego, często 1000 MB/s zapisu wraz z dwukrotnie wyższymi wynikami operacji IOPS można rzeczywiście poczuć na własnej skórze. Może nie w momencie, kiedy po prostu się gra, ale wtedy, kiedy żongluje plikami, a w tle pozostawia wiele aplikacji, do których często się powraca.

Nie dajcie się nabierać, czyli nabijanie we FLASHową butelkę

Tak jak w życiu nie ma nic za darmo, tak ceny dysków SSD nie spadły bez przyczyny, tak nisko. Jasne, optymalizacja produkcji oraz jej zwiększenie dorzuciło do tych spadków swoje trzy grosze, ale jedną z głównych przyczyn tego zjawiska był postęp technologiczny, a dokładniej mówiąc, opracowanie nowych rodzajów komórek w kościach pamięci.

Albowiem na początku były SLC… a to jest niczym innym jak skrótem od Single Level Cell. Komórki pamięci, która jest w stanie przechowywać tylko jednego bita (ten wraz z innymi tworzy dane). Jeśli jednak rzucicie okiem na obecne SSD, zauważycie tam komórki TLC i już nawet QLC, czyli takie, które mogą przechowywać w sobie nie jeden, a kolejno trzy i cztery bity.

Pomyślicie pewnie – “świetnie”, bo to dzięki temu w jednej kości pamięci z np. milionem komórek pamięci są ich wirtualne cztery miliony, ale wraz ze wzrostem pojemności, coś musi spaść. Jest tym z kolei nic innego jak wydajność i to nawet nie operacji IOPS, a sekwencyjnego odczytu i zapisu. Dlatego właśnie można posunąć się do stwierdzenia, że coraz częściej spotykane kości QLC sprawiły, że nasze dyski SSD stały się wolniejsze.

Producenci jednak wycwanili się na tyle, że trudno na pierwszy rzut oka zauważyć różnicę. Dlaczego? Wszystko sprowadza się do odpowiedniego zaprogramowania komórek pamięci tak, aby grały rolę swoistego bufora, będąc wprawdzie komórkami QLC, ale zachowując prędkości SLC.

To sprawia, że oficjalna specyfikacja wspomina o np. odczycie sekwencyjnym na poziomie 3000 MB/s, ale już pomija fakt, że przy pracy na kilkugigabajtowym pliku prędkość ta spadnie znacznie po kilku sekundach. Dokładnie wtedy, kiedy “przekonwertowane” komórki się wyczerpią (SLC), a do gry wejdą te pojemniejsze (TLC/QLC), a nie szybsze.