Przetwarzanie danych osobowych

Nasza witryna korzysta z plików cookies

Wykorzystujemy pliki cookie do spersonalizowania treści i reklam, aby oferować funkcje społecznościowe i analizować ruch w naszej witrynie, a także do prawidłowego działania i wygodniejszej obsługi. Informacje o tym, jak korzystasz z naszej witryny, udostępniamy partnerom społecznościowym, reklamowym i analitycznym. Partnerzy mogą połączyć te informacje z innymi danymi otrzymanymi od Ciebie lub uzyskanymi podczas korzystania z ich usług i innych witryn.

Masz możliwość zmiany preferencji dotyczących ciasteczek w swojej przeglądarce internetowej. Jeśli więc nie wyrażasz zgody na zapisywanie przez nas plików cookies w twoim urządzeniu zmień ustawienia swojej przeglądarki, lub opuść naszą witrynę.

Jeżeli nie zmienisz tych ustawień i będziesz nadal korzystał z naszej witryny, będziemy przetwarzać Twoje dane zgodnie z naszą Polityką Prywatności. W dokumencie tym znajdziesz też więcej informacji na temat ustawień przeglądarki i sposobu przetwarzania twoich danych przez naszych partnerów społecznościowych, reklamowych i analitycznych.

Zgodę na wykorzystywanie przez nas plików cookies możesz cofnąć w dowolnym momencie.

Optyczne.pl

Artykuły

Dysk SSD dla fotografa

Dysk SSD dla fotografa
16 października 2015

1. Trochę historii, trochę teorii

Kupując laptopa czy zestaw komputerowy często zwracamy uwagę na parametry procesora, ilość pamięci RAM i pojemność dysku twardego. Chcąc jednak dokonać świadomego wyboru sprzętu komputerowego dla miłośnika fotografii, musimy pamiętać, że pojemność dysku to nie wszystko. To, czy na komputerze będzie nam się komfortowo pracowało, zależy również od szybkości działania tego dysku.

Jak to się zaczęło

W pierwszej połowie lat pięćdziesiątych ubiegłego wieku nie było takiego problemu, bowiem nieliczne wtedy komputery bazowały na zupełnie innym nośniku pamięci – papierowych kartach perforowanych. W roku 1956 nastąpiła prawdziwa rewolucja, bowiem firma IBM zaprezentowała wówczas pierwszy dysk twardy, który został oznaczony symbolem 350 RAMAC. W jego przypadku największym zmartwieniem były rozmiary, waga i cena, a szybkość działania odeszła na drugi, albo nawet trzeci plan.

Dysk SSD dla fotografa - Trochę historii, trochę teorii
Komputer IBM 305 z zamontowanymi dwoma dyskami IBM 350 RAMAC – to te szafy po lewej stronie. Źródło: Wikipedia

IBM 350 RAMAC mógł pochwalić się oszałamiającą pojemnością 3.75 MB ważył 910 kilogramów i zajmował kubaturę wynoszącą 1.9 m. Jego cena była równie oszałamiająca, co rozmiary, bowiem za dysk trzeba było zapłacić ok. 35 000 USD, co 60 lat temu było kwotą bajońską.

Pierwszy dysk zbudowany był na bazie 50 talerzy o średnicy 24 cali i posiadających w sumie 100 powierzchni do przechowywania danych. Talerze obracały się z prędkością 1200 obrotów na minutę, a na każdym z nich umieszczono po 200 ścieżek z danymi (po 100 na stronę). Do zapisywania danych służyła para głowic, która sterowana była przez serwomechanizm i poruszała się góra-dół w celu ustawienia przy odpowiednim talerzu oraz na boki w celu wyboru odpowiedniej ścieżki. Sam serwomechanizm nie był zbyt szybki, co skutkowało czasem dostępu do danych wynoszącym aż 600 milisekund, czyli nieco więcej niż pół sekundy.

Zasada działania tradycyjnego dysku twardego

Co ciekawe, współczesne dyski HDD (Hard Disk Drive) działają na podobnej zasadzie co IBM 350. Mimo upływu niemal 60 lat wciąż znajdziemy w nich obracające się talerze i głowice odpowiedzialne za zapis i odczyt danych. Obecnie w dyskach wykorzystuje się jeden lub kilka talerzy wykonanych z aluminium i pokrytych materiałem magnetycznym z dwóch stron (dwie powierzchnie do przechowywania danych). Każdy z talerzy jest wyposażony w zestaw 4 głowic elektromagnetycznych – po dwie na każdą powierzchnię, pierwsza odpowiada za zapis, druga za odczyt. Ramiona głowic są sterowane za pomocą cewki, która pozwala na precyzyjne ustawienie głowicy nad powierzchnią talerza.

----- R E K L A M A -----

OFERTA BLACK FRIDAY

Canon 28-70/2 RF L USM

10999 zł 9899 zł

Dysk SSD dla fotografa - Trochę historii, trochę teorii
Schemat budowy dysku twardego. Źródło: Wikipedia

Gdy ramię ustawi się w odpowiedniej pozycji, zapis danych odbywa się poprzez przesłanie strumienia elektromagnetycznego przez głowicę zapisującą, która jest bardzo blisko magnetycznie polaryzowalnego materiału, czyli talerza. Miejsce, nad którym znajduje się głowica zmienia swoją polaryzację magnetyczną wraz ze strumieniem indukcji magnetycznej. Zapisana informacja (polaryzacja odpowiadająca zeru lub jedynce) może być z powrotem odczytana w odwrotny sposób, gdyż zmienne pole magnetyczne powoduje indukowanie napięcia elektrycznego w cewce głowicy odczytującej lub zmianę oporu w głowicy magnetyczno-oporowej.


Dysk twardy podczas pracy

Na przestrzeni 60 lat inżynierom udało się na tyle udoskonalić technologie wykorzystywane w dyskach twardych, że ich pojemność wzrosła do 8 TB (terabajtów) czyli ponad 2 miliony razy, rozmiary i wagę udało zredukować się do rzędu centymetrów i gramów, cenę (w przeliczeniu na megabajt) zmniejszono aż 300 milionów razy, a upakowanie danych na powierzchni talerza wzrosło aż 400 milionów razy. Niestety ciągle największym problemem są poruszające się głowice. Stosując nawet najnowocześniejsze mechanizmy wciąż potrzeba kilku lub kilkunastu milisekund, aby ustawić je na żądanej pozycji i odczytać dane. Widzimy więc, że choć inne parametry dysków udało nam się poprawić tysiące bądź miliony razy, to czas dostępu jedynie uległ skróceniu zaledwie 100-krotnie. Co najgorsze, z tym parametrem już niewiele da się zrobić i obecnie jest to największa bolączka tradycyjnych dysków twardych.

Nadchodzi SSD

Na szczęście z pomocą przyszły nowe technologie, które pozwoliły wyeliminować przestarzałe talerze z dysków twardych. W 1991 roku firma SanDisk zaprezentowała pierwszy 20-megabajtowy dysk SSD, czyli Solid-State Drive. Ciężko znaleźć polski odpowiednik dla tego określenia. Chcąc tłumaczyć to dosłownie otrzymamy „dysk w stanie stałym”, jednak osoba wymyślająca tę nazwę miała prawdopodobnie na uwadze fakt, że wszystkie elementy zastosowane w dysku SSD są nieruchome. W dysku SSD jako nośnik informacji wykorzystuje się bowiem pamięć typu flash znaną z używanych przez nas kart pamięci, czy pendrajwów. Półprzewodnikowe kości pamięci zostały tu połączone z kontrolerem zarządzającym procesem zapisu i odczytu danych, a z pomocą przychodzi odpowiedni bufor, który usprawnia ten proces. Ot cała filozofia dysków SSD.

Dysk SSD dla fotografa - Trochę historii, trochę teorii
We wnętrzu dysku SSD nie znajdziemy już głowic i talerzy, ani innych elementów ruchomych

Dzięki takiemu rozwiązaniu udało się wyeliminować duże i ciężkie talerze oraz cały mechanizm sterowania głowicami wraz z samymi głowicami. Chcąc odwołać się do odpowiedniej komórki pamięci wystarczy podać jej adres, by odczytać zawarte w niej informacje. Nie musimy tracić czasu na ustawienie głowicy w odpowiedniej pozycji, co pozwoliło zredukować czas dostępu to kilkunastu mikrosekund, a więc tysiąckrotnie.

Nic więc dziwnego, że zapisywanie i odczytywanie danych z dysków SSD może odbywać się dużo szybciej niż w przypadku tradycyjnego dysku twardego i bez problemów możemy osiągnąć tutaj prędkości na poziomie 500–550 MB/s, a także znacznie większe, co w porównaniu do 150–200 MB/s osiąganych w zwykłych dyskach jest znacznym postępem.

Oprócz dużo większej szybkości zapisu i odczytu danych, dyski SSD posiadają kilka innych zalet. Przed wszystkim są odporne na uszkodzenia mechaniczne. Tradycyjny dysk HDD po upadku w zasadzie nie nadawał się do użycia, gdyż mechanizm sterujący ramionami głowic jest bardzo podatny na uszkodzenia i nawet najmniejszy wstrząs potrafił go rozregulować. Z dyskami SSD nie ma takiego problemu, o czym przekonał się niemal każdy kto upuścił np. kartę pamięci lub pendrive. Zapewne do dziś działają one bez problemów. Brak ruchomych części i obracających się talerzy to także spory zysk w poborze mocy i obniżenie temperatury pracy. W rezultacie dyski SSD nie grzeją się, pobierają mniej prądu, a do tego pracują bezgłośnie.

Skoro dyski SSD są panaceum na całe zło związane z przechowywaniem danych, to dlaczego pojawiły się na rynku tak późno? Przecież pamięci półprzewodnikowe były znane już w latach pięćdziesiątych ubiegłego wieku. Największą przeszkodą w rozwoju dysków SSD od zawsze była cena pamięci półprzewodnikowych. Nawet dziś w przeliczeniu na 1 MB dyski SSD są około 10-krotnie droższe od tradycyjnych HDD. Jeszcze kilka lat temu ich cena była na tyle zaporowa, że sprzedaż stanowiła tylko niewielki promil w globalnym rynku dysków twardych, co z pewnością nie napędzało działów R&D w dużych firmach. Obecnie zakup dysku SSD o pojemności 100–300 GB w cenie kilkuset złotych nie stanowi problemu i z tego też powodu coraz częściej goszczą one w naszych komputerach.

W ostatnich latach znacznie dopracowano również żywotność pamięci półprzewodnikowych. W latach 90-tych ubiegłego wieku wytrzymywały one tylko około 10 000 cykli zapisu, co znacząco ograniczało żywotność dysku i dodatkowo nie zachęcało do zakupu. Obecne kości potrafią wytrzymać nawet milion takich cykli, a dodatkowo producenci na tyle udoskonalili kontrolery, że dbają one o to, aby cykle zapisu obywały się równomiernie na wszystkich komórkach pamięci. Dzięki temu unikamy sytuacji, w której po roku użytkowania dysku jedna z komórek ma za sobą 10 000 cykli zapisu, a inna ani jednego.Szczególnie mocno wytrzymałość dysków SSD akcentuje producent marki SanDisk, gwarantując że użytkownik po dłuższym czasie użytkowania dysku nie odczuje spadku jego wydajności.

Skoro jesteśmy przy temacie żywotności komórek pamięci półprzewodnikowych, to warto wspomnieć o jeszcze jednej zalecie dysków SSD. W przypadku uszkodzenia takiej komórki wciąż możemy odczytywać z niej dane, lecz już nic nowego w niej nie zapiszemy. Dzięki temu unikamy problemu, który dotyczy tzw. „bad sektorów” w tradycyjnych dyskach talerzowych. Poza tym podczas formatowania dysku taka komórka zostanie oznaczona jako uszkodzona i nie będzie więcej wykorzystywana przez kontroler.

Brak głowic w dysku SSD implikuje jeszcze jedną przewagę nad HDD. Jak wiemy, tradycyjne dyski twarde zmniejszają swoją wydajność wraz z ich zapełnianiem. Jest to spowodowane tym, że pliki zazwyczaj nie są zapisane w sąsiednich sektorach na talerzach, a często są rozdzielane na wiele fragmentów, a każdy z nich znajduje się w innej grupie sektorów, czyli w innym miejscy na talerzu. W rezultacie chcąc odczytać taki dysk głowica musi przeskakiwać z miejsca w miejsce, co spowalnia proces odczytywania danych. Gdy dysk jest mocno zapełniony, kolejne zapisywane pliki są coraz bardziej rozdzielane, a poszczególne fragmenty coraz bardziej „rozrzucane” po powierzchni talerza. Z tego też powodu, im więcej danych znajduje się na HDD, tym wolniej są one odczytywane. W takim przypadku pomaga defragmentacja, czyli proces polegający na takim przesuwaniu poszczególnych części plików w obrębie dysku, aby znajdowały się one w swoim sąsiedztwie. Przyspiesza to proces odczytu, lecz niestety defragmentacja, choć pomocna, to jest czasochłonna, a do tego jej efektywność spada wraz z zapełnianiem się dysku. W przypadku SSD problem ten w ogóle nie istnieje. Kontroler nawet specjalnie rozrzuca fragmenty plików na różne kości pamięci, gdyż odczytywanie trwa szybciej, gdy odbywa się z kilku układów jednocześnie. Zatem nawet mocno zapełniony dysk SSD nie straci nic na swojej wydajności, a jakby tego było mało nie musimy przeprowadzać mozolnej defragmentacji.

Obniżenie cen produkcji pamięci flash i zwiększenie ich żywotności sprawiło, że dyski SSD stały się kuszącą alternatywą dla tradycyjnych HDD. Choć mając na uwadze ich pojemność wciąż są znacznie droższe od swoich odpowiedników w ofercie HDD, to wymienione tu zalety sprawiają, że technologia ta zdobywa ogromną popularność. Czy zatem miłośnik fotografii powinien rozważyć zastosowanie dysku SSD w swoim komputerze? Na to pytanie odpowiemy w kolejnym rozdziale.



Poprzedni rozdział