Reklama

Granica pojemności

Dziś, dyski twarde osiągają już pojemność ponad 100 GB. Inżynierom udaje się "upakować" coraz więcej danych na jednostce powierzchni nośnika magnetycznego, ale za kilka lat obecna technologia stanie jednak przed barierą dalszego rozwoju...

Publikacja: 25.01.2002 08:40

Pierwsze dyski twarde pojawiły się na rynku w latach 60. Symboliczną barierę pojemności 1 gigabajta przekroczono w latach 80. Był to dysk IBM 33380 - miał wielkość lodówki i kosztował 40 tys. USD. W połowie lat 90. dyski gigabajtowe miały już standardowy rozmiar 3,5 cala i trafiły do komputerów PC. Najnowsze dyski do komputerów PC osiągają już pojemność 50-70 GB, przy zachowaniu tych samych rozmiarów. Oznacza to, że na powierzchni dysku zapisywanych jest coraz więcej danych.

Pod koniec lat 90. gęstość upakowania danych na dysku przypadająca na cal kwadratowy wzrasta, co rok dwukrotnie. Obecnie osiąga ona około 20 gigabitów na cal kwadratowy. Ten rekord osiągnięto w miniaturowym dysku IBM Microdrive o pojemności 1 GB. Urządzenie to zapisuje dane na talerzu wielkości małej monety. Microdrive jest używany w urządzeniach konsumenckich - kamerach cyfrowych i odtwarzaczach MP3. Także dyski do komputerów klasy desktop są technologicznymi majstersztykami. Np. dyski o pojemności 40 GB do komputerów PC mają upakowane około 10 gigabitów na calu kwadratowym nośnika magnetycznego. Taka gęstość zapisu pozwala na produkowanie urządzeń o coraz większej pojemności. Już za cztery lata na rynek mają trafić dyski do pecetów o pojemności 250 GB, a miniaturowe "konsumenckie" napędy Microdrive osiągną pojemność 3 GB.

Głód danych

Wzrastają także pojemności pamięci masowych używane w dużych systemach - np. serwerach Unix i klasy mainframe. Jednak w tym wypadku kwestia gęstości zapisu nie jest aż tak istotna, jak w wypadku urządzeń desktop, notebooków i produktów konsumenckich, gdzie pojemny podsystem pamięci masowej musi być "zamknięty" w postaci jednego małego urządzenia (najczęściej rozmiar 3,5 lub 2,5 cala). Duże systemy korzystają z macierzy dyskowych - urządzeń zbudowanych z kilku lub nawet kilkudziesięciu twardych dysków.

Największe macierze dostępne na rynku mają pojemność 11 TB, a w tym roku mają pojawić się konstrukcje o pojemności 20 TB.

Reklama
Reklama

Komu potrzebne są tak duże pamięci masowe? Korzystają z nich firmy internetowe, np. portale, centra outsourcingowe, banki, firmy ubezpieczeniowe, operatorzy telekomunikacyjni. Także w Polsce są już firmy, które mają systemy macierzy dyskowej o pojemności wielu terabajtów. Warto zwrócić także uwagę na szybkość odczytu danych z macierzy dyskowych. Stosowane obecnie interfejsy, np. Fibre Chanel, osiągają przepustowość do 450 MB/s.

Ciekawostką jest, że macierze dyskowe stosowane w dużych systemach uniksowych czy mainframe, nie wykorzystują dysków twardych, w których zastosowane są najnowsze rozwiązania technologiczne, np. dużej gęstości zapisu czy najwyższych prędkości obrotowych. Tego rodzaju rozwiązania stosowane są najpierw w dyskach dla komputerów PC - desktopów i notebooków, dopiero kiedy zostaną dobrze przyjęte przez rynek, trafiają do systemów uniksowych, od których oczekuje się najwyższej niezawodności.

Blisko bariery

Apetyt użytkowników na pojemność dysków twardych rośnie, tymczasem naukowcy ostrzegają, że za kilka lat mogą się skończyć możliwości udoskonalania obecnej technologii. Upakowanie danych na jednostkę powierzchni osiąga w produktach komercyjnych 20 gigabitów na cal, jak we wspomnianych Microdrive. W laboratoriach testowane są już konstrukcje o gęstości zapisu 35,3 Gb na cal kwadratowy. Od czasu skonstruowania pierwszego dysku twardego gęstość zapisu danych wzrosła 8,5 miliona razy! Czy parametr ten można zwiększać w nieskończoność?

Barierą okaże się tzw. efekt superparamagnetyczny, który nie pozwala na zapis więcej niż 100-150 gigabitów na calu kwadratowym nośnika. Skutkiem efektu superparamagnetycznego jest to, że obszarów dysku, które reprezentują logiczne 0 lub 1, nie da się miniaturyzować w nieskończoność - obecnie mają one długość około 0,05 mikrometra. Przy długości 10 nanometrów efekt da o sobie znać. Chodzi o to, że przy tak małym obszarze, na którym głowice miałyby zapisać poszczególne bity informacji, cząsteczki nośnika po próbie zapisu nie utrzymują stabilnych właściwości magnetycznych. Powstaje ryzyko wystąpienia dużej liczby błędów, niedopuszczalnej w pamięciach masowych.

Według szacunków IBM, efekt superparamagnetyczny może postawić barierę rozwoju technologii około roku 2010. Już teraz producenci muszą stosować rozmaite wyrafinowane technologie związane z miniaturyzacją i wzrostem gęstości zapisu. Modyfikowane są materiały magnetyczne, którymi pokryte są talerze dysków, wprowadzane są nowe konstrukcje głowic, np. tzw. giant magnetoresistant.

Reklama
Reklama

Problem bariery technologicznej, jaki stawia efekt superparamagnetyczny, dotyczy głównie dysków, które będą przeznaczone do komputerów typu desktop, notebooków i urządzeń powszechnego użytku. Klienci spodziewają się większej pojemności, a nie zwiększania wielkości i masy urządzenia. Takich oczekiwań nie mają użytkownicy macierzy dyskowych stosowanych w dużych systemach. W tego typu konstrukcjach można używać więcej dysków tworzących macierz lub w razie konieczności po prostu dostawiać kolejne urządzenia. Większa liczba dysków w macierzy jest nawet o tyle korzystniejsza, że zwiększa wydajność systemu.

Użytkownicy komputerów PC mają jednak powody do niepokoju. Może się okazać, że za kilka lat pojemność dysków nie będzie tak szybko rosła, jak jest to teraz, a ceny nie będą wcale tak prędko spadać. Można się niestety obawiać, że fenomen ostatnich lat - coraz tańsze i pojemniejsze dyski - staną się przeszłością.

Na szczęście naukowcy pracują już nad zupełnie nowymi rozwiązaniami urządzeń pamięci masowych. Coraz częściej mówi się o możliwości skonstruowania tzw. dysków holograficznych, które przekroczą barierę gęstości zapisu 100 Gb na cal kwadratowy. Są to konstrukcje oparte na technologii optycznej - zapis i odczyt odbywa się przy użyciu lasera. Pierwsze dyski będą miały pojemność nie mniejszą niż 1 terabajt, a część ekspertów twierdzi, że nowe urządzenia zmieszczą nawet 10 terabajtów.

Gospodarka
Na świecie zaczyna brakować srebra
Patronat Rzeczpospolitej
W Warszawie odbyło się XVIII Forum Rynku Spożywczego i Handlu
Gospodarka
Wzrost wydatków publicznych Polski jest najwyższy w regionie
Gospodarka
Odpowiedzialny biznes musi się transformować
Gospodarka
Hazard w Finlandii. Dlaczego państwowy monopol się nie sprawdził?
Gospodarka
Wspieramy bezpieczeństwo w cyberprzestrzeni
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama