Naukowcy dają drugie życie płytom: nowy dysk optyczny zmieści tysiące razy więcej danych

Naukowcy dają drugie życie płytom: nowy dysk optyczny zmieści tysiące razy więcej danych
Oceń artykuł

Badacze z Uniwersytetu Chicagowskiego pracują nad zupełnie nowym typem nośnika optycznego, który rozmiarami przypomina klasyczny krążek, ale pod względem pojemności wyprzedza dzisiejsze płyty CD i DVD nawet tysiąckrotnie. W centrum tego pomysłu stoją kryształy magnezu, zjawiska kwantowe i bardzo sprytne wykorzystanie światła.

Od lasera w odtwarzaczu CD do kwantowych defektów

Tradycyjne płyty CD i DVD są ograniczone długością fali lasera, który zapisuje i odczytuje dane. Jedna wiązka, jedna długość fali, określona gęstość upakowania informacji. Naukowcy z Chicago postanowili obejść ten fizyczny limit, sięgając po materiały krystaliczne i zjawiska z pogranicza fizyki kwantowej.

W centrum ich koncepcji znajdują się kryształy tlenku magnezu (MgO) oraz tzw. emitery o wąskim paśmie. Te emitery zawierają pierwiastki ziem rzadkich, które potrafią generować niezwykle precyzyjne długości fali światła. Każdy taki „kolor” światła może przenosić swój zestaw informacji.

Nowa technologia ma potencjał upakować dane nawet do tysiąca razy gęściej niż obecne płyty optyczne, wykorzystując kontrolowane defekty w krysztale zamiast zwykłych „dołków” na powierzchni dysku.

Zamiast wiercić mikroskopijne rowki na powierzchni płyty, badacze chcą użyć tego, co dzisiaj uchodzi za wadę materiału: defektów w strukturze kryształu.

Czym są defekty kwantowe i dlaczego nadają się do zapisu danych

Defekty kwantowe to niewielkie „błędy” w idealnym układzie atomów. W tlenku magnezu takie zaburzenia mogą uwięzić niesparowane elektrony. Te z kolei wchodzą w interakcje ze światłem emitowanym przez sąsiednie pierwiastki ziem rzadkich.

Badacze opisują to w prosty sposób: emitery wysyłają fotony o bardzo konkretnej długości fali, a defekty w krysztale pochłaniają tę energię i „pamiętają” jej stan. W ten sposób każdy typ defektu i każdy rodzaj emitera może tworzyć osobny kanał zapisu.

Transport energii w skali nano

Zespół pod kierunkiem profesor Giulii Galli przeprowadził zaawansowane symulacje, pokazujące, jak energia wędruje pomiędzy emiterami a defektami w skali nanometrów. Taka analiza pozwoliła oszacować, ile informacji można zmieścić w jednym krysztale i jak szybko można je przenosić.

W typowych laserach stosowanych w nośnikach optycznych fotony mają długość od około 500 nanometrów do 1 mikrometra. Emitery o wąskim paśmie, nad którymi pracują naukowcy, generują znacznie „drobniejsze” fotony, a raczej – znacznie dokładniej kontrolowane długości fali. Dzięki temu na tej samej powierzchni da się upakować o wiele więcej „warstw” informacji.

Według obliczeń gęstość zapisu może być nawet tysiąc razy większa niż w dzisiejszych rozwiązaniach optycznych. Oznacza to np. tysiące filmów w jakości 4K na jednym krążku wielkości DVD.

Niewielki krążek, gigantyczna pojemność

Dla zwykłego użytkownika najłatwiej zobrazować tę technologię przez porównanie do domowej kolekcji filmów. Dziś na jednej płycie Blu-ray mieści się maksymalnie kilkadziesiąt gigabajtów danych. W nowym scenariuszu naukowców nośnik podobnej wielkości mógłby oferować pojemność liczona w dziesiątkach lub setkach terabajtów.

Takie parametry szczególnie kuszą branże, które generują gigantyczne ilości informacji:

  • Centra danych – możliwość archiwizacji w formie optycznej zamiast kolejnych rzędów twardych dysków.
  • Rozwój AI – modele sztucznej inteligencji potrzebują coraz większych zbiorów danych do trenowania.
  • Kino i streaming – przechowywanie kopii zapasowych filmów w wysokich rozdzielczościach i w wielu wersjach językowych.
  • Nauka i medycyna – bazy obrazów medycznych, dane z teleskopów, eksperymentów fizycznych czy genomiki.

Co istotne, dyski optyczne często cechuje wyższa trwałość niż typowe nośniki magnetyczne czy pamięci flash, zwłaszcza w zastosowaniach archiwizacyjnych. Połączenie wysokiej pojemności z odpornością na upływ czasu może wyraźnie zmienić sposób, w jaki instytucje i firmy planują przechowywanie danych na dekady.

Technologia obiecuje dużo, ale wymaga jeszcze wielu rozwiązań

Projekt z Chicago jest na razie na etapie badań podstawowych i symulacji. Zanim pojawi się prototyp przypominający znany nam dysk, naukowcy muszą poradzić sobie z kilkoma kluczowymi problemami.

Wyzwanie Na czym polega Dlaczego jest krytyczne
Czas przechowywania energii Ustalenie, jak długo defekty kwantowe utrzymują zapisany stan świetlny. Od tego zależy, czy nośnik nada się do długoterminowej archiwizacji.
Odczyt danych Opracowanie sposobu szybkiego i precyzyjnego „wyciągania” informacji z kryształu. Bez sprawnego odczytu ogromna pojemność nie ma sensu w praktyce.
Temperatura pracy Zapewnienie stabilności zjawisk kwantowych w temperaturze pokojowej. Schładzanie do okolic zera absolutnego wyklucza masowe, tanie zastosowania.
Produkcja masowa Skalowalne wytwarzanie kryształów z powtarzalnymi defektami. Bez przemysłowej powtarzalności trudno mówić o komercyjnym produkcie.

Badacze podkreślają, że samo zrozumienie przepływu energii pomiędzy emiterami a defektami to dopiero początek drogi. Zanim koncepcja zamieni się w urządzenie, trzeba odpowiedzieć na dziesiątki szczegółowych pytań: od geometrii kryształu, po integrację z układami laserowymi i elektroniką sterującą.

Temperatura – pięta achillesowa technologii kwantowych

Większość współczesnych rozwiązań opartych na zjawiskach kwantowych wymaga ekstremalnie niskich temperatur. Komputery kwantowe działają zwykle w kilku milikelwinach powyżej zera absolutnego. To wymaga ogromnych, drogich lodówek i precyzyjnych systemów kontroli.

Zespół z Chicago celuje w coś znacznie bardziej przyziemnego: pracę w temperaturze pokojowej. To bardzo wysoka poprzeczka, bo ciepło sprzyja tzw. dekoherencji, czyli utracie delikatnych stanów kwantowych, które niosą informację.

Jeśli konstruktorzy znajdą sposób na stabilne działanie kryształów pamięci w zwykłych warunkach, droga do wdrożenia w serwerowniach czy archiwach stanie się realna, a koszty eksploatacji spadną o rząd wielkości.

To właśnie wymóg chłodzenia jest jednym z powodów, dla których wiele obiecujących rozwiązań kwantowych pozostaje w sferze laboratoriów. Pamięć optyczna oparta na kryształach magnezu może stać się jednym z pierwszych przypadków, gdzie mechanika kwantowa na serio trafi do infrastruktury IT.

Co ta technologia może zmienić w praktyce

Jeśli projekt doczeka się dojrzałej formy, centra danych mogłyby zacząć wyglądać zupełnie inaczej. Zamiast hal wypełnionych tysiącami twardych dysków część archiwów mogłaby trafić na gęste nośniki optyczne. Takie dyski, przechowywane w automatycznych bibliotekach, zużywałyby mniej energii i wymagały rzadszej wymiany.

Dla branży filmowej i gamingowej oznaczałoby to możliwość przechowywania ogromnych bibliotek w jednym miejscu fizycznym. Serwisy streamingowe mogłyby utrzymywać więcej wersji materiałów w najwyższej możliwej jakości, bez dramatycznego rozrostu serwerowni.

Jest też wymiar bardziej przyziemny: koszt. Im więcej danych da się upchnąć na jednostce powierzchni, tym niższy – w perspektywie – staje się koszt przechowywania jednego gigabajta. W dłuższej skali może to przełożyć się na tańsze przechowywanie chmur publicznych, a w konsekwencji na niższe ceny usług dla użytkowników i firm.

Dlaczego warto śledzić rozwój nowych nośników danych

Pamięć masowa to fundament całej gospodarki cyfrowej. Rozwój AI, komputerów, telefonów czy gier zwykle trafia na nagłówki, ale bez miejsca na dane żaden z tych segmentów nie ruszy z miejsca. Z tego powodu przełomy w technologiach zapisu – nawet jeśli brzmią abstrakcyjnie – prędzej czy później wpływają na codzienne korzystanie z sieci.

W przypadku pamięci optycznych opartych na defektach kwantowych widać ciekawy kierunek: hybrydę „starego” nośnika, jakim jest krążek, z ultra nowoczesną fizyką materiałów. Zamiast porzucać znane formaty, naukowcy próbują nadać im radykalnie nowe możliwości, sięgając po narzędzia z laboratoriów fizyki kwantowej.

Dla zwykłego użytkownika oznacza to raczej nie powrót do domowych odtwarzaczy CD na półce, lecz cichą rewolucję w serwerowniach i archiwach. Jej skutki będziemy odczuwać w tle: w stabilniejszych usługach chmurowych, coraz wyższej jakości wideo w streamingu czy szybszym dostępie do danych treningowych dla kolejnych generacji AI.

Prawdopodobnie można pominąć