CD wraca w nowej odsłonie: naukowcy upychają dane tysiąc razy gęściej
Klasyczne płyty dawno wypadły z łask, ale naukowcy właśnie znaleźli sposób, by optyczny nośnik danych narodził się na nowo.
Nie chodzi o kosmetyczne odświeżenie starej technologii, tylko o zupełnie nowy sposób zapisu informacji w kryształach, nad którym pracuje zespół z Uniwersytetu Chicagowskiego. Według badaczy taki „superdysk” mógłby zmieścić nawet tysiąc razy więcej danych niż dzisiejsze płyty czy typowe napędy optyczne.
Dlaczego klasyczny CD już nie wystarcza
Standardowe płyty CD i DVD doszły do granicy tego, co pozwala im fizyka światła. Ilość danych, jaką można zapisać na krążku, ogranicza długość fali lasera, który wypala lub odczytuje maleńkie „dołki” na powierzchni nośnika. Im krótsza fala, tym mniejsze mogą być elementy struktury zapisu.
Przez lata branża próbowała tę granicę przesuwać – stąd przejście z CD na DVD, a potem na Blu-ray. Każdy krok wprowadzał krótszą długość fali lasera i gęstsze upakowanie danych, ale korzyści szybko zaczęły maleć. W pewnym momencie nie da się już po prostu „zmniejszyć lasera” w nieskończoność.
Naukowcy z Chicago podeszli więc do problemu inaczej. Zamiast ścigać się na kolejne kolory lasera, zaproponowali zmianę samego nośnika i sposobu, w jaki materiał reaguje na światło.
Nowy nośnik: kryształy magnezu i wąskopasmowe emitery
W centrum ich koncepcji stoi kryształ tlenku magnezu (MgO) oraz tzw. emitery o wąskim paśmie. Te emitery powstają z domieszek pierwiastków ziem rzadkich w materiale i wytwarzają bardzo precyzyjnie określone długości fal świetlnych.
Nowy system korzysta z niezwykle małych, dokładnie dobranych fotonów, co pozwala upakować informację nawet tysiąc razy gęściej niż w obecnych napędach optycznych.
Kluczowy pomysł polega na połączeniu tych emiterów z tzw. defektami kwantowymi w krysztale. Defekty to drobniutkie „skazy” w uporządkowanej strukturze materiału – brakujący atom, obce domieszki lub inne zniekształcenie sieci krystalicznej. W skali atomowej takie miejsca zachowują się jak pułapki dla elektronów i energii.
Emitery wysyłają bardzo wąskie widmowo fotony, a defekty kwantowe potrafią tę energię pochłaniać i „przechowywać”. Naukowcy przebadali więc, jak energia wędruje pomiędzy emiterami a defektami w mikroskopijnej odległości. To właśnie ten transfer ma stać się podstawą nowego typu zapisu optycznego.
Co to są defekty kwantowe w prostych słowach
W idealnym krysztale każdy atom ma swoje miejsce. W praktyce pojawiają się przerwy i obce domieszki. Dla fizyków to nie wada, ale ogromna szansa. W takich miejscach powstają stany kwantowe, które można pobudzić światłem, a potem odczytać – podobnie jak komórkę pamięci.
- Defekt punktowy – węzeł sieci, w którym brakuje atomu lub pojawia się inny pierwiastek.
- Elektrony uwięzione – w takim miejscu łatwo „uwięzić” elektron o określonej energii.
- Reakcja na światło – defekt może pochłonąć foton, zmienić swój stan, a później oddać tę energię przy odczycie.
W nowej koncepcji każdy taki defekt mógłby przechowywać konkretną porcję informacji, kodowaną przez energię i kolor światła emitowanego przez sąsiadujące centra emisyjne.
Tysiąckrotnie większa gęstość zapisu
Dzisiejsze lasery używane w napędach optycznych posługują się fotonami o długości fali rzędu 500 nanometrów do 1 mikrometra. Foton nowego typu emitera jest znacznie „mniejszy” w sensie efektywnego obszaru, na którym oddziałuje z materiałem.
Zespół z Uniwersytetu Chicagowskiego szacuje, że dzięki defektom kwantowym i wąskopasmowym emiterom można stworzyć nośnik o gęstości danych nawet tysiąc razy wyższej niż w obecnych płytach optycznych.
W praktyce oznaczałoby to, że krążek zbliżony rozmiarem do klasycznego DVD czy Blu-ray mógłby pomieścić:
| Typ nośnika | Przybliżona pojemność |
|---|---|
| Standardowy CD | 0,7 GB |
| Typowy Blu-ray | 25–50 GB |
| Projektowany nośnik kwantowo-optyczny | do kilku–kilkunastu TB |
Taka pojemność wystarczyłaby na przechowywanie tysięcy filmów w wysokiej rozdzielczości na jednym dysku, albo ogromnych zestawów danych treningowych dla systemów AI w formie fizycznego archiwum.
Największe przeszkody: czas przechowywania i temperatura
Choć liczby robią wrażenie, projekt jest na bardzo wczesnym etapie. Zespół badawczy na razie pokazał, że energia może w kontrolowany sposób przepływać między emiterami a defektami. Trzeba jeszcze odpowiedzieć na szereg bardzo konkretnych pytań technologicznych.
Jak długo defekt „pamięta” zapisane dane
Najważniejsza kwestia brzmi: na jak długo taki defekt kwantowy potrafi zatrzymać energię, zanim ta się rozproszy. Dla użytkownika ma znaczenie, czy nośnik zachowa dane przez godziny, dni, czy lata. Jeśli stan zapisany w materiale zanika zbyt szybko, zastosowanie w archiwizacji danych staje się nierealne.
Badacze muszą więc zbadać stabilność tych stanów przy różnych warunkach pracy i znaleźć sposób, by możliwie maksymalnie wydłużyć czas przechowywania informacji.
Problem temperatury i decoherencji
Drugi duży temat to temperatura. Większość obecnych technologii kwantowych, takich jak komputery kwantowe czy zaawansowane detektory, wymaga pracy blisko zera absolutnego. Tylko w tak ekstremalnie zimnym otoczeniu delikatne stany kwantowe nie ulegają zbyt szybko zniszczeniu poprzez kontakt z otoczeniem – zjawisko to nazywa się decoherencją.
Celem zespołu jest zbudowanie nośnika, który będzie działał w zwykłych warunkach pokojowych, bez skomplikowanej kriogeniki i wyrafinowanego chłodzenia.
Jeśli uda się uzyskać stabilne defekty kwantowe w temperaturze zbliżonej do tej, jaką mamy w biurze czy serwerowni, otworzy to drogę do rzeczywistych zastosowań. W przeciwnym razie technologia pozostanie ciekawostką laboratoryjną.
Gdzie taki „superdysk” miałby największy sens
Potencjalnych odbiorców jest sporo, ale kilku graczy zyskałoby najwięcej. Nowy typ nośnika może kompletnie przemodelować sposób, w jaki myślimy o archiwizacji gigantycznych ilości danych.
- Centra danych – możliwość upakowania wielu terabajtów na jednym dysku zmniejsza powierzchnię potrzebną na archiwa i ogranicza koszty energii.
- AI i big data – modele uczenia maszynowego potrzebują ogromnych zestawów danych, które trzeba gdzieś trwale przechowywać.
- Branża filmowa i streaming – studia mogłyby archiwizować pełne katalogi wideo w jeszcze wyższej rozdzielczości bez konieczności utrzymywania tysięcy dysków twardych.
- Instytucje publiczne – archiwa państwowe, medyczne, naukowe chętnie sięgną po nośnik, który łączy dużą pojemność z odpornością na upływ czasu.
Dla zwykłego użytkownika taki nośnik mógłby przypominać klasyczny dysk optyczny, choć napęd i cały system kodowania danych wyglądałyby zupełnie inaczej niż w przypadku CD czy Blu-ray.
Dlaczego fizyka kwantowa tak dobrze pasuje do przechowywania danych
Mechanika kwantowa często kojarzy się z egzotycznymi zjawiskami z laboratoriów, ale jej zalety idealnie wpisują się w potrzeby branży pamięci masowych. Stany kwantowe można bardzo precyzyjnie kontrolować, a pojedynczy „nośnik informacji” może mieć rozmiar pojedynczego atomu lub grupy kilku atomów.
Jeśli naukowcy nauczą się seryjnie wytwarzać kryształy z kontrolowanymi defektami i domieszkami, powstanie możliwość gęstego zapisu w trójwymiarowej strukturze materiału, a nie tylko na powierzchni, jak w tradycyjnych płytach.
Dodatkowo ten typ pamięci może łączyć się z innymi rozwiązaniami kwantowymi – choćby z fotonicznymi procesorami czy sieciami kwantowymi. Wtedy nośnik stałby się częścią większego ekosystemu, w którym dane powstają, są przetwarzane i trafiają do archiwów bez konieczności przełączania się na „klasyczne” formaty.
Na jakim etapie jest praca nad nową płytą
Opisany system pozostaje konstrukcją badawczą, opracowaną i opisaną na łamach czasopisma naukowego. Naukowcy przeprowadzili szczegółowe symulacje i eksperymenty na poziomie materiału, a nie gotowego produktu dla konsumentów.
Przed nimi prace nad skalowaniem całej technologii: trzeba będzie pokazać, że da się wytworzyć duże, jednorodne kryształy z odpowiednio rozmieszczonymi defektami, opracować metodę masowego zapisu i odczytu oraz stworzyć kontrolery, które przetłumaczą złożone stany kwantowe na zwykłe zera i jedynki.
Wymaga to współpracy fizyków, inżynierów materiałowych i specjalistów od pamięci masowych. Ten etap zwykle zajmuje lata, ale to właśnie na nim rozstrzyga się, czy koncepcja z laboratorium za kilka sezonów trafi do serwerowni i sklepów.
Co ta technologia może zmienić dla zwykłego użytkownika
Dla przeciętnego odbiorcy najciekawsza jest perspektywa znacznie tańszego, trwalszego i bardziej kompaktowego archiwum danych. Nawet jeśli nowa generacja nośników przez długi czas pozostanie domeną serwerowni i instytucji, z czasem skorzystają także użytkownicy domowi, choćby pośrednio – przez tańsze usługi chmurowe, szybsze platformy streamingowe czy nowe formy dystrybucji treści.
Warto też pamiętać, że przechowywanie danych to ogromny koszt energetyczny dla całej branży IT. Nośnik, który łączy gęsty zapis z wysoką trwałością i niewielkim poborem energii w trakcie „bezczynnego” przechowywania, może realnie zmniejszyć ślad węglowy cyfrowej infrastruktury. Im mniej wirujących dysków twardych, tym mniejsze zużycie prądu tylko po to, by dane „leżały i czekały”.
Dla młodszych czytelników, którzy znają płyty głównie z memów i filmów, nowa technologia może być pewnym zaskoczeniem: fizyczny nośnik znów zaczyna brzmieć sensownie. Jeśli prace się powiodą, za kilka–kilkanaście lat krążek wielkości dobrze znanego CD może stać się jednym z najpotężniejszych magazynów danych w historii elektroniki.


