Przełom w oszczędzaniu prądu przez AI: nawet milion razy mniej energii
Rosnący apetyt AI na prąd zaczyna być problemem dla portfeli i dla klimatu, ale nowa chińska technika może wywrócić ten trend do góry nogami.
Naukowcy pokazali, że sieci neuronowe da się trenować radykalnie taniej energetycznie, jeśli połączy się nietypowy sprzęt z sprytnym algorytmem, który zamiast walczyć z błędami, uczy się z nimi żyć.
AI pożera energię jak kopalnia kryptowalut
Każdy, kto bawił się generowaniem obrazów czy korzysta z chatbotów, widzi tylko przyjazny interfejs. Za kulisami pracują jednak ogromne farmy serwerów, naszpikowane procesorami i układami graficznymi. Te maszyny zużywają gigantyczne ilości energii, głównie na trenowanie złożonych modeli, takich jak duże modele językowe.
Im bardziej rozbudowana sieć neuronowa, tym więcej obliczeń i przesyłania danych między pamięcią a procesorami. To właśnie te operacje powodują ogromne straty energii. Coraz częściej mówi się, że rozwój AI może stać się jednym z większych konsumentów prądu na świecie, na poziomie dużych gałęzi przemysłu.
Rozwiązanie problemu zużycia energii przez AI nie polega już tylko na optymalizacji kodu. Potrzebna jest zmiana podejścia do samego sprzętu i sposobu trenowania modeli.
Memrystory, czyli pamięć, która myśli na miejscu
Jednym z kierunków prac nad bardziej „zieloną” sztuczną inteligencją jest tzw. obliczanie w pamięci. Zamiast ciągle przerzucać dane między pamięcią a procesorem, część operacji wykonuje się bezpośrednio tam, gdzie dane są przechowywane. Kluczową rolę odgrywają tu memrystory.
Memrystor to specjalny element elektroniczny, który działa jak rezystor z pamięcią. Jego opór zależy od historii przepływającego prądu i może reprezentować wagi w sieci neuronowej. Dzięki temu jedna struktura pełni jednocześnie rolę pamięci i jednostki obliczeniowej.
- przechowuje informacje (wagi sieci neuronowej),
- umożliwia lokalne obliczenia bez wysyłania danych do procesora,
- może znacząco ograniczyć transfer danych, a więc i zużycie energii.
Brzmi idealnie, ale realne memrystory są dalekie od doskonałości. Wprowadzają szum, zachowują się niestabilnie, a każda operacja zapisu jest kosztowna energetycznie i skraca ich żywotność. Dlatego proste przeniesienie klasycznych metod trenowania sieci na taki sprzęt nie działa zadowalająco.
Nowe podejście: mniej poprawek, więcej tolerancji na błędy
Zespół z laboratorium w Zhejiang w Chinach zaproponował inną filozofię trenowania AI na memrystorach. Zamiast próbować wyeliminować wszelkie niedoskonałości, badacze zaprojektowali metodę, która świadomie je uwzględnia. Nazywają ją error-aware probabilistic update, czyli losową aktualizacją z uwzględnieniem błędów, w skrócie EaPU.
Sercem podejścia jest prosty pomysł: sieć nie próbuje korygować każdej minimalnej zmiany wagi. Jeżeli błąd mieści się w granicach tolerancji sprzętu, parametr pozostaje nietknięty. Dopiero większe rozbieżności uruchamiają proces aktualizacji.
Zamiast poprawiać prawie wszystkie wagi w każdej iteracji nauki, sieć aktualizuje mniej niż 0,1% parametrów. Mniej zapisów to mniej energii i dłuższa żywotność sprzętu.
Takie podejście ma kilka skutków:
- drastycznie maleje liczba operacji zapisu w memrystorach,
- zmniejsza się wpływ szumu, bo algorytm nie „goni” każdej przypadkowej fluktuacji,
- proces trenowania staje się stabilniejszy mimo niedoskonałego sprzętu.
Ile energii udało się zaoszczędzić?
Według opublikowanych wyników, samo trenowanie sieci neuronowych w architekturze opartej na memrystorach z użyciem EaPU wymaga nawet 50 razy mniej energii w porównaniu z wcześniejszymi metodami dedykowanymi takim układom.
To nie wszystko. Gdy porówna się ten schemat z klasycznym trenowaniem sieci na układach graficznych, różnica robi się wręcz ekstremalna. Badacze szacują, że całościowe zużycie energii da się zmniejszyć aż o sześć rzędów wielkości – czyli mniej więcej milion razy.
| Rozwiązanie | Zużycie energii (trening) | Precyzja modeli | Trwałość sprzętu |
|---|---|---|---|
| Klasyczne GPU | 100% | Wysoka | Standardowa |
| Memrystory bez EaPU | Niższe niż GPU, ale nadal wysokie | Znacznie gorsza | Ograniczona przez częste zapisy |
| Memrystory z EaPU | Około milion razy mniej niż GPU | Zbliżona do klasycznych superkomputerów | Nawet tysiąc razy dłuższa żywotność |
Metoda zwiększa także dokładność działania sieci aż o 60% względem wcześniejszych rozwiązań z memrystorami. Praktycznie zrównuje to wyniki z tymi osiąganymi na tradycyjnych superkomputerach, a więc bez kompromisu jakościowego.
Testy: od szumu w obrazach do wyostrzania szczegółów
Aby sprawdzić, czy to nie tylko teoria, zespół zbudował rzeczywistą matrycę memrystorów o rozmiarze 180 nanometrów. Na takim sprzęcie trenowano sieci odpowiedzialne za dwie wymagające zadania związane z obrazem:
- usuwanie szumu z fotografii,
- podnoszenie rozdzielczości, czyli tzw. super-resolucję.
W testach uzyskano efekty porównywalne z tradycyjnymi metodami, które korzystają z procesorów i układów graficznych. Różnica polegała na zupełnie innym profilu zużycia energii – sprzęt na memrystorach z EaPU potrzebował zdecydowanie mniej prądu.
Czy to szansa na bardziej „zielone” LLM-y?
Najgłośniej jest dziś o dużych modelach językowych, które stoją za chatbotami i generatorami tekstu. Ich trenowanie pochłania ogromne ilości energii i wymaga setek, a czasem tysięcy układów GPU pracujących równolegle. Nic dziwnego, że badacze zastanawiają się, czy EaPU da się przenieść właśnie na tę klasę modeli.
Autorzy pracy przyznają, że na razie ogranicza ich posiadany sprzęt. Matryca 180 nm to zaledwie mały fragment tego, co byłoby potrzebne do trenowania pełnowymiarowego LLM. Jednocześnie uważają, że sama koncepcja algorytmu i zarządzania błędami nie jest specyficzna dla jednego typu zadania.
Badacze zakładają, że to samo podejście można zastosować do dużych modeli językowych, o ile powstaną odpowiednio rozbudowane układy sprzętowe oparte na memrystorach lub pokrewnych technologiach.
Co ciekawe, EaPU nie jest ściśle przywiązana tylko do memrystorów. Zespół wskazuje, że podobny sposób probabilistycznej aktualizacji parametrów może działać także w innych rozwiązaniach pamięci nieulotnej, takich jak tranzystory ferroelektryczne czy pamięci magnetorezystywne.
Nowa generacja sprzętu dla AI
Jeśli takie techniki wyjdą poza laboratoria, może to wymusić powstanie zupełnie nowej klasy akceleratorów AI. Zamiast kolejnych generacji klasycznych GPU, część zadań przejmą wyspecjalizowane układy obliczeń w pamięci. Taki sprzęt może trafić nie tylko do centrów danych, ale też do urządzeń brzegowych – od inteligentnych kamer po sprzęt medyczny.
Wyobraźmy sobie system monitoringu, który na miejscu przetwarza obraz, rozpoznaje zdarzenia i potrzebuje ułamka energii dzisiejszych rozwiązań. Albo smartfon, który uruchamia lokalny model językowy bez dramatycznego drenażu baterii. To właśnie takie scenariusze mają szansę stać się realne, jeśli zużycie energii spadnie o rzędy wielkości.
Co to znaczy dla użytkowników i firm
Z punktu widzenia zwykłego użytkownika najważniejsze są dwa efekty: niższe koszty usług i mniejsze obciążenie środowiska. Mniej prądu w centrach danych to niższe rachunki operatorów, a więc większa szansa, że zaawansowane funkcje AI nie będą wymagały drogich abonamentów.
Dla firm wdrażających AI taki skok efektywności oznacza zupełnie nowe kalkulacje biznesowe. Trening własnego modelu przestaje być luksusem zarezerwowanym dla gigantów technologicznych. Gdy koszty energii spadają setki czy tysiące razy, na własne rozwiązania mogą pozwolić sobie mniejsze podmioty, w tym firmy z branż takich jak medycyna, przemysł czy logistyka.
Trzeba jednak pamiętać o jednej rzeczy: prawdziwa zmiana wymaga nie tylko nowych algorytmów, ale też masowej produkcji specjalistycznych układów pamięci. To długi proces, który wymaga inwestycji i czasu, podobnie jak kiedyś przejście od klasycznych procesorów do wyspecjalizowanych GPU dla grafiki i AI.
Dla osób śledzących rozwój technologii w Polsce ciekawa może być jeszcze jedna perspektywa. Temat efektywności energetycznej AI staje się coraz istotniejszy przy planowaniu nowych centrów danych i projektów badawczych. Uczelnie i firmy, które już dziś zaczną interesować się obliczeniami w pamięci i technikami tolerującymi błędy, zyskają przewagę, gdy takie rozwiązania wejdą do głównego nurtu.


