Przełom w oszczędzaniu energii: nowa metoda sprawia, że AI zużywa nawet milion razy mniej prądu
Trening dużych modeli AI pożera coraz więcej prądu, a rachunki za energię zaczynają przerażać nawet gigantów technologicznych.
Na tym tle pojawia się rozwiązanie z chińskiego laboratorium, które może mocno namieszać na rynku. Naukowcy pokazali sposób trenowania sieci neuronowych, dzięki któremu zużycie energii spada o rzędy wielkości, a sprzęt działa znacznie dłużej niż dziś.
AI ciągnie prąd jak mała elektrownia
Rozwój generatywnej AI, takich jak ChatGPT czy inne duże modele językowe, ma swoją ciemną stronę: gigantyczne zużycie energii. Tysiące kart graficznych w serwerowniach pracują bez przerwy, aby trenować i obsługiwać kolejne modele. To oznacza ogromne koszty, duży ślad węglowy i coraz większą presję na infrastrukturę energetyczną.
Firmy inwestują w farmy paneli słonecznych i kontrakty na zieloną energię, ale problem leży głębiej – w samej konstrukcji dzisiejszych komputerów. Obecna architektura opiera się na klasycznych procesorach i GPU, które nie zostały stworzone z myślą o ekstremalnie efektywnym energetycznie trenowaniu sieci neuronowych.
Według chińskiego zespołu badawczego, ich podejście może zmniejszyć zużycie energii przez systemy AI nawet około milion razy w porównaniu z klasycznymi rozwiązaniami opartymi na kartach graficznych.
Memrystor – mały element, duża zmiana w konstrukcji AI
Jednym z najbardziej obiecujących kierunków są tzw. memrystory. To specjalne elementy elektroniczne, które łączą funkcję opornika i pamięci. Oznacza to, że potrafią nie tylko przewodzić prąd z określonym oporem, ale też „zapamiętywać” ten stan.
W praktyce memrystor pozwala wykonywać obliczenia tam, gdzie przechowywane są dane – bez ciągłego przerzucania ich między pamięcią a procesorem. Ten ruch danych jest w klasycznych systemach jednym z najbardziej energochłonnych etapów pracy AI.
- W klasycznych GPU: dane lecą w kółko między pamięcią a rdzeniami obliczeniowymi.
- W układach z memrystorami: dane i obliczenia znajdują się w jednym miejscu.
Brzmi idealnie, ale rzeczywiste memrystory są dalekie od ideału. Występuje w nich sporo szumu i drobnych błędów, a każda operacja zapisu kosztuje stosunkowo dużo energii i przyspiesza zużywanie się elementów. Dlatego do tej pory nie udawało się w pełni wykorzystać ich potencjału w trenowaniu sieci neuronowych.
Nowa metoda: zamiast walczyć z błędami, AI uczy się z nimi żyć
Zespół badaczy z Zhejiang Lab w Chinach zaproponował świeże podejście. Zamiast próbować na siłę wyeliminować każdy błąd w memrystorach, zaprojektował algorytm treningu, który potrafi funkcjonować mimo tych niedoskonałości.
Metoda nosi nazwę EaPU, czyli error-aware probabilistic update – w wolnym tłumaczeniu probabilistyczne aktualizacje świadome błędów. W praktyce sprowadza się to do dwóch kluczowych zasad.
AI akceptuje drobne błędy
Po pierwsze, sieć neuronowa przestaje reagować na każdą minimalną zmianę. Jeśli różnica mieści się w tolerancji, system uznaje ją za „szum” i nie modyfikuje parametrów. Dzięki temu unika zbędnych zapisów w memrystorach, które są kosztowne energetycznie.
Aktualizuje się tylko ułamek parametrów
Po drugie, przy każdym kroku uczenia zmieniana jest zaledwie śladowa część wag sieci – mniej niż 0,1 procent. Reszta pozostaje nietknięta, bo algorytm ocenia, że ich aktualizacja nie przyniosłaby wystarczającego zysku w jakości modelu.
| Cecha treningu | Klasyczna metoda | Metoda EaPU |
|---|---|---|
| Odporność na drobne błędy sprzętu | Niska, wymaga wysokiej precyzji | Wysoka, drobne błędy są akceptowane |
| Odsetek aktualizowanych wag | Praktycznie wszystkie przy każdym kroku | Mniej niż 0,1% przy każdym kroku |
| Liczba operacji zapisu w memrystorach | Bardzo wysoka | Mocno ograniczona |
| Zużycie energii podczas treningu | Wysokie | Nawet 50 razy mniejsze niż w innych systemach z memrystorami |
Klucz tkwi w tym, że największy koszt energetyczny niesie ze sobą zapis w memrystorze. Jeśli ograniczymy liczbę zapisów, radykalnie spadają wydatki na energię i wydłuża się żywotność sprzętu.
Efekty: sprzęt żyje dłużej, a AI nie traci na jakości
Zastosowanie EaPU w układach z memrystorami przyniosło kilka mocnych rezultatów. Naukowcy podają, że:
- zużycie energii podczas treningu spadło 50-krotnie w porównaniu z wcześniejszymi metodami opartymi na memrystorach,
- oczekiwana żywotność urządzeń wzrosła nawet tysiąckrotnie, właśnie dzięki mniejszej liczbie zapisów,
- dokładność sieci poprawiła się o około 60 procent względem innych rozwiązań wykorzystujących memrystory, osiągając poziom typowy dla superkomputerów opartych na klasycznych układach.
Co szczególnie istotne z perspektywy gigantów chmurowych, badacze szacują, że w porównaniu z systemami treningowymi opartymi na kartach graficznych, zużycie energii może spaść aż o sześć rzędów wielkości. To oznacza różnicę rzędu miliona razy.
Próby na obrazach, ambicje sięgają dużych modeli językowych
Chiński zespół przetestował metodę EaPU na rzeczywistym sprzęcie: macierzy memrystorów o rozmiarze 180 nanometrów. Trenowane sieci neuronowe wykonywały zadania związane z obróbką obrazu, takie jak usuwanie szumu oraz podbijanie rozdzielczości zdjęć.
Efekt? Jakość rezultatów była bardzo zbliżona do tej, którą daje klasyczne trenowanie na GPU, za to pobór energii okazał się nieporównywalnie niższy. To pokazuje, że koncepcja działa nie tylko na papierze czy w symulacji, lecz także w układach fizycznych, ze wszystkimi ich niedoskonałościami.
Badacze przyznają, że ograniczeniem są na razie możliwości posiadanego sprzętu. Ich zdaniem ta sama metoda powinna się sprawdzić w przypadku dużych modeli językowych (LLM), takich jak stosowane w nowoczesnych chatbotach czy systemach tłumaczeniowych. Planują w przyszłości przeprowadzić takie testy na bardziej zaawansowanych układach.
Nie tylko memrystory: szersza zmiana w projektowaniu AI
Co ciekawe, EaPU nie jest ściśle przywiązana do jednego typu elementu elektronicznego. Zespół sugeruje, że podobne podejście da się zastosować także w innych technologiach pamięci nieulotnych, na przykład w tranzystorach ferroelektrycznych czy pamięci magnetorezystywnej.
Daje to szansę na całą rodzinę energooszczędnych akceleratorów AI. Różne firmy mogłyby używać innych materiałów i konstrukcji, ale opierać się na wspólnej filozofii: uczymy sieć neuronową tak, żeby nie marnowała energii na nadmiernie częste, drobne korekty.
Nowe podejście sugeruje zmianę myślenia: zamiast zaprojektować idealny, bezbłędny sprzęt, warto stworzyć algorytmy, które potrafią żyć z niedoskonałościami elektroniki.
Co to oznacza dla zwykłych użytkowników i rynku AI
Jeśli tego typu rozwiązania wejdą do masowej produkcji, mogą mocno zmienić rynek. Dla dostawców chmury oznacza to mniejsze rachunki za energię i chłodzenie, a więc większą opłacalność oferowania usług AI. Dla firm korzystających z modeli – szansę na tańsze trenowanie własnych systemów, bez konieczności budowania gigantycznej infrastruktury GPU.
Dla użytkowników końcowych przełoży się to prawdopodobnie na większą dostępność zaawansowanych funkcji AI, także w mniejszych firmach czy instytucjach publicznych. Modele mogą też częściej działać bliżej użytkownika, na serwerach brzegowych albo nawet w urządzeniach lokalnych, skoro ich energetyczne wymagania znacząco spadną.
Dlaczego oszczędna energetycznie AI staje się koniecznością
Prognozy mówią, że zapotrzebowanie na moc obliczeniową dla AI będzie rosnąć wykładniczo. Jeśli branża pozostanie przy dzisiejszej architekturze, serwerownie zaczną konkurować o energię z innymi sektorami gospodarki, takimi jak transport czy przemysł. To grozi wyższymi cenami prądu oraz presją regulacyjną.
Takie rozwiązania jak EaPU wpisują się w szeroki trend projektowania „zielonej” sztucznej inteligencji. Chodzi nie tylko o to, żeby modele były sprytniejsze, ale też bardziej odpowiedzialne energetycznie. Dzięki temu firmy będą mogły rozwijać AI bez ryzyka, że infrastruktura energetyczna nie nadąży, a regulatorzy zaczną wprowadzać restrykcyjne limity.
Przykładem praktycznego zastosowania może być branża medyczna. Szpitale i laboratoria często nie mają dostępu do ogromnych serwerowni, a jednocześnie potrzebują modeli przetwarzających obrazy z badań. Energooszczędne akceleratory oparte na memrystorach pozwoliłyby im lokalnie trenować i aktualizować modele bez nadmiernego obciążania budżetu i sieci energetycznej.
Dla użytkowników indywidualnych kierunek jest podobny: smartfony, laptopy czy domowe routery z dedykowanym, energooszczędnym układem AI mogłyby wykonywać bardziej zaawansowane zadania bez ciągłego wysyłania danych do chmury. To zmniejsza zużycie energii w centrach danych, ale także poprawia prywatność, bo mniej informacji opuszcza urządzenie.


