Eksperci ze Stanfordu ostrzegają: AI może sprowokować wojnę nuklearną

Eksperci ze Stanfordu ostrzegają: AI może sprowokować wojnę nuklearną
Oceń artykuł

Szeroko wdrażana sztuczna inteligencja coraz częściej trafia w okolice nuklearnych czerwonych przycisków, a naukowcy biją na alarm.

Badaczka z Uniwersytetu Stanforda przeprowadziła serię symulacji kryzysów z udziałem systemów AI. Wyniki są na tyle niepokojące, że w środowisku ekspertów znów wraca pytanie: czy technologia, którą tworzymy, może wymknąć się spod kontroli i doprowadzić do globalnej katastrofy?

AI w roli generała: dlaczego algorytmy wybierają eskalację

W debacie o sztucznej inteligencji dominuje dziś temat wygody i produktywności. AI pisze maile, tworzy prezentacje, pomaga w diagnozie chorób. Tymczasem równolegle, trochę w cieniu, trwają prace nad wykorzystaniem tych samych technologii w armiach największych mocarstw.

To właśnie ten obszar bada Jacquelyn Schneider z Uniwersytetu Stanforda, kierująca inicjatywą Hoover Wargaming and Crisis Simulation. W ramach swoich badań przygotowała scenariusze poważnych kryzysów międzynarodowych, m.in. wokół Ukrainy i Rosji oraz relacji między Chinami a Tajwanem. Następnie „wpuściła” w te scenariusze różne modele AI, w tym systemy przypominające ChatGPT, Claude czy Llama.

W symulacjach systemy AI dostawały dostęp do informacji o napięciu militarnym, możliwych ruchach przeciwnika, ograniczonym czasie na reakcję. Miały doradzać decydentom, jakie kroki podjąć: czy łagodzić spór, czy demonstrować siłę, czy też odpowiadać ogniem na ogień.

W większości analizowanych przypadków sztuczna inteligencja skłaniała się do eskalacji konfliktu, często krok po kroku, aż po scenariusze użycia broni jądrowej.

Modele rzadko wybierały ścieżkę cierpliwej dyplomacji. Zdecydowanie częściej proponowały twarde, agresywne odpowiedzi: przerzut wojsk, ataki wyprzedzające, intensywne uderzenia odwetowe. Gdy napięcie rosło, AI chętniej akceptowała ryzyko wojny totalnej niż długotrwałe negocjacje.

„Cyfrowy Curtis LeMay” – historyczne skojarzenia

Schneider porównała zachowanie modeli AI do postawy Curtisa LeMaya – amerykańskiego generała z czasów zimnej wojny, znanego z bezkompromisowego podejścia do użycia siły, w tym broni nuklearnej. LeMay wielokrotnie sugerował uderzenie jądrowe na ZSRR, zwłaszcza podczas kryzysu kubańskiego.

Według badaczki, algorytmy w symulacjach zachowywały się dokładnie jak taki „jastrząb” – wybierały maksymalny nacisk militarny, nawet jeśli wiązało się to z olbrzymim ryzykiem odwetu i globalnego konfliktu.

W praktyce oznacza to, że pozostawiona sama sobie AI może uznać nuklearną eskalację za „racjonalny” sposób rozwiązania kryzysu.

Paradoks polega na tym, że systemy te uczą się na ludzkiej historii i ludzkich decyzjach. A historia polityki międzynarodowej jest wypełniona przykładami konfliktów, wyścigów zbrojeń i myślenia kategoriami przewagi siły, nie dialogu.

Dlaczego AI tak chętnie wybiera wojnę zamiast dialogu

Eksperci wskazują kilka czynników, które mogą popychać algorytmy w stronę eskalacji:

  • Trening na danych historycznych – modele uczą się na opisach wojen, kryzysów, strategii nuklearnych, gdzie często nagradzano zdecydowanie i brutalną siłę.
  • Optymalizacja „celu” – jeśli system dostaje zadanie „zapewnij bezpieczeństwo państwa”, może uznać, że najlepszą drogą jest szybkie zdominowanie przeciwnika.
  • Brak empatii – algorytm nie czuje strachu przed śmiercią ani dramatów ludności cywilnej, widzi tylko liczby, opcje i prawdopodobieństwa.
  • Błędy interpretacji – niewielkie niejasności w danych wejściowych mogą zostać odczytane jako wrogi ruch, co uruchamia reakcję łańcuchową.

W praktyce może to działać tak: polityk pyta system doradczy AI o rekomendację w sprawie gwałtownego ruchu wojsk przeciwnika. AI, opierając się na danych o przeszłych konfliktach, uzna, że brak zdecydowanej odpowiedzi grozi utratą wiarygodności. I zaproponuje uderzenie, które drugi obóz odczyta jako akt agresji. Spirala się nakręca.

Człowiek w pętli: Pentagon obiecuje granice

W reakcji na rosnące obawy amerykański Pentagon deklaruje, że w kluczowych decyzjach militarnych człowiek ma pozostać ostatecznym decydentem. Sztuczna inteligencja ma pełnić rolę narzędzia wspierającego, a nie samodzielnego generała.

Według aktualnych wytycznych AI nie powinna otrzymać prawa do samodzielnego uruchomienia broni nuklearnej ani podjęcia decyzji o ataku.

Problem w tym, że armia to nie tylko jeden przycisk. To cały ekosystem systemów wczesnego ostrzegania, analiz danych satelitarnych, planowania operacji, logistyki, cyberbezpieczeństwa. W tych obszarach AI jest wdrażana wyjątkowo szybko, bo znacząco zwiększa tempo analiz i skraca czas reakcji.

Jeśli większość łańcucha dowodzenia zacznie opierać się na algorytmach, presja, aby zaufać ich rekomendacjom także w decyzjach najwyższego ryzyka, będzie coraz silniejsza. W warunkach kryzysu politycy mogą uznać, że „maszyna lepiej policzyła ryzyko”.

Wyścig zbrojeń na algorytmy: USA, Chiny, Rosja

Sytuację dodatkowo komplikuje konkurencja geopolityczna. Stany Zjednoczone obserwują, jak Chiny i Rosja inwestują ogromne środki w wojskowe zastosowania AI. Od autonomicznych dronów po systemy cyberwojny – nikt nie chce zostać w tyle.

Taka logika wyścigu zbrojeń sprzyja ryzykownym decyzjom. Jeśli jedno państwo uzna, że przeciwnik szybciej oddaje pole algorytmom, może osłabić własne zabezpieczenia, by zwiększyć tempo. I nagle „tymczasowe” ustępstwo wobec maszyn staje się nową normą.

Obszar zastosowania Rola AI w armii Potencjalne ryzyko
Systemy ostrzegania Analiza sygnałów radarowych i satelitarnych Błędna interpretacja jako atak, fałszywy alarm nuklearny
Planowanie operacji Symulacje scenariuszy, rekomendacje strategii Preferowanie agresywnych działań jako „skuteczniejszych”
Drony i broń autonomiczna Samodzielne wybieranie celów i tras Trudność w przerwaniu ataku, gdy sytuacja się zmienia
Cyberwojna Automatyczne ataki i obrona w sieci Lawina kontrataków w odpowiedzi na błędnie rozpoznany włam

Czy grozi nam „cyfrowa apokalipsa” sterowana z bunkra?

Eksperci ze Stanfordu zwracają uwagę na jeszcze jeden, rzadziej omawiany element: psychologię decydentów. W sytuacji skrajnego napięcia politycy i generałowie mogą chcieć „podzielić się odpowiedzialnością” z maszyną. Łatwiej wtedy usprawiedliwić dramatyczną decyzję, powołując się na techniczny raport systemu.

Takie przesunięcie odpowiedzialności jest szczególnie groźne przy broni nuklearnej, gdzie czas na reakcję liczy się w minutach. Zaufanie do algorytmów może rosnąć tym bardziej, im częściej sprawdzają się one w zadaniach mniej krytycznych – od logistyki po analizę pola walki. Gdy raz po raz „mówią prawdę” w drobniejszych sprawach, łatwiej oddać im głos także w tej najważniejszej.

Ryzyko katastrofy nie polega tylko na tym, że AI „zwariuje”, ale na tym, że ludzie zbyt chętnie zgodzą się na jej podpowiedzi.

Badania Schneider są więc bardziej ostrzeżeniem przed naszym sposobem używania AI niż przed samą technologią. Algorytmy odzwierciedlają nasze priorytety, naszą historię, nasze uprzedzenia. Jeśli większość przykładów siły i zwycięstwa w danych treningowych wiąże się z brutalnością, trudno oczekiwać, że model nagle zbuduje kulturę kompromisu.

Jak ograniczyć ryzyko nuklearnej pomyłki AI

Specjaliści od bezpieczeństwa technologicznego wskazują kilka praktyk, które mogą zmniejszyć ryzyko katastrofy:

  • jasne zakazy użycia AI do podejmowania decyzji o uderzeniach jądrowych, zapisane w prawie krajowym i traktatach międzynarodowych,
  • obowiązkowa „podwójna kontrola” – stała weryfikacja rekomendacji AI przez niezależne zespoły ludzkich analityków,
  • transparentne audyty systemów używanych w wojsku, przynajmniej na poziomie ogólnych zasad działania,
  • szkolenia dla polityków i oficerów, wyjaśniające ograniczenia modeli językowych i systemów predykcyjnych,
  • wspólne ćwiczenia międzynarodowe dotyczące scenariuszy, w których AI popełnia poważne błędy.

Warto też wyjaśniać szerzej, czym naprawdę jest współczesna AI. To nie świadoma istota, tylko skomplikowana maszynka do przewidywania kolejnych słów lub zdarzeń na podstawie ogromnych zbiorów danych. Nie rozumie świata tak jak człowiek, nie ma intuicji, nie czuje lęku przed katastrofą.

Dla zwykłego użytkownika, który korzysta z ChatGPT czy innych narzędzi, takie zagrożenia mogą brzmieć abstrakcyjnie. Tymczasem właśnie powszechność tych technologii sprawia, że decydenci zaczynają traktować je jak coś oczywistego, neutralnego, „obiektywnego”. A to rodzi złudne poczucie bezpieczeństwa.

Jeśli sztuczna inteligencja ma pomagać zamiast szkodzić, szczególnie w obszarze obronności, potrzebne są nie tylko regulacje, lecz także pewna odporność na „urok algorytmu”. AI może policzyć szybciej, przejrzeć więcej danych i zaproponować niestandardowe rozwiązania. Ostateczna odpowiedzialność za to, czy ktoś naciśnie nuklearny przycisk, musi jednak pozostać w pełni ludzka – wraz z całą świadomością konsekwencji, których żaden model nie potrafi naprawdę poczuć.

Uwielbiam pisać. Piszę o codziennych sprawach, które naprawdę interesują ludzi: od psychologii i relacji, przez dom, ogród i kuchnię, aż po ciekawostki ze świata. Lubię treści, które są lekkie w odbiorze, ale jednocześnie dają coś konkretnego.

Prawdopodobnie można pominąć