OpenAI zmienia umowę z Pentagonem po fali kasowania ChatGPT

OpenAI zmienia umowę z Pentagonem po fali kasowania ChatGPT
Oceń artykuł

Po ogłoszeniu współpracy OpenAI z Pentagonem użytkownicy masowo kasują ChatGPT z telefonów, a konkurencyjny Claude wskakuje na szczyt App Store.

W kilka dni cała branża AI zobaczyła, jak bardzo temat wojskowego wykorzystania sztucznej inteligencji potrafi rozzłościć użytkowników. OpenAI najpierw podpisało umowę z amerykańskim resortem obrony, a potem w pośpiechu ją poprawiało, gdy statystyki dezinstalacji ChatGPT wystrzeliły o prawie 300 procent.

Odważne „nie” Anthropic i gniew Pentagonu

Cała historia zaczęła się od firmy Anthropic, twórcy modelu Claude, która miała na stole podobną propozycję współpracy. Pentagon chciał włączyć ich AI w systemy analizujące w czasie rzeczywistym ogromne ilości danych – od zdjęć satelitarnych po raporty wywiadu – by przyspieszyć decyzje na polu walki.

Anthropic postawił jednak dwie bardzo twarde granice etyczne. Po pierwsze, Claude nie może wspierać tworzenia w pełni autonomicznych systemów uzbrojenia, czyli takich, gdzie maszyna ostatecznie decyduje o użyciu siły. Po drugie, model nie ma brać udziału w masowej inwigilacji zwykłych obywateli na terenie USA.

Te warunki okazały się z punktu widzenia wojska nie do przyjęcia. Według doniesień, administracja Donalda Trumpa wpisała Anthropic na czarną listę podmiotów pozbawionych dostępu do kontraktów rządowych. Firma zyskała wizerunek „uporczywie etycznej”, ale straciła potencjalnie lukratywny rynek.

Anthropic zgodził się na współpracę z wojskiem tylko tam, gdzie człowiek ma realną kontrolę nad decyzją końcową i gdzie brak elementu masowej inwigilacji.

Sytuację dodatkowo komplikuje fakt, że według źródeł medialnych Claude i tak bywa używany w operacjach związanych z napięciami między USA, Izraelem a Iranem, mimo formalnego zablokowania firmy w procesach przetargowych. Pentagon nie komentuje tych doniesień, co zostawia sporo pytań bez odpowiedzi.

OpenAI podpisuje to, czego Anthropic nie chciał

Gdy Anthropic odmawia, do gry wchodzi OpenAI. W piątek dochodzi do podpisania umowy, która – w praktyce – wypełnia lukę po konkurencie. ChatGPT ma trafić do zastosowań obronnych, a szczegóły kontraktu pozostają częściowo niejawne.

Sam Altman, szef OpenAI, publikuje kolejnego dnia komunikat, w którym twierdzi, że wynegocjowane zabezpieczenia są rzekomo bardziej rygorystyczne niż te, na które gotów był pójść Anthropic. Ten przekaz ma bronić firmy, ale w odbiorze wielu osób wygląda jak próba skorzystania na „zasadniczości” rywala.

Reakcja użytkowników jest błyskawiczna. Dane firmy Sensor Tower pokazują, że średni dzienny poziom dezinstalacji aplikacji ChatGPT rośnie o 295 procent względem typowego poziomu. W mediach społecznościowych pojawiają się oskarżenia o zdradę deklarowanych wartości i sprzedanie się wojskowym kontraktom.

W ciągu kilku dni ChatGPT z symbolu „odpowiedzialnej AI” w oczach wielu stał się narzędziem kojarzonym z machiną wojskową.

Altman w poniedziałek wychodzi z rolą „winnego, który przyznaje się do błędu”. Publicznie stwierdza, że komunikacja była pośpieszna i nieprzemyślana, a całość wyglądała na działanie czysto oportunistyczne. Zapowiada też korekty w umowie z resortem obrony.

Co konkretnie OpenAI obiecało poprawić

Pod presją opinii publicznej i rosnącego bojkotu OpenAI wprowadza do kontraktu kilka bardzo konkretnych zapisów. Najważniejsze z nich dotyczą nadzoru nad obywatelami USA i dostępu służb specjalnych do modeli.

  • wyraźny zakaz świadomego wykorzystywania systemów OpenAI do monitorowania mieszkańców Stanów Zjednoczonych,
  • blokada automatycznego dostępu dla agencji wywiadowczych – takich jak NSA – bez odrębnej, jawnie uzgodnionej zmiany umowy,
  • deklaracja, że AI ma wspierać analityków, a nie zastępować człowieka w decydowaniu o użyciu siły.

To częściowe zbliżenie do podejścia Anthropic, ale różnica jest widoczna: Anthropic wolał zrezygnować z kontraktów, zamiast uginać się przed oczekiwaniami Pentagonu. OpenAI wolał dopisać ograniczenia i utrzymać współpracę.

Dlaczego wojsku tak zależy na AI

W tle tej historii stoi szersza wizja nowoczesnych sił zbrojnych. Platformy tworzone m.in. przez firmę Palantir już teraz integrują dane z wielu źródeł – sensorów, dronów, satelitów, raportów wywiadu – i prezentują je dowódcom w formie gotowych rekomendacji.

Według przedstawicieli tej branży takie systemy umożliwiają:

Cel użycia AI Korzyść dla wojska
Szybsza analiza danych Krótszy czas reakcji na zagrożenie
Łączenie wielu źródeł informacji Lepszy obraz sytuacji operacyjnej
Modelowanie scenariuszy Planowanie działań z wyprzedzeniem
Automatyczna detekcja celów Większa skuteczność, ale też wyższe ryzyko błędów

Tutaj pojawia się kluczowe napięcie: generatywna AI bywa omylna, miewa „halucynacje” i potrafi tworzyć fałszywe informacje z pełnym przekonaniem. W zastosowaniach cywilnych kończy się to co najwyżej kompromitującą odpowiedzią w czacie. Na polu walki oznaczałoby to śmierć przypadkowych osób.

ChatGPT traci, Claude rośnie jak na drożdżach

Medialna burza przyniosła natychmiastowy efekt rynkowy. Gdy użytkownicy kasują aplikację ChatGPT, wielu z nich szuka alternatywy. Naturalnym wyborem okazuje się właśnie Claude – model, którego producent poszedł na zwarcie z Pentagonem.

Z danych App Store wynika, że aplikacja Anthropic w sobotę wskoczyła na pierwsze miejsce rankingów pobrań i trzyma się tam co najmniej do czwartku. Amerykańskie media piszą, że Claude wyprzedza ChatGPT pod względem nowych instalacji, co jeszcze kilka tygodni temu wydawało się mało realne.

W sieci rusza zorganizowana kampania nacisku na OpenAI. Popularne stają się hashtagi CancelChatGPT i QuitGPT, zachęcające do trwałego odejścia od produktów firmy, dopóki będzie ona współpracować z resortem obrony. Niektóre środowiska aktywistów traktują to jako test, czy presja użytkowników potrafi realnie zmienić zachowanie gigantów AI.

Kryzys wizerunkowy OpenAI w praktyce zbudował dla Anthropic darmową kampanię marketingową opartą na jednym haśle: „my się nie ugięliśmy”.

Politycy budzą się do działania

Na całe zamieszanie szybko reagują think tanki i eksperci od polityki technologicznej. Center for American Progress wprost pisze, że spór Pentagonu z Anthropic, a później umowa z OpenAI, to sygnał dla Kongresu, by wreszcie zajął się regulacjami wykorzystania AI przez wojsko.

W opinii tej organizacji prywatne firmy nie powinny w pojedynkę wyznaczać granic etycznych – bo zawsze będą pod presją zysków i udziałów w rynku. Podobnie mówi Mariarosaria Taddeo z Uniwersytetu Oksfordzkiego, wskazując, że „wypychanie” z rozmów najbardziej ostrożnego gracza, jakim jest Anthropic, osłabia bezpieczeństwo całego ekosystemu.

Przedstawiciele wojskowi próbują uspokajać obawy. Oficerowie odpowiedzialni za projekty AI w ramach NATO podkreślają, że w aktualnych systemach człowiek formalnie zawsze pozostaje w pętli decyzyjnej. Tyle że im bardziej zaawansowana i „pewna siebie” jest AI, tym trudniej psychologicznie zakwestionować jej rekomendację, zwłaszcza w stresie i pod presją czasu.

Dlaczego ta historia powinna obchodzić też zwykłych użytkowników AI

Dla przeciętnego użytkownika ChatGPT czy Claude ta wojskowa układanka może brzmieć jak coś bardzo odległego. Tymczasem decyzje podejmowane dziś w Waszyngtonie i Dolinie Krzemowej bezpośrednio przełożą się na to, jakich funkcji będą używać aplikacje w telefonach za kilka lat.

Jeśli modele językowe zostaną „wychowane” na danych z operacji wojskowych, mogą lepiej rozumieć analizy strategiczne, ale też nabyć uprzedzenia typowe dla tej branży. Jeżeli zaś prywatne firmy będą widzieć, że kontrakty obronne są odporniejsze na bojkot niż subskrypcje konsumentów, łatwiej wybiorą bezpieczeństwo finansowe zamiast etycznych ograniczeń.

Dla użytkowników w Polsce to dobry moment, by przyjrzeć się, jakie warunki wpisują do swoich regulaminów firmy oferujące AI również u nas. Czy jasno określają, z kim współpracują? Czy deklarują granice dotyczące inwigilacji i zastosowań militarnych? Presja rynku nie zastąpi prawa, ale pokazuje korporacjom, że reputacja stała się realną walutą.

Coraz częściej widać też napięcie między szybkością innowacji a stabilnością i bezpieczeństwem. Modele generatywne rozwijają się w zawrotnym tempie, lecz ich skłonność do halucynacji w zastosowaniach wojskowych, medycznych czy finansowych może mieć dramatyczne konsekwencje. Granica między „asystentem” a „współdecydentem” zaczyna się zacierać – i to właśnie teraz trwa spór o to, po której stronie tej linii powinna zatrzymać się AI.

Prawdopodobnie można pominąć