OpenAI cofa się po burzy wokół umowy z Pentagonem. Użytkownicy masowo kasują ChatGPT
Po naciskach i odpływie użytkowników firma zmienia świeżo podpisaną umowę z Pentagonem.
Kilka dni wystarczyło, by z biznesowego sukcesu zrobić kryzys wizerunkowy. Porozumienie, które miało otworzyć przed OpenAI drzwi do wielkich rządowych kontraktów w USA, wywołało gwałtowne reakcje użytkowników, organizacji eksperckich i konkurencji. W centrum sporu znalazło się pytanie: jak daleko firmy technologiczne mogą iść w współpracy z wojskiem przy rozwoju AI.
Umowa z Pentagonem i fala odinstalowań ChatGPT
OpenAI podpisało z amerykańskim resortem obrony porozumienie, w ramach którego technologie firmy – w tym ChatGPT – mają wspierać zadania związane z obronnością. Szczegóły nie są publiczne, ale z przecieków wynika, że chodzi głównie o analizę ogromnych zbiorów danych, od zdjęć satelitarnych po raporty wywiadu.
W normalnych warunkach byłaby to zwykła informacja biznesowa. Tym razem zadziałał efekt domina. Gdy tylko informacja wypłynęła, serwisy analityczne zarejestrowały skokowy wzrost odinstalowań aplikacji ChatGPT.
Według danych Sensor Tower liczba dziennych deinstalacji ChatGPT zwiększyła się aż o 295% w porównaniu z typowym poziomem po ogłoszeniu porozumienia z Pentagonem.
W mediach społecznościowych szybko pojawiły się zarzuty, że OpenAI zdradza własne deklaracje o odpowiedzialnym rozwoju AI. Wpisy krytykujące firmę zbierały setki tysięcy wyświetleń, a część użytkowników ogłaszała przejście do konkurencyjnych usług.
Anthropic mówi „nie” – czerwone linie w sprawie broni autonomicznych
Tłem całej historii jest wcześniejsza odmowa innej firmy z branży. Anthropic, twórca modelu Claude, odrzucił podobne propozycje Pentagonu. Dla tej spółki nieprzekraczalne są dwie kwestie: brak zgody na tworzenie w pełni autonomicznej broni oraz zakaz wykorzystania AI do masowej inwigilacji ludności.
Według źródeł zbliżonych do negocjacji administracja rządowa w USA naciskała na szersze zastosowania militarne – od przetwarzania danych wywiadowczych po wsparcie systemów, które w praktyce skracałyby czas między wykryciem celu a użyciem siły. Anthropic postawił twarde warunki, odmawiając udziału w łańcuchu decyzyjnym, w którym ostatnie słowo nie należy do człowieka.
Taka postawa miała koszt: firma wypadła z listy preferowanych wykonawców przy kontraktach rządowych. Według doniesień została wręcz zablokowana dla części zamówień publicznych związanych z obronnością.
Anthropic wprost deklaruje, że nie pozwoli, by Claude wspierał systemy, gdzie maszyna może zadecydować o użyciu siły bez kontroli człowieka ani by służył do stałego monitorowania własnych obywateli.
Mimo oficjalnego „zamrożenia” współpracy, amerykańskie media donoszą, że Claude nadal bywa używany w analizach dotyczących napięć w regionie Iranu. Pentagon nie komentuje tych rewelacji, co tylko zwiększa podejrzenia i niejasności.
OpenAI pod ostrzałem – krok w tył po weekendzie krytyki
Decyzja OpenAI, by przyjąć warunki odrzucone przez konkurenta, wywołała w branży AI szok. Dodatkowo sytuację zaogniła komunikacja firmy. Sam Altman ogłosił, że umowa OpenAI ma więcej zabezpieczeń niż wcześniejsze propozycje i że w praktyce jest „bezpieczniejsza” niż to, co odrzucił jego rywal. Dla wielu obserwatorów zabrzmiało to jak próba wykorzystania „moralnego” wyboru Anthropic do własnych korzyści.
Po weekendzie pełnym krytyki Altman przyznał publicznie, że cała akcja była zbyt pospieszna. Napisał, że komunikat wysłany w piątek sprawiał wrażenie zagrania czysto oportunistycznego i że firma stara się „odkręcić” sytuację, zanim skutki będą nieodwracalne.
Szef OpenAI przyznał, że sposób ogłoszenia umowy wyglądał na pośpieszny i źle przemyślany, a stawka sprawy jest dużo większa niż zwykły kontrakt technologiczny.
W odpowiedzi na presję opinii publicznej OpenAI zmieniło kluczowe zapisy porozumienia. Nowa wersja ma zawierać wyraźny zakaz wykorzystywania systemów firmy do celowego monitorowania obywateli USA. Dodatkowo agencje wywiadowcze, w tym NSA, nie mogą już swobodnie korzystać z modeli OpenAI bez osobnej, z góry zatwierdzonej umowy.
Eksplozja popularności Claude, spadek ChatGPT
Na kryzysie wizerunkowym OpenAI zyskuje Anthropic. Claude zaczął piąć się w rankingach pobrań tak szybko, że w kilka dni po ogłoszeniu kontrowersyjnej współpracy OpenAI z Pentagonem aplikacja Anthropic wskoczyła na szczyt zestawienia w App Store.
Według danych widocznych publicznie w sklepie Apple, Claude utrzymał pierwsze miejsce przez kolejne dni, podczas gdy ChatGPT notował realny odpływ użytkowników. Amerykańskie media opisują tę sytuację wprost: użytkownicy głosują instalacjami i odinstalowaniami na to, które firmy lepiej dbają o etykę.
- Claude trafia na pierwsze miejsce w App Store w kategorii aplikacji AI.
- ChatGPT notuje skokowy wzrost odinstalowań tuż po ujawnieniu umowy z Pentagonem.
- W sieci pojawiają się hashtagi wzywające do bojkotu usług OpenAI.
W mediach społecznościowych popularność zdobywają tagi CancelChatGPT i QuitGPT, które wprost zachęcają do rezygnacji z produktów OpenAI. To miękki, ale dotkliwy rodzaj presji – firmy z sektora konsumenckiej technologii żyją z zaufania użytkowników, a jego utrata może być groźniejsza niż sam zakaz pojedynczego kontraktu.
Rosnący nacisk na regulacje militarnego zastosowania AI
Cała historia szybko przeniosła się z poziomu sporów firm technologicznych do dyskusji politycznej w Stanach Zjednoczonych. Think tank Center for American Progress zwraca uwagę, że spór Pentagon – Anthropic, a potem błyskawiczne porozumienie z OpenAI, pokazują, jak bardzo brakuje jasnych zasad dotyczących wojskowego wykorzystania AI.
Analitycy z Waszyngtonu podkreślają, że granic użycia sztucznej inteligencji w armii nie mogą ustalać wyłącznie prywatne spółki, kierujące się presją inwestorów i rynku.
Ekspertka z Uniwersytetu Oksfordzkiego, Mariarosaria Taddeo, wskazuje, że „wycięcie” Anthropic z gry zabiera przy stole rozmów jednego z najbardziej ostrożnych i wrażliwych na kwestie bezpieczeństwa graczy. Według niej taka sytuacja grozi tym, że standardy w praktyce będą pisały przedsiębiorstwa, które są bardziej skłonne iść na kompromisy z resortami obrony.
Do dyskusji dochodzi jeszcze inny czynnik: ograniczenia samych modeli językowych. Specjaliści przypominają, że generatywna AI czasem „halucynuje”, czyli tworzy przekonujące, ale nieprawdziwe odpowiedzi. W środowisku militarnym, gdzie decyzje mogą dotyczyć życia i śmierci, taki margines błędu jest szczególnie niebezpieczny.
Oficer odpowiedzialna za dane w ramach Task Force Maven, programu analizującego obrazy dla NATO, zapewnia, że w obecnych systemach człowiek pozostaje w pętli decyzyjnej. Maszyna może sugerować wnioski, ale nie wydaje rozkazów. Krytycy odpowiadają, że presja na automatyzację będzie rosła, a raz wdrożone narzędzia łatwo przesuwają granice stosowania.
Dlaczego użytkownicy reagują tak emocjonalnie?
Dla wielu osób AI to już nie tylko kolejna aplikacja, ale narzędzie używane codziennie do pracy, nauki czy twórczości. Gdy taka technologia zaczyna być otwarcie łączona z projektami militarnymi, pojawia się poczucie współodpowiedzialności. Korzystasz z narzędzia, które pośrednio może trafiać do systemów obronnych – nie każdy chce mieć takie skojarzenie.
Dochodzi do tego dłuższa historia napięć wokół platform technologicznych i rządów. Po aferach związanych z inwigilacją, skandalami dotyczącymi wycieków danych czy wpływania na wybory, zaufanie do „big tech” jest wyraźnie nadwyrężone. Każdy ruch w stronę ściślejszej współpracy z resortami obrony natychmiast uruchamia obawy o przejrzystość i granice użycia zebranych danych.
Co z tego wynika dla zwykłych użytkowników AI?
Ta historia pokazuje, że etyka w AI nie jest wyłącznie akademicką dyskusją. Decyzje podejmowane w salach konferencyjnych w San Francisco czy Waszyngtonie bezpośrednio wpływają na to, jakie aplikacje masz na telefonie i do czego mogą zostać wykorzystane dane, które im powierzasz.
Dla użytkowników oznacza to kilka prostych, ale praktycznych wniosków:
- warto śledzić, z kim współpracują dostawcy narzędzi AI – nie tylko jakie mają funkcje,
- dobrze jest znać deklarowane zasady etyczne wybranej platformy i sprawdzać, czy firma faktycznie ich przestrzega,
- łatwość zmiany usług (np. ChatGPT na Claude) staje się realną dźwignią nacisku na dostawców,
- presja społeczna może wymuszać korekty kontraktów, tak jak w przypadku zmiany umowy OpenAI.
Spór o militarne zastosowania AI dopiero nabiera tempa i w kolejnych miesiącach najpewniej przeniesie się także do Europy. Każda kolejna głośna umowa między firmami AI a armią będzie testem nie tylko dla polityków i regulatorów, lecz także dla samych użytkowników, którzy coraz częściej pokazują, że potrafią wyrażać sprzeciw jednym ruchem – przyciskiem „odinstaluj”.


