OpenAI modyfikuje umowę z Pentagonem po masowej fali deinstalacji ChatGPT
Partnerstwo OpenAI z Pentagonem wywołało tak silny opór użytkowników, że firma w pośpiechu przerabia zasady współpracy z armią USA.
Gdy OpenAI ogłosiło, że ChatGPT trafi do projektów Departamentu Obrony Stanów Zjednoczonych, reakcja była błyskawiczna i bolesna. Deinstalacje aplikacji wystrzeliły w górę, konkurencyjny Claude wskoczył na szczyt App Store, a Sam Altman musiał publicznie przyznać się do pochopnych decyzji i zobowiązać się do zmiany umowy z Pentagonem.
Jak doszło do kryzysu: Pentagon, Anthropic i linia, której nie chciano przekroczyć
Źródłem obecnej burzy była decyzja innego gracza z rynku AI. Anthropic, twórca modelu Claude, stanowczo odmówił Pentagonowi udziału w programach, które mogłyby prowadzić do budowy w pełni autonomicznej broni oraz systemów masowej inwigilacji.
Firma postawiła dwie twarde granice:
- żadnego udziału Claude’a w systemach, gdzie o użyciu siły decyduje wyłącznie algorytm, bez człowieka w ostatnim etapie;
- żadnego wsparcia dla szerokiej, wewnętrznej inwigilacji obywateli USA.
To wystarczyło, by administracja Trumpa wpisała Anthropic na czarną listę i odcięła spółkę od kontraktów rządowych. Mimo tego, według doniesień CBS News, technologie Anthropic wciąż mają pośrednio wspierać działania związane z konfliktem USA i Izraela z Iranem. Pentagon nie komentuje tych informacji, co tylko podsyca spekulacje.
Armia chce szybszych decyzji, firmy boją się konsekwencji
Departament Obrony szuka modeli, które wchłoną i przeanalizują gigantyczne ilości danych — od obrazów satelitarnych po raporty wywiadu — i pomogą szybciej podejmować decyzje na polu walki. Louis Mosley z Palantir, firmy już współpracującej z armią USA i NATO, opisuje takie systemy jako narzędzia do „szybszych, skuteczniejszych i bardziej śmiercionośnych” decyzji, gdy wymaga tego sytuacja bojowa.
Spór nie dotyczy samej obecności AI w wojsku, lecz granicy, po której przekroczeniu system zaczyna realnie kontrolować życie i śmierć ludzi poza ludzką kontrolą.
Anthropic nie chce służyć jako „mózg” takiej infrastruktury. Ten opór stworzył próżnię, którą bardzo szybko wypełniło OpenAI.
OpenAI przejmuje kontrakt, użytkownicy reagują deinstalacją
W piątek OpenAI podpisało z Pentagonem umowę, której wcześniej odmówiło Anthropic. Z punktu widzenia rynku wyglądało to jak czysta kalkulacja: konkurent wypada z gry, więc jest miejsce na lukratywny kontrakt.
Sam Altman próbował od razu przykryć krytykę komunikatem, że porozumienie z Departamentem Obrony zawiera więcej zabezpieczeń niż jakakolwiek wcześniejsza umowa w branży, włącznie z podejściem Anthropic. Ten przekaz obrócił się przeciwko niemu.
W sieci odebrano to jako próbę wykorzystania etycznej postawy konkurenta dla własnych zysków. Na efekt nie trzeba było długo czekać.
| Wydarzenie | Skutek |
|---|---|
| Ogłoszenie umowy OpenAI–Pentagon | Fala krytyki na platformach społecznościowych |
| Analiza Sensor Tower | Wzrost codziennych deinstalacji ChatGPT o 295% |
| Weekend po ogłoszeniu | Hashtagi #CancelChatGPT i #QuitGPT nabierają rozpędu |
Sensor Tower, firma badająca rynek aplikacji mobilnych, odnotowała, że średni dzienny poziom deinstalacji ChatGPT niemal potroił się w porównaniu z okresem sprzed ogłoszenia współpracy z wojskiem.
Altman przyznaje błąd, OpenAI cofa się krok w tył
Presja okazała się zbyt silna, by ją ignorować. W poniedziałek Sam Altman napisał na X (dawnym Twitterze), że popełnił błąd, forsując ogłoszenie umowy akurat w piątek i w takiej formie. Przyznał, że całość wyglądała „oportunistycznie i byle jak”, co wpisuje się w zarzut, że firma chciała skorzystać na ryzyku podjętym przez Anthropic.
OpenAI ogłosiło, że dopisuje do umowy z Pentagonem wyraźne ograniczenia: ich modele nie mają służyć do celowego śledzenia obywateli USA ani do niekontrolowanego dostępu dla służb wywiadowczych.
Według nowej deklaracji, agencje takie jak NSA nie mogą swobodnie podłączać się do modeli OpenAI. Każde takie użycie wymaga osobnej, wcześniej zatwierdzonej zmiany kontraktu. To ruch wymuszony przez użytkowników, którzy poczuli, że ich dane i zaufanie mogą stać się narzędziem wewnętrznej inwigilacji.
Claude rośnie w siłę, gdy ChatGPT traci zaufanie
Cała sytuacja paradoksalnie wzmacnia firmę, którą rząd USA próbował wypchnąć z rynku publicznych kontraktów. Claude, aplikacja Anthropic, w sobotę po wybuchu afery wskoczyła na pierwsze miejsce w rankingu darmowych aplikacji w App Store Apple i utrzymała się tam przynajmniej do czwartku.
Według danych cytowanych przez Washington Times, Claude zaczął wyprzedzać ChatGPT pod względem liczby nowych pobrań. Euronews opisuje zorganizowaną akcję bojkotu produktów OpenAI, nakręcaną przez hashtagi #CancelChatGPT i #QuitGPT na TikToku, X i Reddit.
Dla wielu użytkowników nie chodzi tylko o jakość odpowiedzi czy funkcje aplikacji, ale o poczucie, czy firma trzyma się wyznaczonych zasad. Wizerunek Anthropic jako gracza, który gotów jest odrzucić duże pieniądze, by nie przekroczyć etycznych granic, stał się potężnym argumentem marketingowym.
Rosnący nacisk na ustawodawców w Waszyngtonie
Konflikt Pentagon–Anthropic, a potem gwałtowne przejęcie kontraktu przez OpenAI, zwróciły uwagę nie tylko użytkowników, lecz także środowisk politycznych. Think tank Center for American Progress ocenia, że to czytelny sygnał dla Kongresu: prywatne spółki nie powinny samodzielnie decydować, jak daleko można posunąć militarne zastosowania AI.
Mariarosaria Taddeo z Uniwersytetu Oksfordzkiego mówiła w BBC, że wyrzucenie z rozmów firmy najbardziej skoncentrowanej na bezpieczeństwie to zły scenariusz z perspektywy przyszłych regulacji. Jej zdaniem brak Anthropic przy stole negocjacyjnym zubaża debatę o tym, jak zabezpieczyć rozwój wojskowej sztucznej inteligencji.
Presja użytkowników, rosnąca konkurencja i brak jasnych regulacji sprawiają, że kierunek rozwoju militarnej AI coraz częściej wyznaczają gwałtowne kryzysy, nie przemyślane strategie państw.
Ryzyko „halucynacji” i obietnica człowieka w pętli
Do sporu dochodzi jeszcze jeden wątek: wiarygodność modeli językowych w warunkach bojowych. Systemy takie jak ChatGPT czy Claude potrafią generować pozornie przekonujące, lecz kompletnie fałszywe informacje, co określa się mianem „halucynacji”.
W zastosowaniach cywilnych to irytacja lub wstyd. W zastosowaniach militarnych może oznaczać błędną identyfikację celu, pomyłki wywiadu lub eskalację konfliktu na podstawie zmyślonych danych.
Dlatego oficerowie tacy jak podpułkownik Amanda Gustave z Task Force Maven przy NATO powtarzają, że w procesie decyzyjnym zawsze ma pozostać człowiek. Zwraca uwagę, że armia nie zamierza pozwolić, by AI samodzielnie wydawała wyroki o użyciu siły.
Co ta afera mówi zwykłym użytkownikom AI
Spór o kontrakt Pentagonu z OpenAI wychodzi poza politykę i wojskowość. To test, jak konsumenci reagują, gdy ulubiona aplikacja wchodzi w obszary, które odbierają jako moralnie niebezpieczne. Fala deinstalacji pokazuje, że użytkownicy coraz lepiej rozumieją, że decyzje biznesowe firm technologicznych przekładają się na realne konsekwencje społeczne.
W praktyce osoby korzystające z narzędzi AI mogą zacząć zadawać kilka prostych pytań:
- czy firma jasno komunikuje, z kim współpracuje i w jakim zakresie;
- czy istnieją publicznie ogłoszone „linie czerwone” dotyczące zastosowań militarnych i inwigilacyjnych;
- czy przy dużej aferze spółka reaguje korektą kursu, czy raczej ją bagatelizuje;
- czy pojawiają się niezależne audyty bezpieczeństwa i etyki.
Scenariusz, który dziś rozgrywa się wokół OpenAI, może w przyszłości dotyczyć innych firm — od gigantów chmurowych po startupy medyczne. Jeśli kolejne aplikacje AI zaczną trafiać do projektów wojskowych, reakcja użytkowników może stać się jednym z realnych narzędzi kształtowania norm. Zaufanie, raz utracone, trudno odbudować, a alternatywy technologiczne pojawiają się coraz szybciej.



Opublikuj komentarz