OpenAI cofa się po burzy: umowa z Pentagonem uderza w ChatGPT
Partnerstwo OpenAI z Pentagonem wywołało falę sprzeciwu, masowe odinstalowania ChatGPT i niespodziewany skok popularności konkurencyjnego Claude.
Gdy Sam Altman chwalił się nowym kontraktem z amerykańskim resortem obrony, wielu użytkowników odebrało to jak zdradę wcześniejszych obietnic. W kilka dni rynek zareagował nerwowo: ChatGPT zaczął znikać z telefonów, a aplikacja Claude, tworzona przez firmę Anthropic, wskoczyła na szczyt rankingów.
Jak doszło do kryzysu wokół ChatGPT i Pentagonu
Spór zaczął się od odmowy Anthropic, firmy rozwijającej model Claude. Spółka postawiła twarde warunki przy rozmowach z amerykańskim resortem obrony. Zgodziła się na pewne zastosowania wojskowe, ale wyznaczyła dwie nieprzekraczalne granice: brak wsparcia przy budowie w pełni autonomicznej broni oraz brak udziału w masowej inwigilacji mieszkańców Stanów Zjednoczonych.
Według przecieków właśnie ta stanowczość doprowadziła do wyrzucenia Anthropic z listy potencjalnych wykonawców rządowych. Konsekwencja firmy w kwestii zasad etycznych okazała się kosztowna biznesowo, ale mocno wzmocniła jej wizerunek w oczach części opinii publicznej.
Przeczytaj również: Astronomowie namierzyli dziesiątki gwiezdnych smug w Drodze Mlecznej
W tym samym czasie resort obrony szukał dostawców narzędzi zdolnych analizować ogromne zbiory danych – od zdjęć satelitarnych po raporty wywiadu – w czasie rzeczywistym. Chodzi o systemy, które pomagają szybciej podejmować decyzje operacyjne. Jak przyznają przedstawiciele firm wojskowo‑technologicznych, takie narzędzia mogą wprost wpływać na „skuteczność i śmiertelność” działań.
OpenAI wchodzi tam, gdzie konkurent mówi „nie”
Gdy Anthropic odsunął się od rozmów, na scenę wkroczyło OpenAI. Spółka podpisała umowę, której wcześniej nie chciał jej rywal. Oficjalnie chodzi o wykorzystanie modeli w zadaniach analitycznych i szkoleniowych, z szeregiem ograniczeń dotyczących zastosowań ofensywnych.
Przeczytaj również: ISS zbliża się do końca. Czy NASA zdąży z nową stacją orbitalną?
W komunikatach OpenAI podkreślał, że kontrakt ma jeszcze więcej zabezpieczeń niż wcześniejsze projekty w sektorze obronnym. W praktyce wielu komentatorów uznało to za próbę obrony decyzji biznesowej, która wyglądała na wykorzystanie trudnej sytuacji konkurenta.
Nowy kontrakt z Pentagonem miał być sukcesem wizerunkowym, a stał się początkiem największego kryzysu zaufania wobec ChatGPT od początku jego istnienia.
Internet reaguje: wysyp odinstalowań i hashtagi przeciw ChatGPT
Raport firmy analitycznej Sensor Tower pokazuje, że już w pierwszych dniach po ogłoszeniu umowy liczba codziennych odinstalowań aplikacji ChatGPT wzrosła o niemal 300 procent w porównaniu z normalnym poziomem. To rzadko spotykana skala odpływu użytkowników w tak krótkim czasie.
Przeczytaj również: Hiszpania powoli się obraca. Naukowcy mierzą to w milimetrach
W sieci pojawiły się kampanie zachęcające do rezygnacji z produktów OpenAI. W mediach społecznościowych zaczęły trendować hasła wzywające do bojkotu i przechodzenia na konkurencyjne modele. Wielu użytkowników pisało, że nie chce, aby ich rozmowy i dane zasilały systemy używane w ramach struktur wojskowych.
- masowe odinstalowania aplikacji ChatGPT
- narastający bojkot w mediach społecznościowych
- przerzucanie się części użytkowników na Claude
- presja na firmy, by jasno określiły granice współpracy z wojskiem
Do krytyki dołączyli także eksperci zajmujący się etyką technologii. Wskazywali, że brak przejrzystości w kwestii zastosowań militarnych podkopuje zaufanie do każdej komercyjnej sztucznej inteligencji.
Altman przyznaje błąd i zmienia warunki umowy
Po weekendzie pełnym kontrowersji Sam Altman zabrał głos. W publicznym wpisie stwierdził, że decyzja o szybkim ogłoszeniu porozumienia była pochopna. Dodał, że firma „wyszła na oportunistyczną i niedokładną”, a komunikacja całego procesu była źle zaplanowana.
Presja wywołała efekt: OpenAI ogłosił istotne korekty kontraktu. Firma zobowiązała się jednoznacznie, że jej systemy nie będą wykorzystywane do monitorowania mieszkańców Stanów Zjednoczonych. Jasno stwierdzono też, że amerykańskie służby wywiadowcze nie otrzymają szerokiego dostępu do modeli bez osobnych, szczegółowo uzgadnianych zapisów.
OpenAI próbuje teraz pokazać, że współpraca z sektorem obronnym nie musi oznaczać białego czeku na inwigilację i automatyzację decyzji o użyciu siły.
Mimo tych wyjaśnień część użytkowników i organizacji społecznych pozostaje sceptyczna. Wskazują, że raz przekroczona granica współpracy z wojskiem będzie przesuwać się coraz dalej, a same zapisy kontraktów są dla opinii publicznej w dużej mierze niejawne.
Claude na szczycie App Store, ChatGPT traci pozycję
Na kryzysie wizerunkowym OpenAI zyskał przede wszystkim Anthropic. Dane z App Store pokazują, że aplikacja Claude w kilka dni wyskoczyła na pierwsze miejsce w rankingu pobrań. Użytkownicy masowo testują alternatywę, którą kojarzą z ostrzejszym podejściem do ograniczeń wojskowych.
Amerykańskie media opisują wyraźny trend: w liczbie instalacji Claude wyprzedza ChatGPT. Do tego dochodzą konkretne apele w mediach społecznościowych – użytkownicy zachęcają znajomych, by przesiadali się z produktów OpenAI i „głosowali portfelem” za bardziej odpowiedzialnym podejściem do sztucznej inteligencji.
Nie brakuje jednak kontrowersji. Z doniesień mediów wynika, że narzędzia Anthropic mogą być mimo wszystko wykorzystywane w kontekście napięć na Bliskim Wschodzie, choć firma oficjalnie jest odcięta od rządowych kontraktów w Stanach Zjednoczonych. To rodzi pytania o realną kontrolę nad tym, gdzie trafiają modele AI, gdy raz zostaną wypuszczone na rynek.
Politycy wzywani do działania
W debacie pojawił się nowy, bardzo wyraźny wątek: czy granice zastosowań wojskowych powinni wyznaczać sami twórcy technologii, czy raczej prawo państwowe i międzynarodowe regulacje. Amerykańskie think tanki podkreślają, że firmy prywatne mierzą się z potężnymi konfliktami interesów: z jednej strony deklarują wrażliwość etyczną, z drugiej kuszą je wielomiliardowe kontrakty.
Eksperci od etyki cyfrowej wskazują, że wyrzucenie z gry tego podmiotu, który stawia najsurowsze warunki bezpieczeństwa, osłabia całą dyskusję. Jeśli najsurowszy gracz wypada z rozmów, pozostają głównie ci, którzy są gotowi iść na większe kompromisy.
Dlaczego użycie AI w wojsku budzi tak silne emocje
Spór o OpenAI i Anthropic to wierzchołek większego problemu: co się stanie, gdy systemy oparte na dużych modelach językowych trafią głębiej w struktury wojskowe. Chodzi nie tylko o analizę danych, ale też o to, jak bardzo takie narzędzia mogą wpływać na decyzje w sytuacjach z realnym ryzykiem dla życia.
Jednym z kluczowych zagrożeń są tak zwane „halucynacje” modeli – sytuacje, w których sztuczna inteligencja produkuje przekonujące, ale całkowicie zmyślone informacje. W zastosowaniach cywilnych skutkuje to pomyłkami w odpowiedziach na pytania. W zastosowaniach wojskowych może oznaczać błędną identyfikację celu albo fałszywe wnioski z danych wywiadowczych.
| Ryzyko | Co oznacza w praktyce |
|---|---|
| Halucynacje modeli | Tworzenie fałszywych raportów lub błędnych ocen sytuacji operacyjnej |
| Brak nadzoru człowieka | Możliwość zautomatyzowania decyzji o użyciu siły bez odpowiedzialności osobistej |
| Masowa inwigilacja | Analiza danych obywateli na niespotykaną skalę, bez realnej kontroli społecznej |
Przedstawiciele struktur wojskowych twierdzą, że człowiek wciąż znajduje się w „pętli decyzyjnej”, czyli ostatecznie podejmuje decyzję. Krytycy odpowiadają, że w warunkach presji czasu i natłoku informacji oficerowie bardzo łatwo mogą zacząć ufać rekomendacjom wygenerowanym przez system, zwłaszcza jeśli ten ma opinię niezwykle skutecznego.
Co ta sytuacja mówi o przyszłości ChatGPT i konkurentów
Historia umowy z Pentagonem pokazuje, jak krucha jest lojalność użytkowników wobec narzędzi AI. Wystarczy jedna decyzja biznesowa, aby setki tysięcy osób zmieniły narzędzie, z którego korzystają każdego dnia. Modele językowe stały się dla wielu ludzi tak codziennym narzędziem, że przesiadka na konkurencyjną aplikację jest kwestią kilku minut.
Dla firm takich jak OpenAI czy Anthropic to wyraźny sygnał: wizerunek etyczny nie jest dodatkiem do produktu, tylko jednym z głównych elementów konkurencji. Użytkownicy coraz częściej patrzą nie tylko na jakość odpowiedzi, lecz także na to, kto stoi za modelem, z kim współpracuje i jakie granice sobie stawia.
Dla czytelników i użytkowników AI w Polsce ten spór może wydawać się odległy, ale warto go śledzić uważnie. Standardy wypracowane dziś w Stanach Zjednoczonych i w strukturach sojuszniczych bardzo szybko staną się punktem odniesienia dla firm i instytucji w Europie. Od tego, jak zostaną uregulowane zastosowania wojskowe, zależy nie tylko kierunek rozwoju technologii, ale też to, czy zwykły użytkownik będzie miał poczucie, że jego cyfrowe narzędzia naprawdę działają po jego stronie, a nie w cieniu tajnych kontraktów.


