OpenAI cofa się po burzy wokół umowy Pentagonu. Użytkownicy kasują ChatGPT
Po ogłoszeniu współpracy z amerykańskim resortem obrony OpenAI wpadło w sam środek debaty o tym, gdzie kończy się etyczne wykorzystanie AI, a zaczyna wsparcie dla działań wojskowych. Fala dezinstalacji aplikacji i masowe komentarze w sieci zmusiły firmę Sama Altmana do korekty kursu zaledwie po kilku dniach.
Jak doszło do umowy OpenAI z Pentagonem
Przełom nastąpił, gdy amerykański Departament Obrony zaczął szukać dostawców zaawansowanych modeli językowych do wsparcia analiz wojskowych. Chodzi o systemy zdolne w kilka sekund przetwarzać ogromne ilości danych: zdjęcia satelitarne, meldunki wywiadu, raporty z pola walki.
Według przedstawicieli firm takich jak Palantir takie platformy mają pomóc armii szybciej łączyć kropki: wykrywać zagrożenia, typować cele, sugerować działania. W praktyce mówimy o narzędziach, które mogą wpływać na decyzje o życiu i śmierci, także w czasie konfliktu zbrojnego.
Jedna z czołowych firm AI – Anthropic – odrzuciła warunki Pentagonu. Utrzymała twarde zasady: jej model Claude nie ma wspierać ani budowy w pełni autonomicznych systemów broni, ani operacji stałego nadzoru nad ludnością. Ta decyzja sprawiła, że administracja rządowa odsunęła ją od kontraktów publicznych w USA.
Przeczytaj również: Tak może wyglądać Ziemia za 250 mln lat. Francja w zaskakującym miejscu
W tę lukę wszedł właśnie OpenAI, podpisując umowę, którą konkurent odrzucił. Ten ruch wywołał zarzuty oportunizmu i rezygnacji z deklarowanych wcześniej standardów etycznych.
Sam Altman przyznaje się do błędu
Po ogłoszeniu współpracy OpenAI opublikowało komunikat, w którym zapewniało, że kontrakt zawiera „więcej zabezpieczeń niż jakiekolwiek poprzednie porozumienia” dotyczące wdrożeń AI. W zestawieniu z odmową Anthropic brzmiało to jak próba wybielenia decyzji i wykorzystania sytuacji konkurenta.
Przeczytaj również: Amerykanie chcą zbudować reaktor jądrowy na Księżycu przed 2030 rokiem
OpenAI przyciągnęło ogień krytyki nie tylko samą treścią umowy, ale także sposobem i tempem jej ogłoszenia – odbiorcy odczytali to jako zbyt szybkie, źle przygotowane i nastawione na zysk posunięcie.
Gdy oburzenie w sieci rosło z godziny na godzinę, Sam Altman zabrał głos na platformie X. Przyznał, że komunikacja dotycząca kontraktu była pośpieszna i nieprzemyślana. Wprost użył określeń sugerujących, że firma zachowała się zbyt oportunistycznie. Dodał, że OpenAI próbuje „rozbroić sytuację” i uniknąć scenariusza, który byłby jeszcze gorszy z punktu widzenia użytkowników i debaty publicznej.
Altman podkreślił też, że relacja między wojskiem a dostawcami AI to temat skrajnie złożony – wymaga czasu, przejrzystości i jasnego przedstawienia granic tego, do czego systemy będą używane.
Przeczytaj również: 7 części garderoby, z których złożysz dziesiątki stylowych zestawów
Burza w App Storze: ChatGPT traci, Claude rośnie
Najbardziej namacalny efekt kryzysu widać w liczbach. Dane firmy analitycznej Sensor Tower pokazały gwałtowny skok liczby dezinstalacji aplikacji ChatGPT. Średnia dzienna liczba usunięć wzrosła aż o 295 procent w porównaniu z typowym poziomem.
W tym samym czasie aplikacja Claude od Anthropic wdarła się na szczyt rankingu w sklepie Apple, stając się najchętniej pobieranym narzędziem AI na iPhone’ach. Publicznie dostępne statystyki wskazują, że utrzymywała się na pierwszym miejscu przez kolejne dni, korzystając na wizerunkowym potknięciu rywala.
- ChatGPT notuje niemal trzykrotny skok dezinstalacji po ogłoszeniu współpracy z Pentagonem.
- Claude wskakuje na pierwsze miejsce na liście najpopularniejszych aplikacji w sklepie Apple.
- W mediach społecznościowych pojawiają się hasła bojkotujące produkty OpenAI.
Amerykańskie media opisywały rosnącą popularność hashtagów wzywających do porzucenia ChatGPT. Użytkownicy argumentowali, że nie chcą, by ich dane i interakcje w aplikacji w jakikolwiek sposób zasilały projekty związane z działaniami militarnymi.
OpenAI poprawia umowę pod presją użytkowników
Po weekendzie pełnym krytyki i spadków nastrojów OpenAI ogłosiło zmiany w kontrakcie. Firma doprecyzowała, że jej systemy nie mogą być celowo wykorzystywane do nadzoru nad obywatelami Stanów Zjednoczonych. Dotyczy to w szczególności działań służb wywiadowczych.
OpenAI zastrzegło wprost, że agencje takie jak NSA nie dostaną dostępu do modeli firmy wyłącznie „z urzędu” – każda taka współpraca ma wymagać odrębnej, wcześniej zatwierdzonej umowy.
Te poprawki mają złagodzić obawy związane z masowym śledzeniem społeczeństwa przy pomocy narzędzi językowych. Nadal nie rozwiązują jednak szerszego problemu, jakim jest udział komercyjnych modeli AI w procesach wojskowych, choćby po stronie analiz danych i planowania operacji.
Anthropic stawia twardsze granice
Na tle tych wydarzeń polityka Anthropic zyskuje w oczach wielu komentatorów status bardziej przejrzystej i konsekwentnej. Firma jasno komunikuje, że:
| Obszar | Stanowisko Anthropic |
|---|---|
| Broń autonomiczna | Brak zgody na użycie modelu do tworzenia systemów, w których ostatnie słowo należy do maszyny |
| Masowa inwigilacja | Sprzeciw wobec wykorzystania modelu do stałego nadzoru nad obywatelami |
| Kontrakty rządowe | Gotowość na utratę zamówień publicznych w imię tych zasad |
Co ciekawe, źródła w amerykańskich mediach twierdzą, że narzędzie Claude i tak znajduje zastosowanie w operacjach związanych z napięciami między USA, Izraelem i Iranem. Pentagon odmówił komentarza, co tylko podsyca pytania o realny zakres dostępu armii do komercyjnych modeli AI i o skuteczność formalnych zakazów.
Eksperci: czas na prawo dotyczące wojskowego użycia AI
Spór wokół dwóch gigantów sztucznej inteligencji szybko przeniósł się z branżowych serwisów do dyskusji w Waszyngtonie. Jeden z wpływowych think tanków, Center for American Progress, uznał go za sygnał ostrzegawczy dla Kongresu. W jego analizach czytamy, że prywatne firmy nie powinny samodzielnie wyznaczać granic etycznych w tak wrażliwym obszarze jak wojsko.
Badaczka etyki technologii z Uniwersytetu Oksfordzkiego zwraca uwagę na jeszcze inny problem: wykluczenie z rozmów podmiotów, które najsilniej akcentują kwestie bezpieczeństwa. Jej zdaniem odsunięcie Anthropic od kontraktów rządowych w praktyce usuwa z negocjacji gracza, który naciska na jak najostrzejsze reguły.
Z punktu widzenia przyszłego nadzoru nad militarnym wykorzystaniem AI niepokojące jest to, że najbardziej ostrożne firmy wypadają z gry, a kontrakty trafiają do tych, które są skłonne do większych ustępstw.
„Człowiek w pętli” nie zawsze wystarczy
Przedstawiciele armii natomiast przekonują, że nie ma mowy o całkowitym przekazaniu decyzji maszynom. Oficerowie odpowiedzialni za projekty AI w strukturach NATO podkreślają, że człowiek ma zawsze pozostawać elementem procesu decyzyjnego, a zadaniem modeli jest głównie filtrowanie danych, a nie wydawanie rozkazów.
Taka deklaracja nie rozwiewa wszystkich obaw. Modele językowe potrafią generować fałszywe lub wymyślone informacje – tak zwane „halucynacje”. W zastosowaniach cywilnych kończy się to co najwyżej błędną poradą. W kontekście wojskowym może oznaczać błędną ocenę sytuacji, eskalację konfliktu albo wskazanie niewłaściwego celu.
Co ta historia mówi o przyszłości narzędzi takich jak ChatGPT
Dla zwykłego użytkownika ta afera to sygnał, że korzystanie z narzędzi AI nie ogranicza się do wygodnego generowania tekstów czy tłumaczeń. Każde kliknięcie w regulamin, każde „zaakceptuj” przy nowej funkcji, realnie kształtuje zakres tego, do czego mogą zostać użyte komercyjne modele.
Dobrym nawykiem staje się więc nie tylko czytanie zaktualizowanych zasad korzystania, lecz także śledzenie, z kim dana firma podpisuje strategiczne umowy. Gdy w grę wchodzą resorty obrony, służby bezpieczeństwa czy agencje wywiadowcze, zmienia się zarówno skala odpowiedzialności, jak i poziom ryzyka nadużyć.
Z perspektywy rynku widać również, jak szybko użytkownicy potrafią zareagować portfelem i palcem na ekranie. Przejście tysięcy osób z ChatGPT do Claude pokazuje, że wybory etyczne firm nie są już tylko marketingowym hasłem – coraz częściej przekładają się na realne wyniki w App Storze i tabele z przychodami.
Ta dynamika może paradoksalnie wymusić na dostawcach AI bardziej przejrzyste umowy, mocniejsze zabezpieczenia przed użyciem militarnym i jasne raporty, które pokażą, w jakich sektorach faktycznie działają ich modele. Im bardziej rozbudowane i wpływowe stają się narzędzia takie jak ChatGPT, tym bardziej świadome decyzje muszą podejmować zarówno politycy, jak i sami użytkownicy.


