OpenAI cofa się po burzy wokół umowy Pentagonu. Użytkownicy kasują ChatGPT

OpenAI cofa się po burzy wokół umowy Pentagonu. Użytkownicy kasują ChatGPT
Oceń artykuł

Po ogłoszeniu współpracy z amerykańskim resortem obrony OpenAI wpadło w sam środek debaty o tym, gdzie kończy się etyczne wykorzystanie AI, a zaczyna wsparcie dla działań wojskowych. Fala dezinstalacji aplikacji i masowe komentarze w sieci zmusiły firmę Sama Altmana do korekty kursu zaledwie po kilku dniach.

Jak doszło do umowy OpenAI z Pentagonem

Przełom nastąpił, gdy amerykański Departament Obrony zaczął szukać dostawców zaawansowanych modeli językowych do wsparcia analiz wojskowych. Chodzi o systemy zdolne w kilka sekund przetwarzać ogromne ilości danych: zdjęcia satelitarne, meldunki wywiadu, raporty z pola walki.

Według przedstawicieli firm takich jak Palantir takie platformy mają pomóc armii szybciej łączyć kropki: wykrywać zagrożenia, typować cele, sugerować działania. W praktyce mówimy o narzędziach, które mogą wpływać na decyzje o życiu i śmierci, także w czasie konfliktu zbrojnego.

Jedna z czołowych firm AI – Anthropic – odrzuciła warunki Pentagonu. Utrzymała twarde zasady: jej model Claude nie ma wspierać ani budowy w pełni autonomicznych systemów broni, ani operacji stałego nadzoru nad ludnością. Ta decyzja sprawiła, że administracja rządowa odsunęła ją od kontraktów publicznych w USA.

W tę lukę wszedł właśnie OpenAI, podpisując umowę, którą konkurent odrzucił. Ten ruch wywołał zarzuty oportunizmu i rezygnacji z deklarowanych wcześniej standardów etycznych.

Sam Altman przyznaje się do błędu

Po ogłoszeniu współpracy OpenAI opublikowało komunikat, w którym zapewniało, że kontrakt zawiera „więcej zabezpieczeń niż jakiekolwiek poprzednie porozumienia” dotyczące wdrożeń AI. W zestawieniu z odmową Anthropic brzmiało to jak próba wybielenia decyzji i wykorzystania sytuacji konkurenta.

OpenAI przyciągnęło ogień krytyki nie tylko samą treścią umowy, ale także sposobem i tempem jej ogłoszenia – odbiorcy odczytali to jako zbyt szybkie, źle przygotowane i nastawione na zysk posunięcie.

Gdy oburzenie w sieci rosło z godziny na godzinę, Sam Altman zabrał głos na platformie X. Przyznał, że komunikacja dotycząca kontraktu była pośpieszna i nieprzemyślana. Wprost użył określeń sugerujących, że firma zachowała się zbyt oportunistycznie. Dodał, że OpenAI próbuje „rozbroić sytuację” i uniknąć scenariusza, który byłby jeszcze gorszy z punktu widzenia użytkowników i debaty publicznej.

Altman podkreślił też, że relacja między wojskiem a dostawcami AI to temat skrajnie złożony – wymaga czasu, przejrzystości i jasnego przedstawienia granic tego, do czego systemy będą używane.

Burza w App Storze: ChatGPT traci, Claude rośnie

Najbardziej namacalny efekt kryzysu widać w liczbach. Dane firmy analitycznej Sensor Tower pokazały gwałtowny skok liczby dezinstalacji aplikacji ChatGPT. Średnia dzienna liczba usunięć wzrosła aż o 295 procent w porównaniu z typowym poziomem.

W tym samym czasie aplikacja Claude od Anthropic wdarła się na szczyt rankingu w sklepie Apple, stając się najchętniej pobieranym narzędziem AI na iPhone’ach. Publicznie dostępne statystyki wskazują, że utrzymywała się na pierwszym miejscu przez kolejne dni, korzystając na wizerunkowym potknięciu rywala.

  • ChatGPT notuje niemal trzykrotny skok dezinstalacji po ogłoszeniu współpracy z Pentagonem.
  • Claude wskakuje na pierwsze miejsce na liście najpopularniejszych aplikacji w sklepie Apple.
  • W mediach społecznościowych pojawiają się hasła bojkotujące produkty OpenAI.

Amerykańskie media opisywały rosnącą popularność hashtagów wzywających do porzucenia ChatGPT. Użytkownicy argumentowali, że nie chcą, by ich dane i interakcje w aplikacji w jakikolwiek sposób zasilały projekty związane z działaniami militarnymi.

OpenAI poprawia umowę pod presją użytkowników

Po weekendzie pełnym krytyki i spadków nastrojów OpenAI ogłosiło zmiany w kontrakcie. Firma doprecyzowała, że jej systemy nie mogą być celowo wykorzystywane do nadzoru nad obywatelami Stanów Zjednoczonych. Dotyczy to w szczególności działań służb wywiadowczych.

OpenAI zastrzegło wprost, że agencje takie jak NSA nie dostaną dostępu do modeli firmy wyłącznie „z urzędu” – każda taka współpraca ma wymagać odrębnej, wcześniej zatwierdzonej umowy.

Te poprawki mają złagodzić obawy związane z masowym śledzeniem społeczeństwa przy pomocy narzędzi językowych. Nadal nie rozwiązują jednak szerszego problemu, jakim jest udział komercyjnych modeli AI w procesach wojskowych, choćby po stronie analiz danych i planowania operacji.

Anthropic stawia twardsze granice

Na tle tych wydarzeń polityka Anthropic zyskuje w oczach wielu komentatorów status bardziej przejrzystej i konsekwentnej. Firma jasno komunikuje, że:

Obszar Stanowisko Anthropic
Broń autonomiczna Brak zgody na użycie modelu do tworzenia systemów, w których ostatnie słowo należy do maszyny
Masowa inwigilacja Sprzeciw wobec wykorzystania modelu do stałego nadzoru nad obywatelami
Kontrakty rządowe Gotowość na utratę zamówień publicznych w imię tych zasad

Co ciekawe, źródła w amerykańskich mediach twierdzą, że narzędzie Claude i tak znajduje zastosowanie w operacjach związanych z napięciami między USA, Izraelem i Iranem. Pentagon odmówił komentarza, co tylko podsyca pytania o realny zakres dostępu armii do komercyjnych modeli AI i o skuteczność formalnych zakazów.

Eksperci: czas na prawo dotyczące wojskowego użycia AI

Spór wokół dwóch gigantów sztucznej inteligencji szybko przeniósł się z branżowych serwisów do dyskusji w Waszyngtonie. Jeden z wpływowych think tanków, Center for American Progress, uznał go za sygnał ostrzegawczy dla Kongresu. W jego analizach czytamy, że prywatne firmy nie powinny samodzielnie wyznaczać granic etycznych w tak wrażliwym obszarze jak wojsko.

Badaczka etyki technologii z Uniwersytetu Oksfordzkiego zwraca uwagę na jeszcze inny problem: wykluczenie z rozmów podmiotów, które najsilniej akcentują kwestie bezpieczeństwa. Jej zdaniem odsunięcie Anthropic od kontraktów rządowych w praktyce usuwa z negocjacji gracza, który naciska na jak najostrzejsze reguły.

Z punktu widzenia przyszłego nadzoru nad militarnym wykorzystaniem AI niepokojące jest to, że najbardziej ostrożne firmy wypadają z gry, a kontrakty trafiają do tych, które są skłonne do większych ustępstw.

„Człowiek w pętli” nie zawsze wystarczy

Przedstawiciele armii natomiast przekonują, że nie ma mowy o całkowitym przekazaniu decyzji maszynom. Oficerowie odpowiedzialni za projekty AI w strukturach NATO podkreślają, że człowiek ma zawsze pozostawać elementem procesu decyzyjnego, a zadaniem modeli jest głównie filtrowanie danych, a nie wydawanie rozkazów.

Taka deklaracja nie rozwiewa wszystkich obaw. Modele językowe potrafią generować fałszywe lub wymyślone informacje – tak zwane „halucynacje”. W zastosowaniach cywilnych kończy się to co najwyżej błędną poradą. W kontekście wojskowym może oznaczać błędną ocenę sytuacji, eskalację konfliktu albo wskazanie niewłaściwego celu.

Co ta historia mówi o przyszłości narzędzi takich jak ChatGPT

Dla zwykłego użytkownika ta afera to sygnał, że korzystanie z narzędzi AI nie ogranicza się do wygodnego generowania tekstów czy tłumaczeń. Każde kliknięcie w regulamin, każde „zaakceptuj” przy nowej funkcji, realnie kształtuje zakres tego, do czego mogą zostać użyte komercyjne modele.

Dobrym nawykiem staje się więc nie tylko czytanie zaktualizowanych zasad korzystania, lecz także śledzenie, z kim dana firma podpisuje strategiczne umowy. Gdy w grę wchodzą resorty obrony, służby bezpieczeństwa czy agencje wywiadowcze, zmienia się zarówno skala odpowiedzialności, jak i poziom ryzyka nadużyć.

Z perspektywy rynku widać również, jak szybko użytkownicy potrafią zareagować portfelem i palcem na ekranie. Przejście tysięcy osób z ChatGPT do Claude pokazuje, że wybory etyczne firm nie są już tylko marketingowym hasłem – coraz częściej przekładają się na realne wyniki w App Storze i tabele z przychodami.

Ta dynamika może paradoksalnie wymusić na dostawcach AI bardziej przejrzyste umowy, mocniejsze zabezpieczenia przed użyciem militarnym i jasne raporty, które pokażą, w jakich sektorach faktycznie działają ich modele. Im bardziej rozbudowane i wpływowe stają się narzędzia takie jak ChatGPT, tym bardziej świadome decyzje muszą podejmować zarówno politycy, jak i sami użytkownicy.

Prawdopodobnie można pominąć