OpenAI zmienia umowę z Pentagonem po bojkocie użytkowników ChatGPT

OpenAI zmienia umowę z Pentagonem po bojkocie użytkowników ChatGPT
4.8/5 - (44 votes)

Po ogłoszeniu współpracy z Pentagonem część użytkowników uznała, że firma przekroczyła granicę akceptowalnego zaangażowania w projekty wojskowe. Skala sprzeciwu zaskoczyła nawet kierownictwo OpenAI i zmusiła spółkę do szybkiej korekty umowy z Departamentem Obrony USA.

Spór o militarne wykorzystanie AI: Anthropic stawia twarde warunki

Cała historia zaczęła się od konkurenta OpenAI. Anthropic, twórca modelu Claude, od dłuższego czasu deklaruje, że nie zgodzi się na wykorzystanie swojej technologii do tworzenia w pełni autonomicznych systemów broni ani do masowej inwigilacji. Firma traktuje te ograniczenia jak nienaruszalną „linię graniczną”.

Kiedy Pentagon zażądał złagodzenia tych zasad, Anthropic odmówił. Według amerykańskich mediów ta postawa skończyła się dla spółki wpisaniem na listę podmiotów wykluczonych z kontraktów rządowych w USA. Innymi słowy, firma straciła dostęp do dochodowego segmentu zamówień publicznych, ale nie ustąpiła w sprawie etyki wojskowego użycia AI.

Departament Obrony dąży do jak najszerszego włączenia sztucznej inteligencji w swoje systemy analizy danych: od zdjęć satelitarnych, przez raporty wywiadu, po dane z pola walki. Takie platformy ma już choćby Palantir, który współpracuje z armią USA i NATO. Jak tłumaczą jego przedstawiciele, chodzi o narzędzia pozwalające szybciej analizować ogromne zbiory informacji i podejmować bardziej skuteczne, a w razie potrzeby także bardziej śmiercionośne decyzje.

Anthropic nie chce, by Claude uczestniczył w łańcuchu decyzyjnym, w którym ostatnie słowo należy wyłącznie do algorytmu, bez realnej kontroli człowieka. Firma sprzeciwia się też wykorzystaniu jej modeli do nadzorowania życia zwykłych obywateli na terenie Stanów Zjednoczonych. To dwa najważniejsze punkty, których – jak podkreślają przedstawiciele Anthropic – nie zamierzają poświęcać nawet kosztem utraty rynku publicznego.

Co ciekawe, według doniesień CBS News, Claude mimo formalnego wykluczenia nadal ma odgrywać rolę w analizie danych związanych z napięciami między USA i Izraelem a Iranem. Pentagon odmawia komentarza, co tylko wzmacnia podejrzenia, że część współpracy odbywa się okrężnymi drogami lub za pośrednictwem podwykonawców.

OpenAI bierze kontrakt, którego Anthropic nie chciał

Na tym tle decyzja OpenAI, by podpisać porozumienie z Departamentem Obrony, wywołała burzę. Kilka dni po tym, jak Anthropic odrzucił propozycję Pentagonu, OpenAI zawarło własną umowę, w której kluczową rolę odgrywa ChatGPT oraz inne modele rozwijane przez firmę.

Sam Altman, szef OpenAI, w pierwszych komunikatach podkreślał, że jego spółka zadbała o silniejsze zabezpieczenia niż konkurencja. Twierdził, że kontrakt zawiera więcej ograniczeń dotyczących użycia AI niż wcześniejsze porozumienia wojskowe z innymi firmami. W praktyce wielu odbiorców odebrało to jak próbę wykorzystania sytuacji i przejęcia intratnego zamówienia, którego etycznie nie chciał się podjąć rywal.

Gdy informacje o umowie z Pentagonem stały się publiczne, liczba dezinstalacji aplikacji ChatGPT wzrosła według Sensor Tower aż o 295% w porównaniu ze standardowym poziomem.

W mediach społecznościowych zaczęły się pojawiać wpisy użytkowników, którzy pisali wprost, że kasują ChatGPT, bo nie chcą, by ich interakcje z chatbotem finansowały wojskowe projekty. Pojawiły się też oskarżenia o zdradzenie wartości, o których OpenAI mówiło od lat – szczególnie o ostrożności w kontekście zastosowań militarnych.

Altman przyznaje się do błędu, umowa zostaje zmieniona

Reakcja rynku i opinii publicznej była na tyle mocna, że Altman musiał błyskawicznie zmienić ton. W wypowiedziach zamieszczonych na platformie X szef OpenAI przyznał, że zadziałał zbyt szybko i zbyt nerwowo, wypuszczając ogłoszenie w piątek, gdy emocje wokół sporu Pentagon–Anthropic były już wysokie.

Altman nazwał tę decyzję po prostu błędem i przyznał, że cała komunikacja wyglądała jak próba skorzystania na trudnościach konkurenta. Dodał, że firma stara się „odkręcić” sytuację w taki sposób, by nie doszło do jeszcze gorszego scenariusza, czyli całkowitego braku wpływu branży AI na to, jak wojsko będzie wykorzystywać nowe technologie.

W poniedziałek OpenAI ogłosiło pierwsze konkretne korekty zapisów umowy z Pentagonem. Najważniejsze zmiany to:

  • jasna deklaracja, że modele OpenAI nie mogą być świadomie wykorzystywane do nadzorowania obywateli USA,
  • zakaz niekontrolowanego dostępu służb wywiadowczych – takich jak NSA – do modeli OpenAI bez osobnej, ściśle opisanej umowy,
  • zapowiedź stworzenia dodatkowych procedur weryfikacji zastosowań wojskowych, w których decyzja końcowa ma zawsze należeć do człowieka.

Firma próbuje w ten sposób zasygnalizować, że nie zamierza otwierać drzwi dla masowej inwigilacji z użyciem swoich modeli. Dla części użytkowników to za mało, bo sam fakt ścisłej współpracy z Departamentem Obrony jest już nie do przyjęcia.

Claude rośnie w siłę, ChatGPT traci użytkowników

Przegranym pierwszego etapu kryzysu wydaje się ChatGPT. W tym samym czasie, gdy jego aplikacja notuje gwałtowny skok dezinstalacji, model Claude wspina się na szczyt rankingu w App Store na iPhone’ach. Dane z publicznych statystyk wskazują, że w ciągu kilku dni narzędzie Anthropic przebiło ChatGPT pod względem liczby nowych pobrań.

Media w Stanach opisują to jako częściowy efekt bojkotu. Użytkownicy, którzy chcą nadal korzystać z zaawansowanego chatbota, ale nie chcą mieć nic wspólnego z umową z Pentagonem, masowo przerzucają się na Claude. W sieci zaczęły krążyć hashtagi wzywające do trwałego odinstalowania ChatGPT i przenosin na inne platformy AI.

Dla wielu osób Claude stał się symbolem bardziej „zasadniczej” sztucznej inteligencji – nawet jeśli w praktyce różnice techniczne między modelami są mniej spektakularne niż wrażenie budowane przez medialny spór.

Think tank Center for American Progress zwraca uwagę, że cała sytuacja jest sygnałem ostrzegawczym dla polityków. Organizacja twierdzi, że nie można zostawić prywatnym firmom pełnej swobody w ustalaniu, co jest dopuszczalne w kontekście wojskowego użycia AI. Według analityków potrzebne są twarde przepisy, które wyznaczą granice niezależnie od tego, jaka korporacja akurat podpisze kontrakt.

Eksperci ostrzegają przed wojskową AI bez bezpieczników

Głos w tej sprawie zabierają nie tylko organizacje pozarządowe, ale też naukowcy i przedstawiciele struktur bezpieczeństwa. Badaczka etyki technologii z Uniwersytetu Oksfordzkiego, Mariarosaria Taddeo, zwraca uwagę, że wykluczenie Anthropic z rozmów z administracją amerykańską wyciąga z negocjacji podmiot, który do tej pory najmocniej naciskał na kwestie bezpieczeństwa. W jej ocenie utrudnia to wypracowanie odpowiedzialnych standardów na przyszłość.

Z drugiej strony część przedstawicieli armii i NATO podkreśla, że mimo wprowadzenia AI w procesy analityczne, człowiek nadal ma ostatnie słowo. Oficerowie zaangażowani w projekty z udziałem dużych modeli językowych mówią wprost: narzędzia takie jak ChatGPT czy Claude potrafią generować błędne odpowiedzi, tzw. halucynacje, więc nie nadają się na samodzielnego decydenta w sprawach bezpieczeństwa narodowego.

To napięcie między ogromnym potencjałem automatyzacji a ryzykiem błędów staje się jednym z kluczowych tematów debaty o sztucznej inteligencji w wojsku. Zaufanie do systemu, który czasem „zmyśla”, trudno połączyć z odpowiedzialnością za decyzje dotyczące użycia siły.

Co ta afera mówi o przyszłości AI dla zwykłego użytkownika

Spór OpenAI z częścią własnych użytkowników pokazuje, jak mocno emocjonalnie ludzie podchodzą dziś do narzędzi, z których korzystają na co dzień. Dla wielu ChatGPT czy Claude nie są już tylko „aplikacjami”, ale czymś w rodzaju cyfrowego asystenta, z którym spędza się godziny. W takiej relacji nagła informacja o militarnym kontrakcie budzi coś więcej niż zwykły sprzeciw – to często poczucie zdrady zaufania.

Dla firm technologicznych to poważny sygnał. Użytkownicy oczekują przejrzystości: jasnej informacji, czy dana usługa uczestniczy w projektach wojskowych, czy przetwarza dane w kontekście działań zbrojnych, czy może została wyłączona z takich zastosowań. Im szybciej branża wypracuje standardy otwartej komunikacji, tym mniejsza szansa, że kolejne umowy wywołają podobne kryzysy.

Prawo nie nadąża, a presja rośnie

Cała historia ma jeszcze jeden wymiar – legislacyjny. Na razie to poszczególne firmy same rysują własne linie graniczne: Anthropic odmawia wsparcia dla autonomicznej broni, OpenAI pod naporem krytyki dopisuje klauzule o zakazie masowej inwigilacji, inne podmioty wybierają różne pośrednie warianty.

Dla użytkownika, który po prostu korzysta z chatbota na telefonie, to gąszcz niejasnych deklaracji. Dlatego coraz częściej pojawiają się apele o przepisy, które jasno określą, na co AI nie wolno pozwolić – bez względu na to, kto akurat wygrywa ranking pobrań w App Store. Dopiero wtedy wybór między ChatGPT a Claude nie będzie sprowadzał się wyłącznie do wiary w marketingowe zapewnienia jednej ze stron, ale oprze się na jasno zdefiniowanych ramach prawnych.

Uwielbiam pisać. Piszę o codziennych sprawach, które naprawdę interesują ludzi: od psychologii i relacji, przez dom, ogród i kuchnię, aż po ciekawostki ze świata. Lubię treści, które są lekkie w odbiorze, ale jednocześnie dają coś konkretnego.

Prawdopodobnie można pominąć