OpenAI cofa się po burzy. Umowa z Pentagonem zmieniona, użytkownicy uciekają do Claude

OpenAI cofa się po burzy. Umowa z Pentagonem zmieniona, użytkownicy uciekają do Claude
4.9/5 - (49 votes)

Gwałtowna fala rezygnacji z ChatGPT po ogłoszeniu współpracy z Pentagonem zmusiła OpenAI do nerwowego poprawiania świeżo podpisanej umowy.

Najważniejsze informacje:

  • OpenAI podpisało umowę z Departamentem Obrony USA, co wywołało obawy o udział firmy w tworzeniu technologii wojskowych.
  • Użytkownicy ChatGPT zareagowali na współpracę z wojskiem masowymi dezinstalacjami aplikacji i bojkotem.
  • Anthropic (twórca Claude) odrzucił współpracę z wojskiem na warunkach oferowanych przez OpenAI, stawiając wyraźne ograniczenia etyczne.
  • Sam Altman przyznał, że komunikacja OpenAI w sprawie umowy była niedopracowana i obiecał wprowadzenie dodatkowych zabezpieczeń przed inwigilacją.
  • Incydent wzmógł presję na amerykański Kongres, aby wprowadzić regulacje dotyczące wykorzystania AI w wojsku.

Firma Sama Altmana stanęła nagle w centrum globalnej dyskusji o tym, gdzie kończy się „pożyteczna AI”, a zaczyna sztuczna inteligencja dla wojska. W tle trwa bezprecedensowa ucieczka użytkowników do konkurencyjnego modelu Claude od Anthropic.

Jak jedna umowa z Pentagonem wywołała kryzys zaufania

Ogłoszenie, że ChatGPT ma wspierać amerykański Departament Obrony, uderzyło w reputację OpenAI w najczulszym punkcie – obietnicy odpowiedzialnego rozwoju AI. Partnerstwo miało otworzyć drogę do używania modeli firmy w systemach wojskowych, analizujących ogromne zbiory danych: od obrazów satelitarnych, przez raporty wywiadu, po informacje z pola walki.

W teorii chodziło o „szybsze i skuteczniejsze decyzje”. W praktyce wielu odbiorców zobaczyło coś zupełnie innego: miękkie wejście sztucznej inteligencji w obszar broni i nadzoru. Użytkownicy zaczęli masowo kasować aplikację, a w sieci ruszyły apele o bojkot.

Według danych Sensor Tower liczba dezinstalacji ChatGPT skoczyła średnio o 295% względem normalnego poziomu już w pierwszych dniach po ogłoszeniu współpracy.

To uderzenie przyszło w momencie, gdy sektor AI i tak mierzy się z narastającymi obawami dotyczącymi zastosowań militarnych. Coraz częściej pojawia się pytanie: kto ma prawo decydować, gdzie przebiega granica?

Anthropic stawia twarde warunki: żadnej w pełni autonomicznej broni

Na drugim biegunie znalazł się Anthropic, twórca modelu Claude. Firma odmówiła zawarcia takiej umowy z Pentagonem, jaką kilka dni później podpisało OpenAI. Postawiła przy tym bardzo wyraźne czerwone linie.

  • zakaz użycia Claude do tworzenia broni całkowicie pozbawionej ludzkiej kontroli nad ostateczną decyzją o użyciu siły,
  • zakaz wykorzystania modelu do masowej inwigilacji obywateli w kraju.

Te zasady doprowadziły do wpisania Anthropic na czarną listę podmiotów wykluczonych z kontraktów rządowych w USA. Mimo to, według źródeł cytowanych przez tamtejsze media, narzędzia firmy mają wciąż pośrednio pojawiać się w analizach związanych z napięciami na Bliskim Wschodzie. Pentagon nie chce komentować szczegółów, co tylko podsyca spekulacje, jak realnie wygląda dostęp do tej technologii.

Spór nie jest abstrakcyjny. Wojsko szuka systemów zdolnych do łączenia danych z wielu źródeł i podpowiadania dowódcom najlepszych ruchów. Przedstawiciele branży obronnej mówią wprost: chodzi o decyzje szybsze, bardziej precyzyjne i – gdy trzeba – bardziej zabójcze. Anthropic odpowiada: model może pomagać, ale człowiek musi mieć ostatnie słowo, a masowy nadzór obywateli to nieprzekraczalna granica.

Gafę przyznaje sam Altman. OpenAI poprawia umowę w trybie awaryjnym

OpenAI zdecydowało się na ruch odwrotny do Anthropic – podpisanie współpracy z resortem obrony. Sytuację zaogniła komunikacja firmy. Sam Altman już następnego dnia po fali krytyki wydał oświadczenie, w którym przekonywał, że umowa zawiera „więcej zabezpieczeń” niż jakiekolwiek porozumienie tego typu, także te od konkurencji.

Taki ton został odebrany jak próba wykorzystania wizerunku „bardziej etycznej” AI do zyskania kontraktu. Reakcja w sieci była natychmiastowa: oskarżenia o cynizm, łamanie wcześniejszych obietnic i ogrzewanie się przy ryzyku, którego inna firma nie chciała podjąć.

W poniedziałek Altman przyznał publicznie na platformie X, że cała operacja wyglądała na „oportunistyczną i niedopracowaną” oraz że pospieszył się z komunikatem.

Równocześnie OpenAI zapowiedziało poprawki do kontraktu z Pentagonem. Firma zadeklarowała wprost, że:

  • nie dopuści do świadomego wykorzystania swoich modeli do nadzoru nad obywatelami USA,
  • amerykańskie służby wywiadowcze, w tym NSA, nie dostaną szerszego dostępu do systemów OpenAI bez osobnej, szczegółowej zgody kontraktowej.

To próba wytyczenia podobnych czerwonych linii, jakie wcześniej ogłosił Anthropic. Różnica polega na tym, że w przypadku OpenAI przyszły one dopiero po burzy, a nie przed podpisaniem dokumentów.

Użytkownicy głosują portfelami: ChatGPT traci, Claude rośnie

Choć OpenAI próbuje gasić pożar, widać, że konkurencja skorzystała z kryzysu niemal od razu. Aplikacja Claude w sklepie Apple znalazła się na pierwszym miejscu w rankingach pobrań i utrzymywała tam pozycję przez kolejne dni.

Model Trend po ogłoszeniu umowy z Pentagonem
ChatGPT (OpenAI) Wzrost dezinstalacji o ok. 295%, spadek pobrań, bojkot w sieci
Claude (Anthropic) Awans na szczyt App Store, masowy napływ nowych użytkowników

Amerykańskie media opisują zorganizowaną akcję rezygnacji z narzędzi OpenAI, otagowaną hasłami CancelChatGPT oraz QuitGPT. Część użytkowników deklaruje, że nie wróci do aplikacji, dopóki firma utrzymuje współpracę z wojskiem w obecnym kształcie.

Anthropic – paradoksalnie wykluczony z rynku zamówień rządowych – zyskuje wizerunkowo. Dla wielu osób to właśnie konsekwentna odmowa udziału w tworzeniu w pełni autonomicznych systemów bojowych stała się wystarczającym argumentem, by przenieść się do Claude.

Politycy budzą się późno: presja na regulacje rośnie

Cała historia ma już wymiar wykraczający poza rywalizację dwóch firm. Think tank Center for American Progress z Waszyngtonu wskazuje, że konflikt na linii Pentagon – Anthropic, a zaraz potem kontrakt z OpenAI, stały się czytelnym sygnałem dla Kongresu: trzeba uporządkować kwestie użycia AI w wojsku ustawami.

Organizacja argumentuje, że granic nie powinny wyznaczać wyłącznie wewnętrzne regulaminy korporacji ani prywatne kontrakty z armią. Bez jasnych przepisów etykę de facto definiują zarządy firm, a nie demokratycznie wybrani politycy. Podobny niepokój wyraża część środowiska akademickiego. Badaczka etyki technologii z Oxfordu wskazuje, że odsunięcie Anthropic od stołu negocjacyjnego oznacza, iż w rozmowach z wojskiem brakuje dziś gracza najmocniej skupionego na bezpieczeństwie.

Do tego dochodzi jeszcze kwestia jakości samych modeli. Duże systemy językowe wciąż miewają „halucynacje” – generują informacje fałszywe lub zmyślone, ale podane w bardzo przekonujący sposób. Dla cywilnego użytkownika to irytacja. Dla armii – potencjalny koszmar, jeśli ktoś bezrefleksyjnie zaufa takim odpowiedziom w sytuacji zagrożenia życia.

Przedstawiciele struktur NATO podkreślają, że w ich procedurach człowiek musi pozostawać w pętli decyzyjnej i nie ma mowy o powierzaniu ostatecznych decyzji algorytmom.

Dlaczego polskiego użytkownika powinna obchodzić umowa OpenAI z Pentagonem

Na pierwszy rzut oka może się wydawać, że to odległy spór w amerykańskiej administracji. W praktyce dotyka każdego, kto korzysta z popularnych chatbotów, także w Polsce. Te same modele, które pomagają pisać maile, mogą trafić do analiz wojskowych czy pracy służb specjalnych – i trudno oczekiwać, że firmy stworzą zupełnie odrębną technologię na potrzeby armii.

Jeśli użytkownikom nie podoba się kierunek, w jakim podąża dana firma, ich podstawowe narzędzie nacisku to wybór konkurencji. Obecne ruchy na rynku – masowe kasowanie ChatGPT i przerzucanie się na Claude – pokazują, że taki sygnał potrafi zaboleć nawet największego gracza. To cenna lekcja dla wszystkich dostawców AI: wizerunek „odpowiedzialnego” nie kończy się na mądrych hasłach w zakładce „misja”. Liczą się twarde decyzje w momentach, gdy na szali leżą duże pieniądze.

Co może się wydarzyć dalej

Obie strony – zarówno Pentagon, jak i firmy AI – znalazły się w sytuacji, w której każdy następny krok będzie bacznie obserwowany. Jeśli amerykański Kongres faktycznie weźmie na warsztat wojskowe zastosowania sztucznej inteligencji, przyszłe umowy mogą już wyglądać zupełnie inaczej: od jasno opisanych zakazów po obowiązkowe audyty niezależnych ekspertów.

Dla użytkowników w Polsce może to oznaczać, że przy kolejnych aktualizacjach regulaminów chatbotów częściej zaczną się pojawiać sekcje o tym, kto i w jakich obszarach może korzystać z danego modelu. Warto czytać te zapisy uważniej niż dotychczas. To, co dziś wydaje się abstrakcyjną dyskusją o etyce w Dolinie Krzemowej, za kilka lat może wpływać na to, czy nasze dane trafią do narzędzi współtworzących systemy obronne, czy nie.

Podsumowanie

Kontrowersyjna współpraca OpenAI z Pentagonem wywołała falę krytyki oraz masową ucieczkę użytkowników do konkurencyjnego modelu Claude od Anthropic. Firma Sama Altmana pod wpływem bojkotu została zmuszona do rewizji warunków kontraktu i wprowadzenia dodatkowych zabezpieczeń etycznych.

Katarzyna jest absolwentką dziennikarstwa na Uniwersytecie Warszawskim, z ponad 10-letnim doświadczeniem w branży sportowej. Pracowała dla czołowych redakcji takich jak Przegląd Sportowy i TVP Sport, specjalizując się w relacjach z piłki nożnej oraz lekkoatletyki. Jej analizy łączą głęboką wiedzę merytoryczną z pasją do sportu, co czynią ją cenioną ekspertką w środowisku dziennikarskim.

Opublikuj komentarz

Prawdopodobnie można pominąć