OpenAI cofa się po burzy: umowa z Pentagonem uderza w ChatGPT, rośnie gwiazda Claude
OpenAI po cichu poprawia swoją głośną umowę z Pentagonem, gdy użytkownicy masowo kasują aplikację ChatGPT, a konkurencyjny Claude rośnie w siłę.
W ciągu kilku dni sytuacja na rynku generatywnej AI wywróciła się do góry nogami. Decyzja OpenAI o wejściu w ścisłą współpracę z amerykańskim resortem obrony uruchomiła lawinę krytyki, falę dezinstalacji aplikacji i poważną debatę o tym, gdzie powinny leżeć granice wojskowego wykorzystania sztucznej inteligencji.
Umowa z Pentagonem i natychmiastowy bunt użytkowników
Pod koniec tygodnia OpenAI podpisało kontrakt z amerykańskim Departamentem Obrony, który otwiera drogę do używania ChatGPT w projektach związanych z obronnością. To, co w świecie kontraktów rządowych często przechodzi po cichu, tutaj uderzyło jak grom.
Według danych firmy analitycznej Sensor Tower, już po ogłoszeniu współpracy średnia dzienna liczba dezinstalacji aplikacji ChatGPT skoczyła o 295% względem typowego poziomu. Użytkownicy zaczęli publicznie pisać, że czują się zdradzeni, bo kojarzyli ChatGPT z narzędziem „dla ludzi”, a nie kolejnym elementem wojskowego ekosystemu.
Przeczytaj również: Fizycy z CERN namierzyli niezwykłą cząstkę cztery razy cięższą od protonu
Fala kasowania ChatGPT z telefonów stała się jednym z najszybszych buntów konsumenckich, jakie dotychczas widziała branża generatywnej AI.
W mediach społecznościowych zaczęły krążyć hashtagi w stylu #CancelChatGPT czy #QuitGPT , które zachęcały do porzucenia usług OpenAI. Krytycy pisali, że firma zbyt łatwo zrezygnowała z wcześniej deklarowanych zasad etycznych, gdy tylko pojawiła się perspektywa dużego kontraktu z resortem obrony.
Anthropic mówi „nie”, OpenAI mówi „tak” i zaczynają się kłopoty
Cały kryzys nie wziął się znikąd. Chwilę wcześniej amerykański konkurent OpenAI, firma Anthropic, odmówił podpisania podobnej umowy z Pentagonem. Spór dotyczył bardzo konkretnych żądań wojska.
Przeczytaj również: Reaktor jądrowy niemal 2 km pod ziemią. USA zaczynają odważny eksperyment
Anthropic utrzymuje twarde „czerwone linie” dla swojego modelu Claude. Firma:
- nie zgadza się, by jej AI pomagała w tworzeniu całkowicie autonomicznych systemów uzbrojenia,
- odmawia udziału w projektach masowej inwigilacji skierowanej przeciwko zwykłym obywatelom, w tym na terenie USA,
- nie chce, aby AI uczestniczyła w łańcuchu decyzyjnym tak, by ostatnie słowo należało wyłącznie do algorytmu.
Taka postawa skończyła się dla Anthropic bardzo konkretną karą: administracja rządowa wpisała firmę na „czarną listę” dostawców, co praktycznie odcina ją od kontraktów federalnych. Mimo to Anthropic nie zmienił zdania.
Przeczytaj również: Tak może wyglądać Ziemia za 250 mln lat. Francja w zaskakującym miejscu
W tym samym czasie OpenAI podpisało umowę, której Anthropic nie przyjął. To wywołało wrażenie, że jedna firma została „wypchnięta” z rynku wojskowego, a druga szybko zajęła jej miejsce, licząc na zysk.
Sam Altman przyznaje: działaliśmy zbyt szybko
Sam Altman, szef OpenAI, zareagował dopiero po weekendzie. W publicznym wpisie przyznał, że firma popełniła błąd, przyspieszając komunikat o umowie i wypuszczając go akurat w piątek, bez odpowiedniego przygotowania opinii publicznej.
Altman określił to, co się stało, jako zbyt pospieszne i „zrobione po łebkach”, podkreślając, że cała sprawa wyglądała oportunistycznie na tle decyzji konkurenta.
To rzadki moment, kiedy szef jednej z najgłośniejszych firm technologicznych otwarcie przyznaje, że zagrał źle politycznie i komunikacyjnie. Jednocześnie zaznaczył, że firma próbuje powstrzymać scenariusz, w którym wojskowe wykorzystanie AI wymknie się spod jakiejkolwiek kontroli.
OpenAI zmienia umowę: więcej ograniczeń dla wojska i służb
Pod wpływem kryzysu wizerunkowego OpenAI musiało bardzo szybko poprawić świeżo podpisany kontrakt. Firma ogłosiła „istotne zmiany” w warunkach współpracy z Departamentem Obrony.
Najważniejsze z nich to:
- wyraźny zakaz celowego wykorzystywania systemów OpenAI do inwigilowania obywateli USA,
- koniec z automatycznym dostępem służb specjalnych (w tym NSA) do modeli OpenAI – każda taka współpraca ma wymagać osobnej, z góry przyjętej umowy,
- podkreślenie, że systemy AI mają pełnić funkcję narzędzi wspomagających, a nie autonomicznych decydentów w działaniach wojskowych.
Mimo nowych zapisów wielu komentatorów zauważa, że granica pozostaje nieostra. W projektach wojskowych AI może analizować ogromne ilości danych: zdjęcia satelitarne, przechwycone komunikaty, raporty wywiadu. To wszystko może realnie wpływać na decyzje w terenie.
| Firma | Stosunek do umowy z Pentagonem | Główne ograniczenia etyczne |
|---|---|---|
| OpenAI | umowa podpisana, później zmodyfikowana | zakaz inwigilacji obywateli USA, formalne ograniczenia dostępu dla służb |
| Anthropic | umowa odrzucona | brak zgody na autonomiczną broń i masową inwigilację, wymóg obecności człowieka w decyzjach |
Claude na szczycie App Store, ChatGPT traci pozycję lidera
Efekt uboczny tego sporu może boleć OpenAI najbardziej: użytkownicy zaczęli masowo przerzucać się na Claude’a. Model Anthropic w krótkim czasie wskoczył na pierwsze miejsce w rankingu darmowych aplikacji w sklepie Apple i według danych z App Store utrzymuje się tam przez kolejne dni.
Amerykańskie media, w tym Washington Times, opisują sytuację jasno: Claude wyprzedza ChatGPT w nowych instalacjach . Użytkownicy wybierają narzędzie, które w ich oczach trzyma się twardszych zasad dotyczących współpracy z wojskiem.
Wizerunek bardziej „etycznego” modelu stał się dla Anthropic realnym atutem biznesowym, który przekłada się na liczby pobrań i nowych klientów.
Ruch bojkotowy wymierzony w OpenAI, napędzany hasłami w mediach społecznościowych, staje się dla wielu okazją, by po raz pierwszy sprawdzić, jak działa alternatywna AI. Dla rynku to ważny sygnał: lojalność użytkowników wobec dużych platform wcale nie jest betonowa.
Polityka wchodzi do gry: wezwanie do regulacji wojskowej AI
Sytuacja nie pozostaje tylko sprawą dwóch rywalizujących firm. Think tank Center for American Progress zwraca uwagę, że konflikt Pentagonu z Anthropic i późniejsza umowa z OpenAI działają jak alarm dla polityków na Kapitolu.
Analitycy tej organizacji twierdzą, że prywatne spółki nie mogą być jedynymi podmiotami, które definiują, co wolno, a czego nie wolno robić z militarną AI. Ich zdaniem potrzebne są jasne przepisy na poziomie ustaw, tak by granice były ustalone demokratycznie, a nie wyłącznie w salach konferencyjnych Doliny Krzemowej.
Podobne stanowisko prezentuje Mariarosaria Taddeo, badaczka z Uniwersytetu Oksfordzkiego zajmująca się etyką technologii. Zwraca uwagę, że wykluczenie Anthropic z rozmów z rządem usuwa z negocjacji firmę, która stawia bezpieczeństwo i przejrzystość bardzo wysoko. Jej zdaniem taka sytuacja może wypaczyć przyszłe standardy regulacyjne dla wojskowej AI.
Problem „halucynacji” językowych modeli
W tle całej debaty wisi jeszcze jedna kwestia: zawodność samych modeli. Duże systemy językowe, takie jak ChatGPT czy Claude, mają skłonność do tak zwanych „halucynacji”, czyli generowania informacji, które brzmią wiarygodnie, ale są całkowicie nieprawdziwe.
W zastosowaniach wojskowych to nie jest drobny błąd, ale potencjalnie śmiertelnie groźny defekt. Wyobraźmy sobie, że AI błędnie klasyfikuje obiekt na zdjęciu satelitarnym albo tworzy fałszywy opis sytuacji w rejonie konfliktu. To może pociągnąć za sobą decyzje dowódców, których nikt już nie cofnie.
Przedstawiciele wojsk, tacy jak oficerowie odpowiedzialni za projekty danych w ramach NATO, zapewniają, że „człowiek zawsze pozostaje w pętli decyzji” i że żaden automat nie będzie miał prawa wciśnięcia metaforycznego spustu. Krytycy odpowiadają: im bardziej dowódcy ufają AI, tym łatwiej bezrefleksyjnie przyjmują jej sugestie.
Co to oznacza dla zwykłego użytkownika AI?
Dla przeciętnego użytkownika aplikacji AI cała ta historia ma kilka praktycznych konsekwencji. Po pierwsze, nagle widać, jak bardzo wybory biznesowe dostawców wpływają na to, komu powierzamy swoje dane, zapytania i przyzwyczajenia. Przesunięcie się w stronę kontraktów wojskowych zmienia moralny obraz takiej firmy w oczach części klientów.
Po drugie, rośnie znaczenie transparentności. Użytkownicy chcą wiedzieć, czy ich ulubiony chatbot współpracuje z armią, czy wspiera masową analizę danych wywiadowczych, a jeśli tak – na jakich warunkach. Deklaracje etyczne z zakładek „O nas” przestają być marketingową ozdobą, a stają się realnym kryterium wyboru narzędzia.
Po trzecie, historia OpenAI i Anthropic może przyspieszyć powstanie przejrzystych symboli czy etykiet dla aplikacji AI, podobnych do certyfikatów ekologicznych czy oznaczeń prywatności. Użytkownik, instalując aplikację, mógłby od razu zobaczyć, czy jej producent dopuszcza wojskowe zastosowania, masową inwigilację albo automatyzację użycia siły.
Wreszcie, coraz wyraźniej rysuje się nowy rodzaj „głosowania portfelem”. Kto kasuje jedną aplikację AI i przechodzi do innej, wysyła sygnał nie tylko rynkowi, lecz także politykom. Jeśli takie ruchy staną się masowe, presja na stworzenie twardych zasad dla wojskowej sztucznej inteligencji będzie rosła z dnia na dzień.


