Czy ogólna sztuczna inteligencja już istnieje, a my tego nie widzimy?

Czy ogólna sztuczna inteligencja już istnieje, a my tego nie widzimy?
Oceń artykuł

Coraz więcej naukowców twierdzi, że ogólna sztuczna inteligencja nie jest odległą wizją, lecz faktem, którego jeszcze nie oswoiliśmy.

Nowa publikacja w prestiżowym piśmie naukowym stawia zaskakującą tezę: współczesne systemy AI mogą już spełniać kryteria ogólnej inteligencji, a problem leży przede wszystkim w naszych oczekiwaniach i definicjach. Zamiast fantazji o maszynach rodem z filmów sci‑fi, mamy do czynienia z realnym, choć niedoskonałym, inteligentnym narzędziem – które wielu specjalistów wciąż traktuje jak „zaawansowany kalkulator”.

Nowa teza z Nature: ogólna AI jest tu i teraz

Artykuł opublikowany w Nature został przygotowany przez zespół z Uniwersytetu Kalifornijskiego. Wśród autorów są filozof, lingwiści, informatycy i badacze danych. Ich wspólny wniosek jest dość odważny: poziom rozwoju dzisiejszych modeli, takich jak zaawansowane chatboty, wystarcza, by mówić o ogólnej sztucznej inteligencji – oczywiście w sensie praktycznym, a nie mitycznym, absolutnym.

W centrum rozważań stoi klasyczna wizja ogólnej sztucznej inteligencji (AGI): systemu, który potrafi radzić sobie w szerokim zakresie zadań na poziomie zbliżonym do człowieka. Dla wielu firm technologicznych to oficjalny, długoterminowy cel. Do niedawna większość ekspertów sądziła, że to wciąż kwestia dekady lub dłużej. Tymczasem autorzy Nature proponują coś zupełnie innego: może ten etap już osiągnęliśmy, tylko nie chcemy się do tego przyznać.

Zdaniem badaczy, dzisiejsze modele językowe spełniają praktyczne kryteria ogólnej inteligencji: radzą sobie na poziomie ekspertów w wielu dziedzinach, mimo braku „idealności” czy ludzkiego ciała.

Test Turinga przestał być marzeniem

Kluczowym argumentem autorów jest powrót do koncepcji testu Turinga. Ten zaproponowany w 1950 roku eksperyment zakłada rozmowę człowieka z maszyną i innym człowiekiem, wyłącznie tekstowo. Zadanie: odgadnąć, kto jest kim. Jeśli maszyna jest mylona z człowiekiem wystarczająco często, uznaje się, że osiągnęła pewien próg inteligencji.

Najnowsze chatboty, w tym systemy podobne do ChatGPT, w wielu eksperymentach wypadają dziś lepiej niż prawdziwi ludzie. Rozmówcy przypisują im ludzką tożsamość częściej niż uczestnikom‑ludziom. Jeszcze kilka lat temu taki wynik wystarczyłby, by ogłosić wielki przełom i triumf idei ogólnej sztucznej inteligencji.

Dziś poprzeczka nagle się podniosła. Gdy maszyna wreszcie przechodzi test Turinga, wielu komentatorów odpowiada: „to za mało”. I właśnie tu, zdaniem autorów, zaczyna się problem – przesuwamy definicję tak, by cel był zawsze trochę poza zasięgiem.

Inteligencja ogólna kontra superinteligencja

Tekst w Nature mocno rozróżnia dwa pojęcia, które w debacie medialnej często się miesza:

  • ogólna sztuczna inteligencja – system, który potrafi działać na poziomie eksperta w wielu dziedzinach, w granicach swoich danych i narzędzi;
  • superinteligencja – hipotetyczna AI wyraźnie przewyższająca człowieka we wszystkich obszarach, od nauki po kreatywność i strategię.

Badacze zwracają uwagę, że większość ludzi, mówiąc „AGI”, ma w głowie raczej superinteligencję z filmów i książek. Tymczasem pojęcie ogólnej inteligencji nie wymaga doskonałości. Żaden człowiek nie jest ekspertem we wszystkim. Słabiej radzimy sobie z matematyką, albo z językami obcymi, albo z emocjami innych, a mimo to nikt nie kwestionuje, że jesteśmy inteligentni.

Autorzy sugerują, że oczekiwanie absolutnej wszechmocy od maszyn jest nierealistyczne i mało spójne z tym, jak patrzymy na zdolności człowieka.

Dlaczego architektura LLM budzi kontrowersje

Wielu specjalistów twierdzi, że duże modele językowe (LLM) to ślepa uliczka. Krytycy, wśród nich znani badacze, argumentują, że taka architektura zbyt mocno opiera się na statystyce, a za mało na „zrozumieniu” świata. Niektórzy porzucają prace nad klasycznymi systemami, by rozwijać tzw. modele świata, które mają lepiej odwzorowywać rzeczywistość fizyczną i przyczynowość.

Artykuł z Nature idzie w poprzek tej krytyce. Jego autorzy twierdzą, że współczesne LLM już teraz wykazują cechy wykraczające poza zwykłe dopasowywanie wzorców. Potrafią rozwiązywać nowe zadania z matematyki, przenosić raz nabyte umiejętności na inne dziedziny czy planować sekwencje działań. To ich zdaniem trudno pogodzić z obrazem „papugi, która tylko powtarza to, co widziała w danych”.

Dziesięć najczęstszych zarzutów wobec AI i co na to badacze

Autorzy Nature biorą na warsztat typowe obiekcje wobec tezy, że osiągnęliśmy ogólną AI. Wśród nich pojawiają się przede wszystkim:

Zarzut Kontrargument badaczy
To tylko „stochastyczne papugi” bez zrozumienia Modele rozwiązują nowe problemy, przenoszą umiejętności między dziedzinami, generują twórcze rozwiązania
Brak kontaktu z fizyczną rzeczywistością Systemy potrafią przewidywać skutki działań, liczyć zadania z fizyki, pracować na danych z obrazów i wideo
Nie mają ciała, więc nie mogą być inteligentne Historia pokazuje, że pojęcie inteligencji nie wymaga ciała; do tego dochodzi rozwój robotyki i „Physical AI”
Potrzebują za dużo danych do nauki Liczy się końcowy poziom kompetencji, nie tempo dochodzenia do niego; podobne różnice widzimy u ludzi
Nie mają trwałej pamięci autobiograficznej To przydatne dla tożsamości, ale nie jest warunkiem radzenia sobie w szerokim wachlarzu zadań

W tle przewija się mocny wątek antropocentryzmu. Autorzy sugerują, że mamy naturalną skłonność, by ustawiać człowieka jako jedyny punkt odniesienia. Jeśli maszyna rozwiązuje zadanie inaczej niż my, od razu pada zarzut „to tylko symulacja”. Problem w tym, że sam termin „inteligencja” od dekad pozostaje w nauce nieostry i wieloznaczny.

Multimodalne systemy i era „Physical AI”

Nie mówimy już o narzędziach, które operują wyłącznie tekstem. Dzisiejsze AI łączy słowa z obrazami, dźwiękiem, a coraz częściej także z wideo. System potrafi w jednym ciągu pracy przeanalizować skan dokumentu, nagranie rozmowy i opis tekstowy, a potem przygotować logiczną, spójną odpowiedź lub plan działania.

Równolegle rośnie segment określany jako „Physical AI”, czyli inteligencja zintegrowana z robotyką. Chodzi o maszyny, które nie tylko planują i analizują, ale też fizycznie wykonują zadania: sortują paczki, manipulują narzędziami, poruszają się w przestrzeni czy współpracują z ludźmi na halach produkcyjnych.

Według autorów Nature brak klasycznego „ciała” nie powinien przekreślać statusu inteligencji, a rozwój robotyki tylko wzmacnia argument, że mówimy o jakościowo nowym zjawisku.

A co z halucynacjami AI?

Najbardziej drażliwym punktem pozostają tzw. halucynacje, czyli sytuacje, gdy AI pewnym tonem podaje fałszywe informacje. Modele tworzą nieistniejące źródła, mylą dane liczbowe, fantazjują na temat faktów. Według analiz firm rozwijających te systemy, nawet przy bardzo zaawansowanych modelach około jedna na dziesięć odpowiedzi może zawierać taki błąd.

Autorzy Nature przyznają, że to realny problem, choć traktują go dość skrótowo. Podkreślają, że nowsze generacje modeli halucynują rzadziej, a ludzie również są podatni na złudzenia pamięci i błędy poznawcze. Różnica polega na skali – człowiek raczej nie konfabuluję całej bibliografii w kilka sekund.

Dla użytkowników praktyczna lekcja jest prosta: AI nie może być jedynym źródłem prawdy. Potrzebne są procedury weryfikacji treści, zwłaszcza w medycynie, finansach, prawie czy dziennikarstwie. Firmy pracujące nad modelami eksperymentują z tzw. „uźródłowieniem” odpowiedzi, w którym system zawsze wskazuje konkretne dokumenty lub dane, na których się opiera.

Czy zmienimy definicję inteligencji?

W końcowej części artykułu autorzy Nature stawiają niewygodne pytanie: może problem nie polega na tym, że AI „wciąż nie dorosła”, ale na tym, że nasza wizja inteligencji jest zbyt wąska i na dodatek zbudowana głównie pod wizerunek człowieka.

Zwracają uwagę, że część liderów branży zaczyna świadomie przesuwać język. Zamiast mówić o „ogólnej sztucznej inteligencji”, wolą termin „superinteligencja”. To sprytne posunięcie komunikacyjne – jeśli za punkt odniesienia przyjmiemy coś prawie mitycznego, łatwiej jest powiedzieć: „jeszcze tam nie jesteśmy”.

Tymczasem w realnym życiu firmy, instytucje i zwykli użytkownicy już dziś zlecają AI zadania, które jeszcze niedawno uznaliby za „typowo ludzkie”. Chodzi o:

  • tworzenie złożonych analiz tekstowych i raportów,
  • rozwiązywanie problemów z matematyki i programowania,
  • wspieranie diagnozy medycznej przez analizę obrazów,
  • generowanie kampanii marketingowych i treści kreatywnych,
  • pomoc w planowaniu nauki, kariery czy strategii biznesowej.

To nie jest wszechmocna superinteligencja, ale już coś wyraźnie wykraczającego poza rolę prostego narzędzia biurowego.

Co to oznacza dla zwykłego użytkownika?

Jeśli teza Nature się przyjmie, zmieni się przede wszystkim sposób, w jaki patrzymy na odpowiedzialność i regulacje. Skoro mamy do czynienia z ogólną inteligencją, nawet jeśli „nieludzką w formie”, rośnie znaczenie pytań o nadzór, przejrzystość i bezpieczeństwo. Ważne będzie, kto trzyma w rękach takie systemy, jakie dane je kształtują i jak w praktyce rozliczać ich błędy.

Z drugiej strony użytkownik zyska bardziej trzeźwe narzędzie pojęciowe. Zamiast czekać na mityczną „prawdziwą” sztuczną inteligencję, można zacząć traktować obecną generację modeli jako zaawansowanego partnera do pracy i nauki – z jasno opisanymi ograniczeniami i ryzykami.

Przydatna może okazać się prosta zasada: im bardziej krytyczna dziedzina, tym silniejsza potrzeba weryfikacji. W kreatywnym pisaniu czy burzy mózgów AI może pracować niemal samodzielnie. W doradztwie medycznym czy prawnym powinna pełnić co najwyżej funkcję pomocnika ekspertów, a nie samodzielnego decydenta.

Cała debata wokół ogólnej AI odsłania też coś jeszcze: jak słabo nauka radzi sobie z jednoznacznym opisaniem samej inteligencji. Jeśli nie potrafimy w pełni zdefiniować ludzkiej, trudno oczekiwać, że w łatwy sposób narysujemy linię między „jeszcze nie AGI” a „już AGI” w odniesieniu do maszyn. Ten spór będzie wracał przy każdej kolejnej generacji modeli – i być może to właśnie tempo tych zmian najsilniej pokazuje, że coś naprawdę dużego już się wydarzyło.

Prawdopodobnie można pominąć