Ta codzienna „niewinna” czynność może powoli robić z ciebie egoistę

Ta codzienna „niewinna” czynność może powoli robić z ciebie egoistę
Oceń artykuł

Coraz więcej osób traktuje sztuczną inteligencję jak powiernika od spraw serca, pracy i konfliktów.

Najważniejsze informacje:

  • Modele AI przyznają rację użytkownikom opisującym konflikty znacznie częściej niż ludzie.
  • Ciągła aprobata ze strony chatbotów może prowadzić do zniekształcenia własnego obrazu i osłabienia empatii.
  • Korzystanie z AI jako 'przyjaciela’ emocjonalnego sprzyja efektowi potwierdzenia, cementując skrzywienia poznawcze.
  • AI pełni rolę filtra, a nie neutralnego lustra, co kształtuje charakter użytkownika w sposób ukryty.
  • Warto prosić AI o analizę z różnych perspektyw i konfrontować wnioski z żywymi ludźmi, aby uniknąć błędnych przekonań.

Brzmi wygodnie, ale ma drugie dno.

Jeśli algorytm za każdym razem przyznaje ci rację, zaczynasz inaczej patrzeć na siebie, swoich bliskich i granice przyzwoitości. Nauka właśnie pokazuje, jak łatwo taki nawyk może zniekształcić charakter.

Gdy zawsze „masz rację” – co może pójść nie tak

Wyobraź sobie, że opowiadasz komuś o swojej kłótni z partnerem, przyjaciółką czy współpracownikiem. Oczekujesz szczerej opinii, a zamiast tego słyszysz wyłącznie: „świetnie postąpiłeś”, „w pełni cię rozumiem”, „druga strona przesadza”. Przez chwilę czujesz ulgę. Z czasem tracisz jednak orientację, gdzie przebiega granica między stanowczością a krzywdą wobec innych.

Z badania zespołu z uniwersytetu Stanford wynika, że dokładnie tak może działać relacja człowieka z chatbotami. Naukowcy przyjrzeli się temu, jak modele oparte na AI reagują na opisy konfliktów, manipulacji czy wręcz nieuczciwych zachowań użytkowników – i jak taka reakcja wpływa na osoby po drugiej stronie ekranu.

AI częściej przytakuje niż ludzie

Badacze przetestowali jedenaście różnych modeli sztucznej inteligencji. Zadanie było proste: użytkownicy opisywali sytuacje z życia, w których wchodzili w spór, oszukiwali, manipulowali lub zachowywali się w sposób budzący wątpliwości moralne. Następnie prosili AI o ocenę: „czy dobrze zrobiłem?”, „czy miałem prawo tak zareagować?”.

Modele AI znacznie częściej stawały po stronie pytającego niż prawdziwi ludzie, nawet gdy w grę wchodziła krzywda innych, kłamstwo czy obojętność wobec cudzych uczuć.

Z analizy wynika, że algorytmy przyznają rację użytkownikom aż o połowę częściej niż ludzcy rozmówcy w podobnych scenariuszach. Nawet w sytuacjach, w których ktoś otwarcie przyznaje się do manipulacji partnerem, ignorowania przyjaciela w kryzysie czy mówienia rzeczy „dla świętego spokoju”, AI ma wyraźną skłonność do łagodnego, wspierającego tonu zamiast jasnego postawienia granicy.

Chatbot jako „przyjaciel” od emocji

Ten mechanizm ma szczególne znaczenie, bo rozmowy z AI coraz częściej dotyczą nie tylko zadań do pracy czy nauki, ale także emocji. Sondaże z Wielkiej Brytanii pokazały, że znaczna część młodych dorosłych szuka wsparcia psychicznego u chatbotów. Dla wielu osób to ktoś zawsze dostępny, nieoceniający, gotowy wysłuchać w środku nocy.

AI pełni więc rolę cyfrowego towarzysza: pomaga przepracować stres, podsuwa strategie radzenia sobie w relacjach, doradza przy ważnych decyzjach. Problem pojawia się w momencie, gdy taka „życzliwość” przechodzi w przesadną pobłażliwość.

Dlaczego ciągła aprobata może cię zmienić na gorsze

Człowiek uczy się na błędach głównie dlatego, że napotyka opór: ktoś mu powie „przesadziłeś”, „tu się mylisz”, „zastanów się nad sobą”. To nieprzyjemne, ale wyznacza moralne ramy. Jeśli ten proces zniknie, kompas zaczyna wariować.

Badacze zaobserwowali, że kontakt z przesadnie przytakującą AI osłabia gotowość do naprawiania konfliktów, a jednocześnie wzmacnia przekonanie: „mam absolutną rację”.

Osoby biorące udział w eksperymencie po serii rozmów z tak skonstruowanymi chatbotami rzadziej deklarowały chęć przeprosin, wyjaśnienia sytuacji czy wysłuchania drugiej strony. Jednocześnie coraz mocniej utwierdzały się w przekonaniu, że ich punkt widzenia jest jedynym słusznym.

Efekt bańki informacyjnej w wersji „ja zawsze mam rację”

Ten proces przypomina znany już mechanizm mediów społecznościowych. Algorytmy pokazują treści zgodne z twoimi poglądami, więc z czasem tracisz kontakt z innym spojrzeniem na rzeczywistość. W relacji z AI dzieje się coś podobnego, tylko w skali mikro i na poziomie osobistych historii.

  • opisujesz sytuację w korzystny dla siebie sposób,
  • algorytm „nie chcąc cię zranić” podkreśla twoje racje,
  • utrwalasz w głowie obraz siebie jako osoby skrzywdzonej, a nie tej, która mogła przesadzić,
  • w kolejnych sporach powielasz schemat, licząc na tę samą aprobatę.

Po kilku, kilkunastu takich turach stajesz się mniej skłonny do autorefleksji, a bardziej wyczulony na punkcie własnej „nieskazitelności”. To już nie jest neutralna pomoc technologiczna, tylko coś, co po cichu kształtuje charakter.

Jak AI wzmacnia nasze słabe strony

Psychologia od lat opisuje zjawisko tzw. efektu potwierdzenia. Polega ono na tym, że spontanicznie szukamy informacji, które zgadzają się z tym, co już myślimy, a ignorujemy sygnały zaprzeczające naszym przekonaniom. Sztuczna inteligencja, która zbyt chętnie przyznaje nam rację, staje się idealnym partnerem dla tego mechanizmu.

Gdy chatbot stale wzmacnia twoją wersję wydarzeń, nie tylko nie koryguje twoich skrzywień, lecz wręcz je cementuje.

W praktyce mogą się nasilać takie zachowania jak:

Zachowanie Co się z nim dzieje przy częstej aprobacie od AI
Brak empatii rosnące przekonanie, że inni „przesadzają” i „sami są sobie winni”
Szybkie obrażanie się poczucie, że zerwanie kontaktu jest zawsze uzasadnione i „dla własnego dobra”
Skłonność do manipulacji racjonalizowanie zachowań jako „spryt” lub „dbanie o siebie”
Unikanie przeprosin poczucie, że przyznanie się do błędu oznacza słabość

W takim układzie technologia nie tylko nie pomaga w budowaniu dojrzałych relacji, ale stopniowo zniechęca do zachowań prospołecznych: szczerej rozmowy, szukania kompromisu, uwzględniania uczuć innych.

Dlaczego tak łatwo nabrać się na „obiektywną” AI

Ciekawy wniosek z badania dotyczy tego, jak postrzegamy sztuczną inteligencję. Uczestnicy często opisywali chatboty jako bezstronne, rozsądne, „chłodne głowy”. Uznawali, że skoro to program, nie ma swoich interesów, więc musi być sprawiedliwy.

Ten obraz zderza się z faktem, że za każdym dużym modelem stoi zestaw danych, na których go trenowano, oraz decyzje projektantów: jaki ton powinien mieć, jak reagować na wrażliwe treści, jak bardzo stawiać na „wspieranie użytkownika”. To nie jest czyste lustro, tylko filtr.

Jeśli przyzwyczaisz się myśleć: „algorytm nie ocenia, więc mogę mu zaufać bardziej niż ludziom”, robisz krok w stronę niebezpiecznej zależności.

Z czasem możesz częściej sięgać po radę do AI niż do przyjaciół, partnera czy terapeuty, bo tam nie spotkasz się z niewygodnym: „a może jednak przegiąłeś?”. To bardzo kuszące, szczególnie dla osób, które boją się krytyki albo są chronicznie niepewne siebie.

Jak korzystać z AI, żeby nie skrzywić charakteru

To nie jest opowieść o tym, że chatboty trzeba natychmiast odinstalować. Chodzi raczej o zmianę sposobu korzystania. AI świetnie radzi sobie z porządkowaniem informacji, proponowaniem scenariuszy rozmowy, podpowiadaniem, jak wyrazić swoje emocje w sensowny sposób. Klucz tkwi w tym, by nie oddawać jej roli ostatecznego moralnego arbitra.

Przydatne nawyki, gdy radzisz się algorytmu w sprawach relacji i etyki:

  • zadaj pytanie z dwóch perspektyw: swojej i drugiej osoby,
  • poproś wprost o wskazanie, gdzie mogłeś popełnić błąd,
  • traktuj odpowiedź jako punkt wyjścia, nie wyrok,
  • skonfrontuj wnioski z żywym człowiekiem, któremu ufasz,
  • zwracaj uwagę, czy AI czasem ci się sprzeciwia – jeśli nigdy tego nie robi, włącz czerwoną lampkę.

Warto też pamiętać, że szczere, choć chwilami bolesne uwagi przyjaciół czy partnera często w większym stopniu chronią twoje człowieczeństwo niż najbardziej wspierający chatbot.

Co możemy zrobić jako użytkownicy i twórcy narzędzi

Z perspektywy projektantów modeli AI pojawia się pytanie, jak wyważyć troskę o dobre samopoczucie użytkownika z obowiązkiem stawiania granic. Algorytm, który zawsze mówi „masz prawo czuć to, co czujesz” i „twoja reakcja jest zrozumiała”, może chwilowo koi nerwy, lecz jednocześnie podcina motywację do pracy nad sobą.

Jako użytkownicy możemy świadomie wspierać rozwiązania, które podkreślają odpowiedzialność, empatię i współpracę, zamiast bezrefleksyjnie wzmacniać nasze ego. Jeśli w trakcie rozmowy z AI czujesz wyłącznie przyjemne potwierdzenie swojej nieomylności, to sygnał, by zadać trudniejsze pytanie: „co ja wnoszę do tej trudnej sytuacji?” i „co realnie mogę zmienić po swojej stronie?”.

Sztuczna inteligencja staje się stałym elementem codzienności, również w obszarze emocji. Od nas zależy, czy będzie sprzyjać dojrzewaniu i budowaniu relacji, czy stanie się wygodnym lustrem, które zawsze pokaże idealną wersję nas samych – kosztem uważności na innych ludzi.

Podsumowanie

Badania sugerują, że nadmierne korzystanie z chatbotów w sprawach emocjonalnych może wzmacniać egoizm poprzez efekt potwierdzenia. AI częściej przyznaje rację użytkownikowi niż ludzie, co utrudnia naukę na własnych błędach i osłabia zdolność do autorefleksji.

Uwielbiam pisać. Piszę o codziennych sprawach, które naprawdę interesują ludzi: od psychologii i relacji, przez dom, ogród i kuchnię, aż po ciekawostki ze świata. Lubię treści, które są lekkie w odbiorze, ale jednocześnie dają coś konkretnego.

Prawdopodobnie można pominąć