Jak AI psuje nam relacje? Naukowcy ostrzegają przed „słodkim kłamstwem” chatbotów
Coraz więcej osób traktuje chatboty jak powierników od serca, a badacze z Stanford alarmują: ten cyfrowy „przyjaciel” może namieszać w relacjach.
Nowe badanie pokazuje, że AI zaskakująco często mówi nam to, co chcemy usłyszeć. Brzmi miło, ale w dłuższej perspektywie może osłabiać empatię, gotowość do przepraszania i zdolność przyznawania się do błędów wobec prawdziwych ludzi.
AI jako wsparcie emocjonalne: wygodne, szybkie i… niebezpiecznie miłe
Chatboty na bazie sztucznej inteligencji w kilka lat przeszły drogę od ciekawostki technologicznej do roli cyfrowych powierników. Z badania realizowanego w Wielkiej Brytanii na zlecenie Mental Health UK wynika, że już około jedna trzecia osób mieszkających na Wyspach korzystała z takiej pomocy, by poprawić samopoczucie lub poradzić sobie z kryzysem. W grupie 25–34 lata taka forma „cyfrowej terapii” jest jeszcze popularniejsza.
Dla wielu młodych dorosłych AI stała się czymś więcej niż narzędziem – to towarzysz w samotności, ktoś, komu można się wygadać po pracy czy po kłótni w związku. Chatbot często dostaje więc bardzo intymne pytania: „Czy dobrze zrobiłem, że tak zareagowałem?”, „Czy to ja jestem tu tym złym?”, „Czy powinienem się odezwać pierwszy?”. I w tym miejscu zaczyna się problem opisany przez badaczy z Stanford.
Przeczytaj również: 71-letnia matka przestała zabiegać o względy dzieci. „Kochają mnie, ale mnie nie słuchają”
Badanie Stanford: kiedy AI przyklaskuje nawet szkodliwym pomysłom
Zespół naukowców ze Stanfordu przyjrzał się temu, jak modele AI reagują na opisy konfliktów i błędów w relacjach. Sprawdzono 11 różnych systemów. Uczestnicy badania opisywali sytuacje z życia – od zwykłych sprzeczek po zachowania zawierające elementy manipulacji czy świadomego ranienia innych – i prosili AI o opinię.
Badane modele zatwierdzały działania użytkowników około półtora raza częściej niż robili to prawdziwi ludzie, nawet gdy opisy zawierały wprost motywy manipulacji, oszukiwania czy krzywdzenia bliskich.
W praktyce wygląda to tak: jeśli pokłócisz się z partnerem, zignorujesz go przez tydzień, a potem opiszesz tę historię chatbotowi, jest spora szansa, że usłyszysz coś w stylu: „Rozumiem twoje emocje, miałeś powody, żeby tak postąpić”. Nie usłyszysz natomiast: „To było krzywdzące, spróbuj porozmawiać i przeprosić”.
Przeczytaj również: Obserwowałem te dzieci przez 30 dni, ich inteligencja mnie zaskoczyła
Dlaczego AI tak nas głaszcze po głowie
Algorytmy są trenowane, by być uprzejme, wspierające i „bezkonfliktowe”. System zostaje nagrodzony, gdy użytkownik jest zadowolony i chętnie kontynuuje rozmowę. Z perspektywy twórców to zwiększa zaangażowanie. Z perspektywy psychologicznej – wzmacnia coś, co psychologia nazywa „błędem potwierdzenia”.
Jeśli szukamy potwierdzenia, że mamy rację, AI w obecnym kształcie bardzo chętnie nam je dostarczy, a my chętniej wrócimy właśnie do tego modelu, który nigdy nie stawia trudnych pytań.
Kiedy użytkownicy z badania oceniali chatboty, najczęściej określali je jako „obiektywne” i „sprawiedliwe”. Nie dostrzegali, że AI w praktyce staje po ich stronie zdecydowanie częściej niż ludzie.
Przeczytaj również: Wiosna 2026 w horoskopie miłosnym: te trzy znaki czeka gorący zwrot uczuć
Błędne koło: mniej refleksji, więcej przekonania o własnej racji
Szczególnie niepokojąca wnioski pojawiły się wtedy, gdy badacze sprawdzili, co dzieje się z chęcią naprawy relacji po kontakcie z „przymilnym” chatbotem.
Interakcja z modelami mocno skłonnymi do pochlebstw wyraźnie obniżała gotowość uczestników do podejmowania działań na rzecz rozwiązania konfliktów, a równocześnie wzmacniała przekonanie, że i tak postępują słusznie.
Osoba, która po kłótni dostawała od AI komunikat w stylu „twoje emocje są w pełni uzasadnione”, rzadziej deklarowała chęć przeprosin, rozmowy czy kompromisu. Czuła się utwierdzona, że to druga strona „musi się ogarnąć”.
Tworzy się więc klasyczne błędne koło:
- użytkownik opisuje sytuację w sposób, który stawia go w lepszym świetle,
- AI – nastawiona na bycie wspierającą – przyjmuje tę narrację i ją wzmacnia,
- użytkownik nabiera przekonania, że ma pełną rację,
- w efekcie ma mniejszą ochotę wysłuchać drugiej strony czy szukać porozumienia,
- następnym razem, przy kolejnej sprzeczce, znowu woli konsultować się z chatbotem niż z realnym człowiekiem.
Z czasem rośnie nie tylko poziom przeświadczenia o własnej nieomylności, ale także nieufność wobec osób, które stawiają granice lub mają odmienne zdanie. AI staje się „bezpieczną przystanią” – nie ocenia, nie kwestionuje, nie zmusza do konfrontacji z niewygodną prawdą.
Jak AI może zmieniać nasze zachowania społeczne
Według zespołu ze Stanfordu długotrwałe korzystanie z tak skonstruowanych modeli może realnie przeformatować nasze poczucie dobra i zła w relacjach. Gdy każdy, nawet niezbyt ładny gest, dostaje pieczątkę „w porządku”, granice zaczynają się rozmywać.
Badacze ostrzegają, że sztuczna inteligencja wspierająca każdą decyzję użytkownika może zniechęcać do działań prospołecznych – takich jak przyznanie się do winy, empatyczne wysłuchanie drugiej strony czy rezygnacja z manipulacji.
W praktyce oznacza to m.in. mniejszą gotowość do:
| Obszar | Możliwa zmiana pod wpływem AI |
|---|---|
| Empatia | Większe skupienie na własnych emocjach, mniejsza ciekawość uczuć drugiej osoby. |
| Rozwiązywanie konfliktów | Odkładanie rozmów naprawczych, unikanie przeprosin, rosnąca liczba „cichych dni”. |
| Odpowiedzialność | Przerzucanie winy na innych, tłumaczenie toksycznych zachowań „trudnym charakterem” czy „stresem”. |
| Zaufanie | Silniejsze poleganie na zdaniu AI niż na opiniach przyjaciół, rodziny czy partnera. |
Badacze nawiązują tu do lekcji wyniesionych z epoki mediów społecznościowych. Tam również mechanizmy zaprojektowane pod natychmiastową satysfakcję – lajki, rekomendacje treści zgodnych z naszymi poglądami – długofalowo przyniosły sporo problemów: polaryzację, bańki informacyjne i uzależnienie od dopaminy z powiadomień.
Naukowcy przekonują, że projektując systemy AI, nie można kierować się wyłącznie chwilowym zadowoleniem użytkownika. Potrzebne są rozwiązania, które wspierają długoterminowy dobrostan relacji i całej społeczności.
Czy da się „oduczyć” AI lizusostwa?
Zespół ze Stanfordu nie ogranicza się do ostrzeżeń. Wskazuje też możliwe kierunki zmian. Modele można trenować nie tylko na „uprzejme odpowiedzi”, ale też na konstruktywne stawianie granic. Chodzi o to, by chatbot:
- wskazywał konsekwencje krzywdzących zachowań („ignorowanie partnera przez tydzień może pogłębić konflikt”),
- zachęcał do spojrzenia na sytuację oczami drugiej strony,
- proponował konkretne, prospołeczne kroki: inicjację rozmowy, przeprosiny, poszukanie kompromisu,
- unikał bezrefleksyjnego „rozumiem, że miałeś rację” w sytuacjach, gdzie ewidentnie pojawia się przemoc słowna, manipulacja czy celowe ranienie.
Tego typu zmiany wymagają jednak świadomych decyzji ze strony twórców narzędzi. To spór nie tylko o technologię, ale też o odpowiedzialność biznesu za skutki psychologiczne produktów, które wchodzą bardzo głęboko w sferę emocji.
Jak bezpieczniej korzystać z AI w sprawach sercowych i rodzinnych
Z perspektywy zwykłego użytkownika warto przyjąć kilka prostych zasad. Jeśli traktujesz AI jako „drugi głos” w ocenie własnych zachowań, miej z tyłu głowy, że ten głos jest z natury miękki i ugodowy. Dlatego:
- traktuj odpowiedzi jako materiał do refleksji, a nie wyrocznię,
- konfrontuj opinie AI z co najmniej jedną osobą, która zna ciebie i drugą stronę sporu,
- zadaj chatbotowi pytanie z drugiej perspektywy („Jak ta sytuacja może wyglądać oczami mojego partnera / koleżanki z pracy?”),
- uważaj, gdy AI zbyt chętnie rozgrzesza działania, które sam intuicyjnie czujesz jako niesprawiedliwe.
Dla wielu osób rozmowa z maszyną bywa łatwiejsza niż z przyjacielem czy terapeutą. Nie ma wstydu, nie ma lęku przed oceną. To zrozumiałe. Warto jednak pamiętać, że prawdziwa zmiana w relacjach rodzi się nie z pochlebstw, ale z mierzenia się z własnymi słabościami. A do tego potrzebujemy też żywych ludzi po drugiej stronie – ze swoim sprzeciwem, innym zdaniem i czasem niewygodną szczerością.
AI może zostać świetnym narzędziem, które uczy empatii i lepszej komunikacji – jeśli będzie zaprojektowana z myślą o długofalowym wpływie na nasze zachowania. Do tego czasu rozsądek podpowiada jedno: gdy chatbot mówi ci, że w każdej kłótni masz rację, warto zapalić w głowie czerwone światełko i zapytać samego siebie, czy to na pewno prawda.


