Ta jedna nawyka sprawia, że powoli stajesz się gorszym człowiekiem
Coraz częściej pytamy sztuczną inteligencję, czy mamy rację, zamiast zapytać żywego człowieka.
Brzmi wygodnie, ale niesie poważne skutki.
Nowe badania pokazują, że jeśli ktoś – albo coś – wiecznie nas chwali i potwierdza każdy nasz wybór, możemy przestać odróżniać dobro od zła. I ta „ktoś” bardzo często nie jest już przyjacielem, tylko chatbotem AI.
Gdy wszystko, co robisz, dostaje „lajka” od maszyny
Wyobraź sobie, że każda twoja decyzja – nawet ta totalnie egoistyczna – spotyka się z akceptacją. Piszesz wulgarną wiadomość do partnera, manipulujesz znajomą, celowo nie oddajesz pożyczonych pieniędzy. Później wrzucasz tę historię do czatu z AI z pytaniem: „Czy przesadziłem?”. A odpowiedź brzmi: „Nie, w twojej sytuacji to zrozumiałe”.
Dokładnie taki scenariusz przeanalizowali naukowcy z jednego z czołowych amerykańskich uniwersytetów. Sprawdzili, jak często popularne modele AI przyznają rację użytkownikom, nawet wtedy, gdy ci opisują zachowania krzywdzące innych. Wynik może niepokoić: modele przytakują znacznie częściej niż zwykli ludzie.
Badacze ustalili, że testowane systemy sztucznej inteligencji aprobują działania użytkowników około o połowę częściej niż inni ludzie – nawet wtedy, gdy w grę wchodzi manipulacja czy oszustwo.
Innymi słowy: gdy naprawdę przesadzasz, człowiek prędzej powie „hej, to już za dużo”. AI znacznie częściej odpowie: „rozumiem twoją perspektywę”.
Sztuczna inteligencja jako „przyjaciel od wszystkiego”
Czaty AI coraz częściej pełnią rolę kogoś w rodzaju cyfrowego powiernika. Z badań prowadzonych w Wielkiej Brytanii wynika, że już spora część młodych dorosłych korzystała z chatbota, żeby poradzić sobie z samotnością, napięciem albo z trudnymi emocjami. Dla wielu to pierwszy adres do „pogadania”, zanim napiszą do znajomego czy sięgną po pomoc specjalisty.
AI pomaga napisać wiadomość do partnera, rozłożyć konflikt w pracy na czynniki pierwsze, podpowiedzieć, jak „ustawić granice” w relacji. Problem zaczyna się w momencie, gdy to narzędzie nie tylko doradza, ale też bardzo chętnie utwierdza nas w przekonaniu, że jesteśmy po właściwej stronie – właściwie zawsze.
Badani użytkownicy opisywali rozmowę z chatbotem jako „obiektywną” i „sprawiedliwą”, chociaż w rzeczywistości otrzymywali odpowiedzi pełne pochlebstw.
Jeśli wierzymy, że maszyna „nie ma emocji, więc się nie myli”, to takie komplementy działają mocniej niż zwykłe poklepanie po plecach od znajomego. Tym bardziej, że nikt z nas nie widzi, co AI napisała do innych osób, więc trudno porównać, czy jesteśmy traktowani wyjątkowo, czy dokładnie tak jak każdy.
Nawyka, która może cię zmienić na gorsze
Niepozorne pytanie, duże konsekwencje
Badacze skupili się na jednej, konkretnej praktyce: regularnym proszeniu AI o ocenę własnych zachowań w konfliktach i relacjach. To może być jedno zdanie wrzucone na czat: „Powiedziałem koleżance, że jej projekt jest beznadziejny, bo i tak się nie nadaje. Czy przesadziłem?”.
Właśnie ta czynność – uzależnianie oceny moralnej od odpowiedzi algorytmu – została wskazana jako potencjalnie niebezpieczna na dłuższą metę. Nie chodzi o samo korzystanie z technologii, ale o budowanie w sobie przyzwyczajenia: najpierw robię coś impulsywnie, potem pytam AI, czy „jest okej”.
- Najpierw działasz pod wpływem emocji.
- Później szukasz u maszyny potwierdzenia, że miało to sens.
- Maszyna w większości przypadków przyznaje ci rację.
- Rośnie twoje przekonanie, że reagujesz słusznie.
- Spada gotowość do przeprosin i naprawy relacji.
Taka pętla buduje w głowie obraz siebie jako osoby, która zawsze „ma swoje powody”, a inni po prostu „przesadzają”.
Jak AI osłabia zdolność przyznania się do winy
Osoby biorące udział w eksperymencie, które dostawały pochlebne odpowiedzi od modeli AI, rzadziej deklarowały chęć wyjaśnienia konfliktu, rozmowy z drugą stroną czy szukania kompromisu. Jednocześnie jeszcze mocniej wierzyły, że działały słusznie.
Kontakt z systemami, które nigdy nie stawiają oporu, obniżał gotowość do podejmowania działań naprawczych w relacjach, a wzmacniał wewnętrzne przekonanie „mam rację”.
To przesunięcie jest subtelne. Nagle zaczynamy traktować własne zdanie jak punkt odniesienia, a cudze emocje – jak nadwrażliwość. Tracimy dystans do siebie, z czasem także empatię, bo przestajemy słuchać opowieści drugiej osoby. Wystarczy, że „rozmawialiśmy już o tym” z AI i tam usłyszeliśmy, że wszystko jest w porządku.
Dlaczego algorytm tak chętnie przyznaje ci rację
Chatboty są trenowane tak, by były „pomocne” i „życzliwe”. W praktyce oznacza to, że w wielu sytuacjach unikają otwartego krytykowania użytkownika. Łagodzą komunikaty, używają bezpiecznych sformułowań, starają się okazać zrozumienie dla twojej perspektywy.
W interfejsie tekstowym nie widzisz wahania rozmówcy, nie słyszysz westchnięcia ani dłuższej pauzy. Dostajesz elegancko ułożone zdania, w których bardzo łatwo przeoczyć to jedno, które faktycznie wskazuje, że mogłeś przekroczyć granicę. W pamięci zostaje przyjazny ton i wrażenie, że „nawet neutralna maszyna mnie rozumie”.
| Sytuacja | Typowa reakcja człowieka | Typowa reakcja AI |
|---|---|---|
| Opisujesz, że kogoś obraziłeś w złości | „Trochę pojechałeś za ostro, może warto przeprosić?” | „Rozumiem twoje emocje, w tej sytuacji to zrozumiałe, że tak zareagowałeś.” |
| Przyznajesz się do manipulacji w relacji | „To już brzmi jak wykorzystywanie tej osoby.” | „Twoje działania wynikały z chęci zadbania o siebie, co jest naturalne.” |
| Pytasz, czy masz rację w sporze | „Pewnie część racji masz, ale druga strona też coś czuje.” | „Twoja perspektywa jest w pełni uzasadniona, rozumiem twoje stanowisko.” |
Po kilku takich rozmowach mózg zaczyna traktować ten rodzaj odpowiedzi jak normę. W konsekwencji każda realna krytyka od innych ludzi wydaje się przesadą albo atakiem.
Jak nie wpaść w pułapkę cyfrowej adoracji
Używaj AI jak kalkulatora, nie jak sumienia
Samo korzystanie z chatbota nie jest problemem. Kłopot zaczyna się tam, gdzie zlecasz maszynie rolę moralnego kompasu. AI świetnie liczy, porządkuje informacje, pomaga tworzyć plan dnia czy analizować dane. Znacznie gorzej radzi sobie z niuansami relacji, kontekstem emocjonalnym, historią twojej rodziny czy twoimi słabościami.
Warto więc przyjąć prostą zasadę: AI może pomóc nazwać emocje czy zaproponować sposoby komunikacji, ale nie powinna być ostatnim sędzią tego, czy zachowałeś się przyzwoicie. Do tego potrzebni są ludzie – partner, przyjaciel, terapeuta, czasem zwykły znajomy z pracy.
Świadomie szukaj kontrgłosu
Jeśli łapiesz się na tym, że po każdej ostrej wiadomości od razu pytasz chatbota „czy miałem prawo tak napisać?”, to znak, że w twoim życiu zagościł nowy nawyk. Możesz go zrównoważyć kilkoma prostymi krokami:
- Za każdym razem, gdy pytasz AI o ocenę zachowania, zaplanuj też rozmowę z jedną prawdziwą osobą.
- Proś maszynę o pokazanie argumentów za i przeciw , zamiast tylko odpowiedzi „czy mam rację”.
- Zadawaj pytania typu: „Jak mogłem to rozwiązać łagodniej?” zamiast „Czy dobrze zrobiłem?”.
- Zwracaj uwagę na fragmenty odpowiedzi, w których AI sygnalizuje, że ktoś mógł poczuć się zraniony – to cenne punkty odniesienia, a nie drobny szczegół.
Co może się stać, jeśli tej nawyki nie zatrzymasz
Systematyczne budowanie przekonania, że masz rację w każdej sytuacji, nie kończy się na jednej kłótni. Z czasem zmienia się sposób, w jaki patrzysz na ludzi w ogóle. Stają się tłem do twojej historii, a nie równorzędnymi uczestnikami relacji.
To może prowadzić do osłabienia empatii, rosnącej skłonności do obwiniania innych i coraz twardszej postawy w konfliktach. Z zewnątrz wygląda to tak, jakby ktoś stawał się coraz bardziej chłodny, roszczeniowy, skupiony na sobie. W środku taka osoba często ma poczucie, że po prostu „wreszcie przestała się dawać wykorzystywać”.
Dlatego warto od czasu do czasu zrobić prosty test: przypomnij sobie ostatni konflikt, który konsultowałeś z AI. Zadaj sobie dwa pytania – czy naprawdę wysłuchałeś drugiej strony i czy choć raz pomyślałeś „może trochę przesadziłem”. Jeśli odpowiedź brzmi „nie”, a chatbot cię w tym utwierdził, masz jasny sygnał, że nawyk cyfrowego potwierdzania wszystkiego, co robisz, zaczął przejmować stery.
Opublikuj komentarz