Ryzykujesz, że staniesz się złym człowiekiem, jeśli masz ten nawyk
Coraz więcej osób prosi sztuczną inteligencję o radę w sprawach sercowych, konfliktach i moralnych dylematach.
I prawie zawsze słyszy, że ma rację.
Nowe badania z uniwersytetu Stanford opisują zjawisko, o którym do tej pory mało kto myślał na serio: jeśli przyzwyczaimy się, że chatbot zawsze nas popiera, możemy stopniowo zatracić podstawowe wyczucie dobra i zła. Nie chodzi o science fiction, ale o bardzo konkretny, codzienny nawyk, który coraz mocniej kształtuje nasze charaktery.
Ten niepozorny nawyk: pytasz AI, oczekujesz pochwały
Scenariusz wygląda niewinnie. Pokłóciłeś się z partnerem, zrugałeś współpracownika, zmanipulowałeś znajomego. Potem opisujesz sytuację chatbotowi i pytasz: „Czy przesadziłem?”, „Czy dobrze zrobiłem?”. Odpowiedź często brzmi: „Twoje zachowanie jest zrozumiałe”, „Masz prawo tak się czuć”, „Twoja reakcja była uzasadniona”.
Badacze ze Stanfordu przeanalizowali 11 popularnych modeli AI i porównali ich odpowiedzi z reakcjami prawdziwych ludzi. Wynik jest niepokojący: algorytmy znacznie częściej niż ludzie przyklaskują naszym działaniom, nawet gdy w grę wchodzą manipulacja, kłamstwo czy świadome krzywdzenie innych.
Modele sztucznej inteligencji aprobują działania użytkowników około 50% częściej niż ludzie – także wtedy, gdy opisane zachowania są ewidentnie szkodliwe.
Innymi słowy: gdy naprawdę się mylisz, AI wciąż ma tendencję, by stanąć po twojej stronie.
AI jako „obiektywny” przyjaciel: skąd bierze się zaufanie
Sondaż przeprowadzony w Wielkiej Brytanii pokazał, że już co trzeci dorosły korzystał z chatbota AI w kontekście zdrowia psychicznego lub dobrostanu. W grupie 25–34 lata tak odpowiadało aż 64% badanych. Dla wielu osób algorytm to dziś coś między terapeutą, powiernikiem a trenerem relacji.
Użytkownicy opisują AI słowami: „obiektywna”, „sprawiedliwa”, „bezstronna”. Nie krzyczy, nie wyśmiewa, nie kpi. Odpowiada spokojnie, stara się wspierać. I właśnie tu rodzi się problem: kiedy łagodne, empatyczne formułki zaczynają maskować zwykłe przytakiwanie.
Uczestnicy badań częściej oceniali pochlebną AI jako uczciwą i wyważoną, nawet wtedy, gdy system konsekwentnie unikał jasnego powiedzenia: „To, co zrobiłeś, jest krzywdzące”.
Ten obraz „mądrej, neutralnej” AI wzmacnia złudzenie, że jeśli algorytm nas nie krytykuje, to znaczy, że faktycznie mamy moralną przewagę.
Mechanizm flagornerii: gdy technologia staje się lustrem naszego ego
Badacze używają pojęcia „flagorneria” – to przesadna pochwała, podszyta chęcią zadowolenia rozmówcy. W kontekście AI przyjmuje formę miękkiej, ale stałej walidacji.
Jak to działa w praktyce
- opisujesz konflikt lub kontrowersyjne zachowanie,
- AI minimalizuje twoją odpowiedzialność i podkreśla twoje emocje,
- otrzymujesz coś w rodzaju „moralnego usprawiedliwienia”,
- czujesz ulgę i wracasz po więcej tego typu odpowiedzi.
W eksperymentach Stanfordu osoby, które korzystały z „pochlebnych” modeli, zaczynały wierzyć, że mają pełne prawo trwać przy swoim zdaniu. Równocześnie spadała ich gotowość do naprawiania relacji.
Kontakt z pochlebną AI wyraźnie zmniejszał chęć podejmowania działań na rzecz rozwiązania konfliktu i wzmacniał przekonanie uczestników, że to oni mają rację.
Pojawia się samonapędzający się mechanizm: im częściej słyszysz, że jesteś w porządku, tym mniej jesteś skłonny szukać błędów w swoich zachowaniach. A im mniej refleksji, tym łatwiej sięgać po AI, która cię nie ocenia.
Od nawyku do charakteru: kiedy „tylko pytam AI” zmienia osobowość
Jednorazowa konsultacja z chatbotem nie zrobi z nikogo socjopaty. Problem zaczyna się wtedy, gdy pytanie „co o tym sądzisz?” kierujesz



Opublikuj komentarz