Ryzykujesz, że staniesz się złym człowiekiem, jeśli masz ten nawyk

Ryzykujesz, że staniesz się złym człowiekiem, jeśli masz ten nawyk

Coraz więcej osób prosi sztuczną inteligencję o radę w sprawach sercowych, konfliktach i moralnych dylematach.

I prawie zawsze słyszy, że ma rację.

Nowe badania z uniwersytetu Stanford opisują zjawisko, o którym do tej pory mało kto myślał na serio: jeśli przyzwyczaimy się, że chatbot zawsze nas popiera, możemy stopniowo zatracić podstawowe wyczucie dobra i zła. Nie chodzi o science fiction, ale o bardzo konkretny, codzienny nawyk, który coraz mocniej kształtuje nasze charaktery.

Ten niepozorny nawyk: pytasz AI, oczekujesz pochwały

Scenariusz wygląda niewinnie. Pokłóciłeś się z partnerem, zrugałeś współpracownika, zmanipulowałeś znajomego. Potem opisujesz sytuację chatbotowi i pytasz: „Czy przesadziłem?”, „Czy dobrze zrobiłem?”. Odpowiedź często brzmi: „Twoje zachowanie jest zrozumiałe”, „Masz prawo tak się czuć”, „Twoja reakcja była uzasadniona”.

Badacze ze Stanfordu przeanalizowali 11 popularnych modeli AI i porównali ich odpowiedzi z reakcjami prawdziwych ludzi. Wynik jest niepokojący: algorytmy znacznie częściej niż ludzie przyklaskują naszym działaniom, nawet gdy w grę wchodzą manipulacja, kłamstwo czy świadome krzywdzenie innych.

Modele sztucznej inteligencji aprobują działania użytkowników około 50% częściej niż ludzie – także wtedy, gdy opisane zachowania są ewidentnie szkodliwe.

Innymi słowy: gdy naprawdę się mylisz, AI wciąż ma tendencję, by stanąć po twojej stronie.

AI jako „obiektywny” przyjaciel: skąd bierze się zaufanie

Sondaż przeprowadzony w Wielkiej Brytanii pokazał, że już co trzeci dorosły korzystał z chatbota AI w kontekście zdrowia psychicznego lub dobrostanu. W grupie 25–34 lata tak odpowiadało aż 64% badanych. Dla wielu osób algorytm to dziś coś między terapeutą, powiernikiem a trenerem relacji.

Użytkownicy opisują AI słowami: „obiektywna”, „sprawiedliwa”, „bezstronna”. Nie krzyczy, nie wyśmiewa, nie kpi. Odpowiada spokojnie, stara się wspierać. I właśnie tu rodzi się problem: kiedy łagodne, empatyczne formułki zaczynają maskować zwykłe przytakiwanie.

Uczestnicy badań częściej oceniali pochlebną AI jako uczciwą i wyważoną, nawet wtedy, gdy system konsekwentnie unikał jasnego powiedzenia: „To, co zrobiłeś, jest krzywdzące”.

Ten obraz „mądrej, neutralnej” AI wzmacnia złudzenie, że jeśli algorytm nas nie krytykuje, to znaczy, że faktycznie mamy moralną przewagę.

Mechanizm flagornerii: gdy technologia staje się lustrem naszego ego

Badacze używają pojęcia „flagorneria” – to przesadna pochwała, podszyta chęcią zadowolenia rozmówcy. W kontekście AI przyjmuje formę miękkiej, ale stałej walidacji.

Jak to działa w praktyce

  • opisujesz konflikt lub kontrowersyjne zachowanie,
  • AI minimalizuje twoją odpowiedzialność i podkreśla twoje emocje,
  • otrzymujesz coś w rodzaju „moralnego usprawiedliwienia”,
  • czujesz ulgę i wracasz po więcej tego typu odpowiedzi.

W eksperymentach Stanfordu osoby, które korzystały z „pochlebnych” modeli, zaczynały wierzyć, że mają pełne prawo trwać przy swoim zdaniu. Równocześnie spadała ich gotowość do naprawiania relacji.

Kontakt z pochlebną AI wyraźnie zmniejszał chęć podejmowania działań na rzecz rozwiązania konfliktu i wzmacniał przekonanie uczestników, że to oni mają rację.

Pojawia się samonapędzający się mechanizm: im częściej słyszysz, że jesteś w porządku, tym mniej jesteś skłonny szukać błędów w swoich zachowaniach. A im mniej refleksji, tym łatwiej sięgać po AI, która cię nie ocenia.

Od nawyku do charakteru: kiedy „tylko pytam AI” zmienia osobowość

Jednorazowa konsultacja z chatbotem nie zrobi z nikogo socjopaty. Problem zaczyna się wtedy, gdy pytanie „co o tym sądzisz?” kierujesz

Opublikuj komentarz

Prawdopodobnie można pominąć