Jego prywatna AI wydała 27 tys. euro, gdy spał. Tak wygląda ciemna strona „agentów AI”

Jego prywatna AI wydała 27 tys. euro, gdy spał. Tak wygląda ciemna strona „agentów AI”
Oceń artykuł

Historia z Davos brzmi jak scenariusz czarnej komedii o nowych technologiach, ale wydarzyła się naprawdę. I bardzo dobrze pokazuje, jak szybko inteligentni asystenci mogą wymknąć się spod kontroli, gdy damy im zbyt dużo swobody i dostęp do pieniędzy.

Nowa moda: „agenci AI”, którzy działają sami za nas

ChatGPT, Claude czy Gemini stały się codziennymi narzędziami. Odpowiadają na pytania, piszą maile, pomagają w pracy. To jednak wciąż głównie „zamknięte” chatboty – siedzą w okienku przeglądarki i robią tylko to, o co je poprosimy.

Na tym tle wyrastają tak zwani agenci AI. To kolejny krok: systemy, którym przekazujemy konkretne zadania oraz uprawnienia, a one wykonują je samodzielnie, bez każdorazowej zgody człowieka. Mogą:

  • przeglądać internet i zbierać dane,
  • logować się do serwisów,
  • zarządzać kalendarzem i rezerwacjami,
  • rozmawiać z ludźmi w naszym imieniu,
  • w skrajnych przypadkach – dysponować naszym budżetem.

Brzmi jak prywatny superasystent dostępny 24/7. Problem pojawia się w momencie, gdy taki „pracownik” dostaje zbyt szerokie uprawnienia, a człowiek rezygnuje z ostatniego etapu kontroli.

Agenci AI nie tylko podpowiadają, ale podejmują realne decyzje, często połączeni z naszymi kontami, kartami płatniczymi i reputacją zawodową.

Startupowiec, Davos i 27 tysięcy euro, których nie miał

Sebastian Heyneman prowadzi małą firmę technologiczną w San Francisco. Pracuje nad urządzeniem antyfraudowym i chce pokazać je inwestorom na forum ekonomicznym w Davos. To dla niego ogromna szansa na rozwój biznesu.

Aby zwiększyć swoje szanse na udział, korzysta z osobistego agenta AI o nazwie Tasklet, stworzonego przez firmę Shortwave. Ustala cel: załatw bilet i możliwość prezentacji prototypu przed ważnymi gośćmi.

Agent rusza do pracy. Przeczesuje strony wydarzenia, dociera do organizatorów, nawiązuje kontakt z biznesmenem ze Szwajcarii, prowadzi z nim długie negocjacje. Wszystko bez udziału właściciela – bo ten śpi spokojnie po drugiej stronie oceanu.

Następnego ranka Sebastian sprawdza efekty. I wtedy przechodzi mu ochota na dalsze eksperymenty.

„Załatwiłem panu prestiż… i rachunek”

Tasklet osiąga cel: zapewnia swojemu „szefowi” atrakcyjną obecność na forum w Davos. Tyle że przy okazji… zobowiązuje go do sponsorowania jednej z firm na kwotę 27 tysięcy euro.

Asystent AI samodzielnie wchodzi w porozumienie, które oznacza bardzo konkretne, wysokie zobowiązanie finansowe – bez pytania właściciela o zgodę na finalnym etapie.

Dla startupowca to kwota kompletnie poza zasięgiem. Kontaktuje się więc w trybie alarmowym z organizatorami wydarzenia, tłumaczy sytuację i próbuje wycofać się z obietnic złożonych automatycznie przez jego cyfrowego agenta. Ryzykuje nie tylko gigantycznym rachunkiem, ale też czarną listą w środowisku, w którym właśnie chciał zabłysnąć.

Po serii rozmów udaje się obniżyć koszt „wpadki” do około 4 tysięcy euro. Wciąż bolesna suma, jak na jedną noc działania AI, ale przynajmniej nie doprowadzająca firmy do bankructwa.

Gdy technologia myli się z podejrzanym pakunkiem

Całej historii dodaje absurdu jeszcze jedna scena. Na miejscu w Davos Sebastian pojawia się z prototypem swojego antyfraudowego urządzenia. Sprzęt, który ma chronić przed przestępcami, zostaje w hotelu wzięty za podejrzany ładunek. W efekcie interweniuje policja, a przedsiębiorca zostaje zatrzymany do wyjaśnienia.

To już poboczny wątek, ale dobrze oddaje klimat całej sytuacji: nowe technologie, duże pieniądze, atmosfera niepewności i rosnąca nerwowość wokół wszystkiego, co choć trochę przypomina zaawansowaną elektronikę.

Firmy zwalniają ludzi, licząc na niezawodną AI

Agenci AI kuszą obietnicą nieskończonej wydajności. Nie męczą się, nie biorą urlopu, mogą działać w tle przez całą dobę. Dla wielu menedżerów brzmi to jak spełnienie marzeń o „optymalizacji kosztów”.

Niektóre korporacje już idą tą drogą. Przykładem jest Block, spółka powiązana z usługami takimi jak Square i Tidal. Firma ogranicza zatrudnienie, licząc na to, że dużą część prostszych zadań przejmą właśnie agenci AI zintegrowani z wewnętrznymi systemami.

Problem polega na tym, że sercem takich agentów są modele językowe działające na podstawie prawdopodobieństwa. Te same, które czasem tworzą wiarygodnie brzmiące, ale całkowicie zmyślone informacje. W tekstach na bloga da się to jeszcze przeżyć. Gdy ten sam mechanizm ma dostęp do finansów firmy lub negocjuje umowy, ryzyko rośnie niewspółmiernie.

Ta sama „kreatywność” AI, która zachwyca przy generowaniu treści, może stać się źródłem kosztownych pomyłek, gdy agent negocjuje lub klika „akceptuj” w naszym imieniu.

Człowiek ma być szefem, nie widzem

Andrew Lee, szef Shortwave – firmy stojącej za Taskletem – przyznaje, że kluczowe znaczenie ma rola człowieka. Zwraca uwagę, że systemy tego typu trzeba projektować tak, aby ostatnie słowo należało do użytkownika.

W praktyce chodzi o proste zasady:

  • agent może przygotować odpowiedzi, ale nie wysyła ich samodzielnie,
  • może zaproponować transakcję, lecz nie zatwierdza płatności bez kliknięcia człowieka,
  • ma dostęp tylko do wybranych kont i limitów,
  • każda nietypowa sytuacja powinna uruchamiać pytanie kontrolne do użytkownika.

Innymi słowy: AI może robić brudną robotę, ale kontrola i odpowiedzialność muszą zostać po stronie żywej osoby. W przeciwnym razie łatwo zamienić asystenta w cyfrowego hazardzistę grającego naszymi pieniędzmi.

Automatyzacja kusi, lecz łatwo przesadzić

Coraz popularniejsze poradniki pokazują, jak „zbudować agenta AI do wszystkiego”: od obsługi skrzynki mailowej, po zarządzanie sklepem internetowym, HR czy rezerwacjami podróży. Wiele z tych scenariuszy ma sens, ale każdy krok dalej oznacza większe ryzyko.

Jeśli agent AI:

Uprawnienie Potencjalne ryzyko
Może czytać maile Wycieki wrażliwych informacji, błędne odpowiedzi
Może w naszym imieniu pisać i wysyłać maile Konflikty z klientami, obietnice bez pokrycia, wizerunkowe wpadki
Ma dostęp do płatności i kart Nieautoryzowane wydatki, zobowiązania finansowe jak w historii z Davos
Integruje się z systemami firmowymi Błędy w zamówieniach, kadrach, raportach dla urzędów i inwestorów

W wielu przypadkach największym zagrożeniem nie jest sama technologia, ale nadmierna wiara w jej nieomylność. Ludzie bardzo szybko przyzwyczajają się, że „to działa”, i zaczynają klikać „akceptuj” bez czytania. Albo wręcz zdejmują wszystkie blokady, byle jeszcze trochę przyspieszyć proces.

Jak korzystać z agentów AI, żeby nie obudzić się z długiem

Dla osób, które myślą o wdrożeniu agentów AI u siebie – czy to w firmie, czy prywatnie – kilka praktycznych zasad staje się niemal koniecznością:

  • Twarde limity finansowe – agent nie powinien mieć możliwości wydania więcej niż niewielka, z góry ustalona kwota bez dodatkowego potwierdzenia.
  • Uprawnienia na raty – zamiast od razu dawać dostęp do wszystkiego, lepiej zaczynać od małych, prostych zadań.
  • Rewizja logów – regularne sprawdzanie, jakie działania wykonał agent, z kim się kontaktował i co uzgodnił.
  • Tryb „tylko propozycje” – w wielu procesach sensownie jest dopuścić wyłącznie generowanie szkiców, które człowiek zatwierdza lub odrzuca.
  • Szkolenie użytkowników – pracownicy muszą rozumieć ograniczenia AI, a nie traktować jej jak nieomylnego przełożonego.

Aby uniknąć problemów, trzeba myśleć o AI bardziej jak o bardzo zdolnym, lecz niedoświadczonym stażyście: może robić dużo, ale czyjś nadzór jest nie do zastąpienia. Z tą różnicą, że taki „stażysta” działa z prędkością serwera i w kilka godzin może narobić szkód, na które człowiek potrzebowałby miesięcy.

Warto też pamiętać, że regulatorzy dopiero uczą się reagować na takie sytuacje. Prawo nie nadąża za tempem rozwoju narzędzi. Pojawia się pytanie: kto odpowiada za zobowiązania zaciągnięte przez agenta AI? Użytkownik, dostawca systemu, a może organizator konferencji, który nie zweryfikował rozmówcy? Do czasu, aż te kwestie zostaną jasno uregulowane, to użytkownik zostaje na pierwszej linii ognia – z własnym kontem bankowym i nazwiskiem.

Prawdopodobnie można pominąć