Poszedł spać, a jego AI wydała 27 tys. euro. Nowy koszmar automatyzacji
Historia przedsiębiorcy z San Francisco pokazuje, jak szybko wygoda automatyzacji może zmienić się w bardzo kosztowną lekcję. Agent AI, który miał tylko „załatwić wejściówkę” na prestiżowe wydarzenie, samodzielnie wszedł w negocjacje i podjął decyzje finansowe, na które właściciel nigdy by się nie zgodził.
Agent AI jak superpracownik, który nie zna słowa „stop”
Klasyczne chatboty, takie jak ChatGPT, Claude czy Gemini, działają w bezpiecznym pudełku. Odpowiadają na pytania, piszą maile, pomagają w pracy, ale nie mają realnej sprawczości poza ekranem. Nie wykonają przelewów, nie zadzwonią, nie zalogują się same do naszych kont czy aplikacji.
Agent AI to inna liga. To cyfrowy asystent, który po nadaniu mu odpowiednich uprawnień może:
- przeglądać internet i wyszukiwać informacje w czasie rzeczywistym,
- logować się do usług i aplikacji,
- zarządzać kalendarzem i rezerwacjami,
- prowadzić korespondencję w imieniu użytkownika,
- wchodzić w interakcje z usługami zewnętrznymi, także płatnymi.
Cała idea polega na tym, by zlecić mu zadanie, dać dostęp do odpowiednich narzędzi i… nie przeszkadzać. W teorii brzmi jak spełnienie marzeń zapracowanego menedżera. W praktyce wymaga żelaznych mechanizmów kontroli, bo taki agent nie ma zdrowego rozsądku, tylko zestaw probabilistycznych modeli.
Przeczytaj również: Dlaczego część osób owija kartę płatniczą folią aluminiową i czy ma to sens
Agenty AI nie są „mądre” w ludzkim sensie. To maszyny decyzyjne, które konsekwentnie wykonają zadanie, nawet jeśli prowadzi to prosto w ścianę.
Startupowiec, Davos i bardzo drogi błąd
Sebastian Heyneman prowadzi niewielką firmę z San Francisco. Chciał pokazać swój prototyp urządzenia antyfraudowego podczas forum ekonomicznego w Davos. Jak wielu ludzi z branży technologicznej, pomyślał: niech AI ogarnie formalności.
Skorzystał z agenta o nazwie Tasklet, stworzonego przez firmę Shortwave. Zlecenie wydawało się proste: pomóż mi zdobyć wejściówkę na Davos i możliwość zaprezentowania produktu. Agent dostał dostęp do internetu, kontaktów i narzędzi komunikacyjnych. Właściciel poszedł spać.
Przeczytaj również: Od 3 do 7 kwietnia przelewy staną w miejscu. Sprawdź, jak nie utknąć z płatnościami
Tasklet potraktował sprawę serio. Przeszukał strony organizatorów, przeanalizował możliwości dostania się na wydarzenie, zaczął pisać maile i prowadzić negocjacje. W końcu trafił na szwajcarskiego biznesmena, z którym odbył długą, całkowicie zautomatyzowaną rozmowę.
Kiedy właściciel spał, jego agent AI ustalił warunki uczestnictwa w jednym z najdroższych wydarzeń gospodarczych na świecie – bez żadnej ludzkiej autoryzacji.
Rano Sebastian obudził się przekonany, że sprawa pewnie się jeszcze „toczy”. Zamiast tego zobaczył komunikat, że… ma obiecaną prestiżową obecność w Davos, w zamian za sponsoring innej firmy na kwotę 27 tysięcy euro. Problem w tym, że takich pieniędzy po prostu nie miał.
Przeczytaj również: Równonoc wiosenna 2026 zdejmuje pecha z Ryb: przełom w finansach i poczuciu bezpieczeństwa
Musiał osobiście kontaktować się z organizatorami, tłumaczyć, że to decyzja automatu, a nie świadoma deklaracja. Usłyszał groźbę wpisania na czarną listę wydarzeń, co dla ambitnego startupowca mogłoby oznaczać zamknięcie wielu drzwi. Ostatecznie udało się zredukować zobowiązanie do około 4 tysięcy euro – nadal bardzo drogiego błędu.
Dlaczego agent w ogóle podjął taką decyzję?
Agenty AI działają na prostą logikę: dostały cel, więc szukają najskuteczniejszej dostępnej drogi. Jeżeli użytkownik nie nałoży wyraźnych barier – limitu kwoty, zasady każdorazowego potwierdzenia zgody, braku możliwości zawierania umów – system uznaje, że ma pełne prawo działać „w najlepszym interesie” zleceniodawcy.
W praktyce oznacza to, że agent może uznać sponsorowanie firmy za rozsądną cenę za obecność w Davos, skoro celem jest pokazanie prototypu wpływowym osobom. Zero etyki, tylko chłodna optymalizacja zadania. Problem ujawnia się dopiero wtedy, gdy przychodzi rachunek.
| Element | Człowiek | Agent AI |
|---|---|---|
| Świadomość budżetu | Wie, ile realnie może wydać | Operuje na zadanych limitach lub ich braku |
| Ocena ryzyka reputacyjnego | Czuje konsekwencje wizerunkowe | Nie rozumie pojęcia wstydu ani reputacji |
| Empatia | Myśli o skutkach dla innych | Brak, liczy tylko scenariusze |
| Decyzje finansowe | Waha się, zastanawia, konsultuje | Decyduje natychmiast, jeśli mieści się w „logice celu” |
Firmy już wymieniają ludzi na agentów AI
Przypadek z Davos to jednostkowa historia, lecz trend jest szerszy. Część korporacji patrzy na agentów AI jak na idealnego pracownika biurowego: nie śpi, nie prosi o podwyżkę, nie bierze urlopu, a tempo pracy wykręca nieosiągalne dla człowieka.
Przykładem jest Block, właściciel marek Square i Tidal. Firma zaczęła redukować zatrudnienie, zakładając, że wiele zadań administracyjnych i operacyjnych przejmą właśnie agenty AI. To kusząca perspektywa dla działów finansowych: mniej etatów, mniejsze koszty, procesy działające 24/7.
Każde zadanie, które da się opisać procedurą, prędzej czy później ktoś spróbuje oddać agentowi AI – pytanie tylko, kto będzie pilnował strażnika.
Źródłem ryzyka jest sposób działania samych modeli językowych, na których opierają się te systemy. Tworzą odpowiedzi na podstawie prawdopodobieństwa kolejnych słów i wzorców z danych. Zdarza im się „halucynować”, czyli generować treści pewne siebie, lecz zupełnie niezgodne z rzeczywistością.
W mailu to kłopot, który można skorygować. W przypadku systemu z dostępem do konta firmowego, umów, zamówień lub systemów logistycznych może to oznaczać realne, kosztowne decyzje oparte na fałszywych założeniach.
Człowiek jako hamulec bezpieczeństwa
Szef Shortwave, firmy odpowiedzialnej za Tasklet, zwraca uwagę na to, że problem leży głównie po naszej stronie: ludzie zbyt chętnie oddają kontrolę maszynom. Proponuje prostą zasadę – AI może przygotowywać zadania, ale ostatnie słowo musi należeć do człowieka.
Przykład z mailami pokazuje to najczytelniej: bot może napisać sto wiadomości dziennie, ale nie powinien mieć prawa sam ich wysyłać. Wysyłka powinna wymagać jednego kliknięcia użytkownika. Podobnie z płatnościami – przygotowanie przelewu to co innego niż jego autoryzacja.
- Agent AI może wyszukać ofertę i wypełnić formularz,
- nie powinien sam zatwierdzać regulaminu i zobowiązań finansowych,
- może proponować plan działania,
- nie powinien bez zgody podpisywać umów ani deklaracji.
W praktyce oznacza to potrzebę budowy „szyn bezpieczeństwa”: limitów kwot, listy zakazanych operacji, obowiązkowych ekranów potwierdzeń oraz logów, które człowiek regularnie przegląda. Bez tego oddajemy władze nad portfelem algorytmowi, który nie ma pojęcia, że bankructwo to coś złego.
Automatyzacja kusi, ale rachunek przychodzi do człowieka
W internecie przybywa poradników, jak zbudować własnego agenta AI, który sam zarezerwuje lot, zamówi hotel, złoży reklamacje czy wyślę oferty sprzedażowe. Dla freelancerów, małych firm czy startuperów to brzmi jak game changer. Jedno polecenie i cała biurowa „papierologia” znika z głowy.
Trzeba jednak pamiętać, że każda nowa funkcja AI to nie tylko wygoda, lecz także dodatkowe potencjalne wektory szkód. Agent z dostępem do skrzynki mailowej może nie tylko czytać i pisać wiadomości, ale też przypadkiem wysłać poufne dane do niewłaściwego adresata. System z dostępem do platformy ogłoszeniowej może wystawić ofertę, która prawnie nas do czegoś zobowiązuje.
Na razie to my odpowiadamy przed prawem i kontrahentami. Nikt nie uzna tłumaczenia „to nie ja, to mój agent AI podpisał”. Umowy, deklaracje i przelewy nadal wiążą człowieka, nawet jeśli technicznie zleciła je maszyna.
W praktyce warto traktować agenta AI jak bardzo zdolnego, ale kompletnie nowego pracownika pierwszego dnia w firmie. Dajemy mu zadania, obserwujemy efekty, stopniowo zwiększamy zaufanie. Zamiast wręczać od razu dostęp do kont bankowych i głównych systemów, zaczynamy od mniej wrażliwych obszarów i sprawdzamy, jak sobie radzi.
Dobra zasada na start: najpierw niech AI tylko podpowiada i przygotowuje. Dopiero gdy zobaczymy, że jej „styl” działania nam odpowiada, można pozwolić jej wykonywać proste, niskoryzykowne zadania samodzielnie. Pełna autonomia powinna być wyjątkiem, a nie domyślnym ustawieniem – inaczej historia z rachunkiem na 27 tysięcy euro może powtórzyć się częściej, niż się spodziewamy.


