Pracownicy karmią darmowego ChatGPT danymi firmowymi. Szefowie w panice szkolą z AI

Pracownicy karmią darmowego ChatGPT danymi firmowymi. Szefowie w panice szkolą z AI
Oceń artykuł

W biurach na całym świecie powtarza się ten sam scenariusz: ktoś z działu sprzedaży wrzuca do darmowej wersji ChatGPT bazę klientów, prawnik sprawdza projekt umowy, a HR prosi AI o analizę problemów kadrowych. Nikt nie zatrzymuje się na chwilę, by zadać pytanie: co dalej dzieje się z tymi informacjami i kto może je zobaczyć.

„Moi koledzy korzystają z darmowego ChatGPT jak z Google”

Coraz więcej menedżerów przyznaje prywatnie, że straciło kontrolę nad tym, jak ich zespoły używają generatywnej AI. Pracownicy instalują wtyczki, testują chatboty, kopiują treści z CRM, skrzynek mailowych czy dokumentów prawnych. Motywacja jest jasna: zaoszczędzić czas i nadążyć za rynkiem.

Największy problem nie polega na tym, że pracownicy używają AI, tylko że robią to bez świadomości konsekwencji dla bezpieczeństwa danych.

Wiele osób traktuje ChatGPT jak zwykłą wyszukiwarkę. Skoro od lat wpisują w Google zapytania z fragmentami dokumentów, dlaczego mieliby nie wkleić ich do chatbota, który dodatkowo umie coś z nich napisać, policzyć czy streścić? Tymczasem różnica jest zasadnicza: model może wykorzystywać wprowadzone informacje do dalszego trenowania i generowania odpowiedzi innym użytkownikom, zwłaszcza w wersjach konsumenckich.

Gorączka szkoleń z AI: od jednej sesji do całych programów

Na tym tle wybuchł rynek szkoleń z generatywnej AI. Firmy szkoleniowe raportują po kilka warsztatów tygodniowo, a kalendarze trenerów pękają w szwach. Zamawiają je zarówno wielkie korporacje, jak i średnie przedsiębiorstwa, które czują, że bez AI zostaną w tyle.

Typowy scenariusz wygląda tak: zarząd widzi, że ludzie już korzystają z ChatGPT, więc w trybie alarmowym zamawia szkolenie „jak robić to dobrze i bezpiecznie”. Rzadko jest to przemyślana strategia cyfrowej transformacji. To raczej gaszenie pożaru.

Po co firmom szkolenia z AI

  • podniesienie produktywności – szybsze pisanie ofert, raportów, analiz
  • uporządkowanie chaosu narzędzi i wtyczek używanych przez pracowników
  • ograniczenie ryzyka wycieku danych i naruszenia RODO
  • przygotowanie się do nowych regulacji dotyczących AI
  • zbudowanie wizerunku pracodawcy „na czasie”

W praktyce podczas takich warsztatów trenerzy opowiadają nie tylko o promptach i trikach, ale coraz częściej o tym, czego absolutnie nie wolno wklejać do chatu i jak rozróżniać wersje „dla konsumenta” od rozwiązań biznesowych, które da się skonfigurować tak, by nie trenowały się na danych firmy.

AI jako „scyzoryk” dla małych i średnich firm

Średnie przedsiębiorstwa, często z niewielkimi działami HR, prawnym czy analitycznym, patrzą na AI jak na narzędzie do łatania braków kadrowych. ChatGPT potrafi przygotować szkic umowy, opisać ogłoszenie rekrutacyjne, podpowiedzieć strukturę regulaminu, posortować dane w Excelu. Jeden pracownik może zrobić pracę trzech osób, o ile wie, jak zadawać pytania i sprawdzać odpowiedzi.

Dla wielu małych firm generatywna AI stała się cyfrowym „człowiekiem od wszystkiego”: od exela po marketing.

Tyle że im mniejsza organizacja, tym częściej brakuje w niej działu bezpieczeństwa, prawnika od RODO czy kogoś, kto rozumie techniczne niuanse chmur i modeli językowych. Zdarza się, że to szef sam namawia ludzi: „wrzuć to w ChatGPT, zobaczymy, co wymyśli”, nie zastanawiając się nad regulaminem usługi.

Produktywność kontra prywatność: ciche napięcie w biurach

W wielu firmach panuje schizofreniczna sytuacja: na slajdach zarządu stoi, że „AI to priorytet”, a jednocześnie dział bezpieczeństwa wysyła maile zakazujące wklejania jakichkolwiek danych firmowych do zewnętrznych chatbotów. Pracownicy dostają sprzeczne sygnały. Z jednej strony mają korzystać z nowinek, z drugiej – boją się kar za naruszenie procedur.

Cel korzystania z AI Co robią pracownicy Główne zagrożenie
Szybsza obsługa klienta Wklejają maile klientów do ChatGPT i proszą o odpowiedź Ujawnienie danych osobowych i historii kontaktu
Tworzenie dokumentów prawnych Sprawdzają projekty umów z danymi stron Wycieki informacji poufnych, klauzul, stawek
Analiza HR Proszenie AI o ocenę sytuacji kadrowej na bazie opisów Profilowanie pracowników, ryzyko dyskryminacji
Marketing i content Wysyłają do AI pliki z danymi klientów i kampanii Utrata przewagi konkurencyjnej, naruszenie tajemnicy

Trenerzy, którzy wchodzą dziś do sal szkoleniowych, często zaczynają od prostego pytania: „kto korzysta z ChatGPT w pracy?”. Ręce podnosi niemal cała sala. Następne pytanie: „kto zna politykę swojej firmy dotyczącą AI?”. Tym razem reaguje kilka osób. Ta różnica pokazuje skalę problemu.

Firmy w biegu piszą regulaminy i „kodeksy AI”

W odpowiedzi na dziki wzrost popularności generatywnej AI coraz więcej organizacji tworzy wewnętrzne zasady jej używania. Często są to dokumenty tworzone w ekspresowym tempie, przy udziale działu prawnego, IT i HR. Na razie przypominają połączenie zakazów i ogólnych zaleceń, ale stopniowo stają się bardziej szczegółowe.

Co zwykle zawiera firmowa polityka korzystania z AI

  • listę narzędzi, które są dozwolone i których nie wolno używać
  • jasny zakaz wklejania danych osobowych, finansowych, medycznych czy tajemnic handlowych do publicznych chatbotów
  • wymóg oznaczania treści przygotowanych z pomocą AI
  • zasadę, że człowiek zawsze bierze odpowiedzialność za wynik
  • procedurę zgłaszania błędów, nadużyć i podejrzanych sytuacji

Jednocześnie na rynku pojawiają się wyspecjalizowane „platformy AI dla firm”, które obiecują, że rozwiążą problem bezpieczeństwa: pracownik rozmawia z chatbotem, ale dane nie opuszczają infrastruktury organizacji, a model nie uczy się na wprowadzanych treściach. To kierunek, w którym zmierza wiele większych graczy.

Szkolenie to za mało: potrzebna jest elementarna higiena danych

Eksperci od bezpieczeństwa powtarzają, że jedno warsztatowe spotkanie nie zmieni nawyków. Tak jak w przypadku phishingu, trzeba stale przypominać pracownikom, czego nie wolno robić z danymi. Generatywna AI wręcz zachęca, by wrzucać jak najwięcej kontekstu – a to właśnie w tym kontekście kryje się najwięcej wrażliwych informacji.

Najrozsądniej traktować każdy publiczny chatbot jak otwartą przestrzeń: nic, czego nie powiesiłbyś na ogólnodostępnej tablicy, nie powinno trafić do okienka rozmowy.

Proste reguły, które mocno obniżają ryzyko, to m.in.: anonimizacja danych przed wklejeniem, zastępowanie nazw klientów i pracowników inicjałami lub opisami, korzystanie z wersji „enterprise” tylko z kontem firmowym oraz regularne czyszczenie historii rozmów, jeśli narzędzie na to pozwala.

Dlaczego firmy nie mogą „zablokować AI i mieć spokój”

Niektórzy dyrektorzy IT kuszą się na prostą odpowiedź: zablokować ChatGPT i podobne serwisy w sieci firmowej. W praktyce to rzadko działa. Pracownicy mają telefony, prywatne laptopy, domowe Wi‑Fi. Jeśli firma całkowicie zabroni używania AI, ludzie i tak znajdą sposób, by z niej korzystać – tylko jeszcze mniej świadomie i bez żadnego nadzoru.

Bardziej realistyczne podejście polega na tym, by wyjść przed szereg: udostępnić pracownikom bezpieczne narzędzia, jasno opisać zasady i równolegle uczyć ich podstawowych mechanizmów działania modeli językowych. Osoba, która rozumie, że AI generuje odpowiedzi statystycznie, a nie „wie”, ma inny poziom ostrożności w kontaktach z takim systemem.

Dla polskich firm ten wyścig dopiero się zaczyna. Wielu szefów zakłada, że temat ich „na razie nie dotyczy”, bo nie zatrudniają programistów i nie budują własnych algorytmów. Tymczasem wystarczy jeden ambitny handlowiec z darmowym kontem w ChatGPT, żeby do chmury poleciały prezentacje sprzedażowe, bazy leadów i maile z klientami.

AI w pracy nie jest już pytaniem „czy”, ale „jak”. Kto pierwszy połączy rozsądną politykę bezpieczeństwa z praktycznym szkoleniem i realnym dostępem do narzędzi, ten zyska przewagę. Kto zamknie oczy i będzie liczył, że „u nas ludzie z tego nie korzystają”, może obudzić się dopiero wtedy, gdy poufna informacja wypłynie na zewnątrz w pozornie anonimowej odpowiedzi jakiegoś chatbota.

Prawdopodobnie można pominąć