Firmy w panice szkolą z AI, a pracownicy wylewają dane do darmowego ChatGPT
Coraz więcej firm rzuca się na szkolenia z AI, ale jednocześnie traci kontrolę nad tym, jakie dane trafiają do darmowych chatbotów.
Na spotkaniach z doradcami i trenerami AI menedżerowie mówią wprost: ich zespoły korzystają z bezpłatnej wersji ChatGPT i podobnych narzędzi bez żadnych zasad, wklejając do nich umowy, prezentacje zarządu czy dane klientów. W tle trwa gorączkowy wyścig o produktywność, w którym mało kto ma czas, by najpierw przemyśleć ryzyko.
Gorączka szkoleń z AI: „kto się nie nauczy, ten zostanie w tyle”
W opisywanym we Francji przypadku szef niewielkiej firmy budowlanej zdecydował się wysłać wszystkich pracowników na intensywne szkolenie z AI. Ma 18 osób w zespole, niewielki dział administracji i duże oczekiwania wobec nowych narzędzi: szybkie tworzenie wzorów umów, opisów stanowisk, automatyzacja arkuszy Excel, wstępna analiza ryzyk prawnych.
AI w firmach zaczyna pełnić rolę cyfrowego „scyzoryka”: od pisania maili i ofert po analizę dokumentów i raportów.
Dla małych i średnich biznesów to kusząca perspektywa. Nie stać ich na duże działy prawne czy rozbudowany backoffice, więc marzą, by część tych zadań przejął chatbot. Trenerzy opisują sytuacje, w których po jednym warsztacie zespół zaczyna robić w kilka godzin to, co wcześniej zajmowało dwa dni.
W rezultacie firmy masowo zamawiają szkolenia. Agencje wyspecjalizowane w AI prowadzą po kilkaset warsztatów miesięcznie: od kilkunastoosobowych zespołów handlowych po całe działy w międzynarodowych korporacjach. Małe przedsiębiorstwa są szybsze i bardziej spontaniczne, duże działają wolniej, ale tworzą programy szkoleń na skalę tysięcy pracowników.
Ciemna strona zachwytu: dane firmowe w darmowych chatbotach
Za tym entuzjazmem kryje się jednak drugi obraz. Coraz częściej osoby odpowiedzialne za bezpieczeństwo IT mówią z niepokojem, że pracownicy korzystają z darmowego ChatGPT jak z wyszukiwarki lub notatnika – bez refleksji, co wklejają do okna czatu.
Pojawiają się historie, w których do chatu trafiają:
- pełne umowy z klientami, razem z nazwami firm i stawkami,
- tabele z danymi sprzedażowymi, numerami faktur i segmentacją klientów,
- wewnętrzne prezentacje strategiczne,
- dane osobowe pracowników przy tworzeniu opisów stanowisk.
Ryzyko nie dotyczy samego narzędzia, ale tego, że nikt w firmie nie powiedział jasno: czego absolutnie nie wolno wklejać do chatu.
Część użytkowników zakłada intuicyjnie, że rozmowa z chatbotem jest „prywatna” i traktuje go jak cyfrowego asystenta. Nie czytają regulaminów, nie interesują się, gdzie i jak długo przechowywane są wpisane treści. W wielu firmach nie ma nawet najprostszej instrukcji, co jest informacją poufną i jak ją chronić, gdy w grę wchodzi AI.
Dlaczego firmy tak się spieszą z wdrażaniem AI
Źródłowy tekst opisuje zjawisko widoczne dziś w wielu krajach: presja na szybkie wdrożenie AI przychodzi z kilku stron naraz.
| Źródło presji | Co odczuwa firma |
|---|---|
| Konkurencja | Obawa, że rywale zyskają przewagę kosztową i czasową, bo szybciej zautomatyzują procesy. |
| Pracownicy | Oczekiwanie nowoczesnych narzędzi, frustracja przy żmudnych zadaniach, chęć rozwoju umiejętności. |
| Zarząd i inwestorzy | Żądanie wyższej produktywności i redukcji kosztów, raportów o „strategii AI”. |
| Rynek pracy | Poszukiwanie ludzi, którzy potrafią łączyć swoją specjalizację z biegłym użyciem AI. |
W takim klimacie pojawia się proste hasło: „jak najszybciej przeszkolić wszystkich”. Szefowie wolą zaryzykować i działać, niż czekać i analizować. Trenerzy obserwują, że firmy często zamawiają cykl warsztatów zanim w ogóle spiszą minimalne zasady korzystania z AI.
Wewnętrzne szkolenie z AI to za mało, jeśli brak reguł
Typowy warsztat dla firm trwa od kilku godzin do dwóch dni. Uczestnicy uczą się pisać lepsze prompt’y, korzystać z funkcji podsumowań, generować konspekty dokumentów, analizować arkusze danych. Dla wielu osób to pierwszy świadomy kontakt z narzędziami generatywnymi.
Bez czytelnej polityki AI pracownicy zyskają supermoc, ale bez instrukcji bezpieczeństwa – trochę jakby dać wszystkim klucze do serwerowni.
Trenerzy podkreślają, że najskuteczniejsze programy w firmach łączą trzy elementy:
W części opisanych firm bezpieczeństwo danych doczepia się na końcu jako krótki slajd z ogólnymi hasłami. Przy tak dynamicznym wzroście popularności AI to zwyczajnie za mało – ludzie zapamiętają efekt „wow” z generowania tekstów, a nie dwa ostrzeżenia z finału prezentacji.
Co robią bardziej świadome organizacje
Niektóre firmy, widząc skalę ryzyka, zaczynają wprowadzać bardziej przemyślane rozwiązania. Zamiast po prostu zakazać ChatGPT, uruchamiają:
- własne, zamknięte chatboty działające na wewnętrznych serwerach lub w chmurze z umową regulującą wykorzystanie danych,
- kontrolę dostępu, gdzie pracownik loguje się firmowym kontem i ma jasno opisaną politykę prywatności,
- gotowe szablony promptów, które pomagają korzystać z AI bez ujawniania danych wrażliwych.
W części organizacji AI trafia też do programów wdrożeniowych dla nowych osób. Tak jak kiedyś uczono obsługi systemu CRM czy wewnętrznego intranetu, dziś uczy się od pierwszych dni pracy: „tu masz narzędzie AI, tu są zasady, na tych danych możesz pracować, tych informacji nie wolno wynosić do usług zewnętrznych”.
Polityka AI: kilka prostych reguł, które zmieniają dużo
Specjaliści ds. bezpieczeństwa zwracają uwagę, że wiele problemów da się ograniczyć, jeśli firma od początku postawi kilka prostych, zrozumiałych zasad. Przykłady takich reguł:
- zakaz wklejania pełnych umów i danych osobowych do otwartych chatbotów,
- wymóg anonimizacji: usuwanie nazw firm, numerów zamówień, danych kontaktowych,
- korzystanie z kont firmowych tam, gdzie to możliwe, zamiast prywatnych,
- cykliczne krótkie sesje przypominające, połączone z realnymi przykładami naruszeń.
Takie podejście zmniejsza napięcie między działem biznesowym, który chce przyspieszać procesy, a działem bezpieczeństwa, który pilnuje ryzyka. Zamiast blokować wszystko, organizacja uczy, jak korzystać z AI odpowiedzialnie.
Czego brakuje w wielu programach szkoleń z AI
O ile entuzjazm do narzędzi generatywnych jest ogromny, o tyle rzadziej mówi się pracownikom, że chatboty nie są nieomylne. W praktyce wciąż powtarzają się te same błędy:
- bezrefleksyjne kopiowanie wygenerowanych tekstów do umów, ofert czy raportów,
- brak sprawdzania liczb i cytatów,
- powierzanie AI zadań, które wymagają oceny etycznej lub znajomości specyficznego prawa.
Produkt AI to propozycja, szkic, punkt wyjścia – nie gotowa prawda. Ten komunikat wciąż nie przebija się wystarczająco mocno w wielu szkoleniach.
W efekcie firmy ryzykują nie tylko wyciekiem danych, ale też zwyczajnymi błędami merytorycznymi w dokumentach wysyłanych do klientów, sądów czy urzędów. W kontekście prawa pracy, ochrony konsumentów czy inwestycji takie pomyłki mogą być kosztowne.
Co z tego wynika dla firm w Polsce
Choć opisany materiał bazuje na doświadczeniach z rynku francuskiego, w polskich firmach widać bardzo podobne trendy. Zespoły same „oswajają” ChatGPT, zanim powstanie jakakolwiek oficjalna strategia. Szkolenia pojawiają się błyskawicznie, bo dobrze sprzedają się frazy „AI”, „automatyzacja” i „produktywność”.
Dobrym ruchem jest odwrócenie kolejności: najpierw prosta, ogólnofirmowa polityka korzystania z AI, później dopiero szerokie wdrażanie i zachęcanie wszystkich do eksperymentowania. To nie wymaga skomplikowanych dokumentów – wystarczy kilka stron jasnych reguł, przykłady dopasowane do branży i osoba odpowiedzialna za aktualizowanie tych wytycznych wraz ze zmianami technologii.
Dla pracowników taki kierunek też jest korzystny. Zamiast bać się konsekwencji korzystania z ChatGPT czy innych narzędzi, dostają poczucie bezpieczeństwa: wiedzą, co jest dozwolone, a co może naruszać przepisy lub tajemnicę przedsiębiorstwa. Wtedy szkolenia z AI przestają być modnym dodatkiem, a stają się realnym wsparciem w codziennej pracy.


