Firmy w panice szkolą z AI, a pracownicy wylewają dane do darmowego ChatGPT

Firmy w panice szkolą z AI, a pracownicy wylewają dane do darmowego ChatGPT
4.5/5 - (55 votes)

Coraz więcej firm rzuca się na szkolenia z AI, ale jednocześnie traci kontrolę nad tym, jakie dane trafiają do darmowych chatbotów.

Na spotkaniach z doradcami i trenerami AI menedżerowie mówią wprost: ich zespoły korzystają z bezpłatnej wersji ChatGPT i podobnych narzędzi bez żadnych zasad, wklejając do nich umowy, prezentacje zarządu czy dane klientów. W tle trwa gorączkowy wyścig o produktywność, w którym mało kto ma czas, by najpierw przemyśleć ryzyko.

Gorączka szkoleń z AI: „kto się nie nauczy, ten zostanie w tyle”

W opisywanym we Francji przypadku szef niewielkiej firmy budowlanej zdecydował się wysłać wszystkich pracowników na intensywne szkolenie z AI. Ma 18 osób w zespole, niewielki dział administracji i duże oczekiwania wobec nowych narzędzi: szybkie tworzenie wzorów umów, opisów stanowisk, automatyzacja arkuszy Excel, wstępna analiza ryzyk prawnych.

AI w firmach zaczyna pełnić rolę cyfrowego „scyzoryka”: od pisania maili i ofert po analizę dokumentów i raportów.

Dla małych i średnich biznesów to kusząca perspektywa. Nie stać ich na duże działy prawne czy rozbudowany backoffice, więc marzą, by część tych zadań przejął chatbot. Trenerzy opisują sytuacje, w których po jednym warsztacie zespół zaczyna robić w kilka godzin to, co wcześniej zajmowało dwa dni.

W rezultacie firmy masowo zamawiają szkolenia. Agencje wyspecjalizowane w AI prowadzą po kilkaset warsztatów miesięcznie: od kilkunastoosobowych zespołów handlowych po całe działy w międzynarodowych korporacjach. Małe przedsiębiorstwa są szybsze i bardziej spontaniczne, duże działają wolniej, ale tworzą programy szkoleń na skalę tysięcy pracowników.

Ciemna strona zachwytu: dane firmowe w darmowych chatbotach

Za tym entuzjazmem kryje się jednak drugi obraz. Coraz częściej osoby odpowiedzialne za bezpieczeństwo IT mówią z niepokojem, że pracownicy korzystają z darmowego ChatGPT jak z wyszukiwarki lub notatnika – bez refleksji, co wklejają do okna czatu.

Pojawiają się historie, w których do chatu trafiają:

  • pełne umowy z klientami, razem z nazwami firm i stawkami,
  • tabele z danymi sprzedażowymi, numerami faktur i segmentacją klientów,
  • wewnętrzne prezentacje strategiczne,
  • dane osobowe pracowników przy tworzeniu opisów stanowisk.

Ryzyko nie dotyczy samego narzędzia, ale tego, że nikt w firmie nie powiedział jasno: czego absolutnie nie wolno wklejać do chatu.

Część użytkowników zakłada intuicyjnie, że rozmowa z chatbotem jest „prywatna” i traktuje go jak cyfrowego asystenta. Nie czytają regulaminów, nie interesują się, gdzie i jak długo przechowywane są wpisane treści. W wielu firmach nie ma nawet najprostszej instrukcji, co jest informacją poufną i jak ją chronić, gdy w grę wchodzi AI.

Dlaczego firmy tak się spieszą z wdrażaniem AI

Źródłowy tekst opisuje zjawisko widoczne dziś w wielu krajach: presja na szybkie wdrożenie AI przychodzi z kilku stron naraz.

Źródło presji Co odczuwa firma
Konkurencja Obawa, że rywale zyskają przewagę kosztową i czasową, bo szybciej zautomatyzują procesy.
Pracownicy Oczekiwanie nowoczesnych narzędzi, frustracja przy żmudnych zadaniach, chęć rozwoju umiejętności.
Zarząd i inwestorzy Żądanie wyższej produktywności i redukcji kosztów, raportów o „strategii AI”.
Rynek pracy Poszukiwanie ludzi, którzy potrafią łączyć swoją specjalizację z biegłym użyciem AI.

W takim klimacie pojawia się proste hasło: „jak najszybciej przeszkolić wszystkich”. Szefowie wolą zaryzykować i działać, niż czekać i analizować. Trenerzy obserwują, że firmy często zamawiają cykl warsztatów zanim w ogóle spiszą minimalne zasady korzystania z AI.

Wewnętrzne szkolenie z AI to za mało, jeśli brak reguł

Typowy warsztat dla firm trwa od kilku godzin do dwóch dni. Uczestnicy uczą się pisać lepsze prompt’y, korzystać z funkcji podsumowań, generować konspekty dokumentów, analizować arkusze danych. Dla wielu osób to pierwszy świadomy kontakt z narzędziami generatywnymi.

Bez czytelnej polityki AI pracownicy zyskają supermoc, ale bez instrukcji bezpieczeństwa – trochę jakby dać wszystkim klucze do serwerowni.

Trenerzy podkreślają, że najskuteczniejsze programy w firmach łączą trzy elementy:

  • praktyczny trening z narzędziami (np. ChatGPT, Copilot, narzędzia wbudowane w pakiet biurowy),
  • jasne zasady ochrony danych: co można, czego nie wolno wrzucać do zewnętrznych usług,
  • konkretne scenariusze użycia dopasowane do działu – inne dla HR, inne dla prawników, inne dla sprzedaży.
  • W części opisanych firm bezpieczeństwo danych doczepia się na końcu jako krótki slajd z ogólnymi hasłami. Przy tak dynamicznym wzroście popularności AI to zwyczajnie za mało – ludzie zapamiętają efekt „wow” z generowania tekstów, a nie dwa ostrzeżenia z finału prezentacji.

    Co robią bardziej świadome organizacje

    Niektóre firmy, widząc skalę ryzyka, zaczynają wprowadzać bardziej przemyślane rozwiązania. Zamiast po prostu zakazać ChatGPT, uruchamiają:

    • własne, zamknięte chatboty działające na wewnętrznych serwerach lub w chmurze z umową regulującą wykorzystanie danych,
    • kontrolę dostępu, gdzie pracownik loguje się firmowym kontem i ma jasno opisaną politykę prywatności,
    • gotowe szablony promptów, które pomagają korzystać z AI bez ujawniania danych wrażliwych.

    W części organizacji AI trafia też do programów wdrożeniowych dla nowych osób. Tak jak kiedyś uczono obsługi systemu CRM czy wewnętrznego intranetu, dziś uczy się od pierwszych dni pracy: „tu masz narzędzie AI, tu są zasady, na tych danych możesz pracować, tych informacji nie wolno wynosić do usług zewnętrznych”.

    Polityka AI: kilka prostych reguł, które zmieniają dużo

    Specjaliści ds. bezpieczeństwa zwracają uwagę, że wiele problemów da się ograniczyć, jeśli firma od początku postawi kilka prostych, zrozumiałych zasad. Przykłady takich reguł:

    • zakaz wklejania pełnych umów i danych osobowych do otwartych chatbotów,
    • wymóg anonimizacji: usuwanie nazw firm, numerów zamówień, danych kontaktowych,
    • korzystanie z kont firmowych tam, gdzie to możliwe, zamiast prywatnych,
    • cykliczne krótkie sesje przypominające, połączone z realnymi przykładami naruszeń.

    Takie podejście zmniejsza napięcie między działem biznesowym, który chce przyspieszać procesy, a działem bezpieczeństwa, który pilnuje ryzyka. Zamiast blokować wszystko, organizacja uczy, jak korzystać z AI odpowiedzialnie.

    Czego brakuje w wielu programach szkoleń z AI

    O ile entuzjazm do narzędzi generatywnych jest ogromny, o tyle rzadziej mówi się pracownikom, że chatboty nie są nieomylne. W praktyce wciąż powtarzają się te same błędy:

    • bezrefleksyjne kopiowanie wygenerowanych tekstów do umów, ofert czy raportów,
    • brak sprawdzania liczb i cytatów,
    • powierzanie AI zadań, które wymagają oceny etycznej lub znajomości specyficznego prawa.

    Produkt AI to propozycja, szkic, punkt wyjścia – nie gotowa prawda. Ten komunikat wciąż nie przebija się wystarczająco mocno w wielu szkoleniach.

    W efekcie firmy ryzykują nie tylko wyciekiem danych, ale też zwyczajnymi błędami merytorycznymi w dokumentach wysyłanych do klientów, sądów czy urzędów. W kontekście prawa pracy, ochrony konsumentów czy inwestycji takie pomyłki mogą być kosztowne.

    Co z tego wynika dla firm w Polsce

    Choć opisany materiał bazuje na doświadczeniach z rynku francuskiego, w polskich firmach widać bardzo podobne trendy. Zespoły same „oswajają” ChatGPT, zanim powstanie jakakolwiek oficjalna strategia. Szkolenia pojawiają się błyskawicznie, bo dobrze sprzedają się frazy „AI”, „automatyzacja” i „produktywność”.

    Dobrym ruchem jest odwrócenie kolejności: najpierw prosta, ogólnofirmowa polityka korzystania z AI, później dopiero szerokie wdrażanie i zachęcanie wszystkich do eksperymentowania. To nie wymaga skomplikowanych dokumentów – wystarczy kilka stron jasnych reguł, przykłady dopasowane do branży i osoba odpowiedzialna za aktualizowanie tych wytycznych wraz ze zmianami technologii.

    Dla pracowników taki kierunek też jest korzystny. Zamiast bać się konsekwencji korzystania z ChatGPT czy innych narzędzi, dostają poczucie bezpieczeństwa: wiedzą, co jest dozwolone, a co może naruszać przepisy lub tajemnicę przedsiębiorstwa. Wtedy szkolenia z AI przestają być modnym dodatkiem, a stają się realnym wsparciem w codziennej pracy.

    Prawdopodobnie można pominąć