ChatGPT w firmie: rośnie panika o dane, szkolenia z AI ruszają z kopyta
Coraz więcej pracowników klika w darmowego ChatGPT w pracy, nie myśląc, jakie dane tam wkleja.
Szefowie zaczynają się tego realnie bać.
Firmy od pół roku zamawiają szkolenia z AI w takim tempie, jakiego trenerzy nowych technologii jeszcze nie widzieli. Obok zachwytu produktywnością rośnie bardzo przyziemny lęk: czy ktoś właśnie nie wkleja do darmowego bota danych klientów, projektów albo poufnych umów.
„Koleżanki piszą do ChatGPT o wszystkim” – nie tylko we Francji
W wielu biurach rozmowa wygląda podobnie: jeden pracownik zachwyca się, że darmowy ChatGPT napisał mu świetny mail po angielsku, drugi pokazuje, jak w 10 minut wygenerował ofertę handlową, a trzeci po prostu wrzuca do okienka treść realnego kontraktu, żeby model „wyłapał błędy”.
Firmowe dane trafiają do narzędzi AI, często bez zgody szefów, bez regulaminu i bez świadomości ryzyka po stronie użytkowników.
W cytowanej historii z francuskiej redakcji menedżer skarży się, że jego współpracownicy korzystają z darmowej wersji ChatGPT, nie zastanawiając się, co dokładnie tam wklejają. To obrazek bardzo podobny do tego, co dzieje się dziś w setkach biur również w Polsce: spontaniczny entuzjazm pracowników zderza się z obawami działów prawnych i bezpieczeństwa.
Gigantyczny boom na szkolenia z AI
Firmy nie reagują już tylko zakazami. Coraz częściej inwestują w masowe szkolenia – od podstawowych warsztatów „jak rozmawiać z ChatGPT”, po zaawansowane kursy tworzenia własnych asystentów czy integracji z wewnętrznymi systemami.
Przykład francuskiej spółki budowlanej, gdzie prezes wysłał na szkolenie całą, niespełna dwudziestoosobową załogę, dobrze pokazuje nastawienie mniejszych biznesów. Tam celem była przede wszystkim wyższa produktywność: automatyzacja arkuszy kalkulacyjnych, szybkie pisanie umów, opisy stanowisk, analizy prostych ryzyk prawnych.
Dla wielu szefów AI to po prostu nowy „szwajcarski scyzoryk” do pracy biurowej: jedna technologia, setki drobnych zastosowań.
Dlaczego szkoleniowcy mają pełne kalendarze
Firmy szkoleniowe skupione na AI opisują identyczny scenariusz: zapytania przychodzą z dwóch stron rynku.
- Małe i średnie firmy – działają szybciej, chcą natychmiastowego wzrostu efektywności, liczą każdą godzinę pracy.
- Duże korporacje – są wolniejsze, ale planują temat strategicznie; zamawiają całe programy wdrożeniowe, polityki bezpieczeństwa i pilotaże.
Do tego dochodzi presja wizerunkowa: nikt nie chce zostać firmą, która „przegapiła moment” i za kilka lat będzie gonić konkurencję, która podniosła produktywność, korzystając z AI od 2024 czy 2025 roku.
Największa niewidzialna mina: dane w darmowych chatbotach
Entuzjazm wobec ChatGPT ma ciemniejszą stronę. Darmowe narzędzia działają najczęściej na serwerach dostawcy, poza infrastrukturą firmy. Jeśli pracownik bezrefleksyjnie wkleja tam dane klientów, fragmenty kodu czy projekty umów, rodzi to szereg problemów.
| Obszar ryzyka | Przykład sytuacji |
|---|---|
| Poufność | Asystentka sprzedaży wkleja listę klientów z numerami telefonów, żeby „ładnie uporządkować” tabelę. |
| Własność intelektualna | Programista prosi ChatGPT o pomoc w optymalizacji fragmentu firmowego kodu. |
| RODO | HR wysyła do bota CV kandydata, prosząc o skrócenie i ocenę dopasowania. |
| Reputacja | Model generuje treści zawierające błędy lub uprzedzenia, które trafiają do klienta pod logo firmy. |
Wiele osób zakłada, że skoro narzędzie jest popularne, to „na pewno jest bezpieczne”. Tymczasem darmowa wersja nie zawsze daje te same gwarancje co płatne, biznesowe licencje, gdzie dostawca oferuje odrębne zasady przetwarzania danych.
Firmy improwizują polityki AI w biegu
Presja czasu robi swoje: zarządy wiedzą, że AI może dać realną przewagę, ale nie mają jeszcze spójnych zasad działania. W efekcie szkolenia z ChatGPT i innych modeli często powstają ad hoc, na szybko, bo ktoś właśnie zauważył, że ludzie masowo korzystają z tych narzędzi na własną rękę.
W wielu organizacjach najpierw pojawia się zakulisowe używanie AI przez pracowników, a dopiero później – oficjalne wytyczne i szkolenia.
Do najczęściej spotykanych elementów takich „polityk AI”, które omawiają trenerzy na warsztatach, należą:
- zakaz wklejania danych osobowych, finansowych i projektów klientów do publicznych chatbotów,
- wymóg oznaczania materiałów, które współtworzył ChatGPT,
- zasada, że model nie zastępuje eksperta – treści trzeba weryfikować, zwłaszcza prawne i medyczne,
- lista dozwolonych narzędzi AI, sprawdzonych przez dział IT i bezpieczeństwa.
Productivity first: czego firmy tak naprawdę oczekują od AI
Z punktu widzenia biznesu cała ta gorączka szkoleniowa ma dość prosty cel: skrócić czas wykonywania powtarzalnych czynności. W praktyce oznacza to, że pracownicy uczą się głównie kilku bloków umiejętności.
Typowe zastosowania AI, o które pytają firmy
- Tworzenie i poprawianie tekstów: oferty handlowe, maile, raporty, notatki ze spotkań.
- Wsparcie w pracy z dokumentami: streszczenia, wyciąganie najważniejszych punktów, porównywanie zapisów.
- Prosta analityka: opisanie danych z Excela, wygenerowanie pomysłów na dashboardy, podstawowe wnioski.
- Wsparcie dla HR: projekty ogłoszeń rekrutacyjnych, wstępne opisy stanowisk, pomysły na pytania na rozmowy.
- Pomoc w językach obcych: tłumaczenia robocze, wygładzanie stylistyki, przygotowanie prezentacji po angielsku.
W tle unosi się jedno ważne pytanie: ile pracy da się w ten sposób „oddać” maszynie, nie tracąc jakości obsługi klienta i kontroli nad procesami wewnętrznymi.
Szkolenie z AI to już nie bonus, tylko element BHP
Coraz więcej ekspertów ds. bezpieczeństwa IT traktuje edukację w zakresie AI na równi z kursami z phishingu czy ochrony haseł. Skoro pracownicy i tak używają chatbotów, trzeba im w jasny sposób pokazać, czego nie wolno robić, a z czego wolno korzystać bez ryzyka.
Brak szkolenia nie powstrzyma ludzi przed używaniem ChatGPT. Prędzej sprawi, że będą to robić po cichu, bez żadnych zasad.
Firmy zaczynają więc wplatać temat AI w standardowe programy onboardingowe. Nowy pracownik dostaje nie tylko laptopa i dostęp do skrzynki, ale też listę wytycznych: z jakich narzędzi AI może korzystać, jakie dane są zakazane, gdzie zgłaszać wątpliwości.
Co mogą zrobić polskie firmy już teraz
Nawet jeśli organizacja nie ma jeszcze budżetu na wielkie programy szkoleniowe, kilka kroków da się wykonać od ręki. Po pierwsze, ktoś w firmie powinien oficjalnie „zaopiekować się” tematem AI – nie po to, by wszystko blokować, tylko żeby zbierać potrzeby i definiować zasady gry.
Po drugie, warto przygotować prostą, zrozumiałą dla każdego listę czerwonych linii: jakie informacje nigdy nie trafiają do publicznego chatbota, a kiedy lepiej skorzystać z narzędzi wdrożonych wewnętrznie lub z płatnej, biznesowej wersji, która daje lepsze gwarancje co do danych.
Dobrze też sprawdzić, jak faktycznie pracownicy już dziś korzystają z ChatGPT czy innych modeli. Często okazuje się, że w jednym dziale powstały ciekawe „sposoby na AI”, które można bezboleśnie przenieść do reszty firmy, oszczędzając setki godzin rocznie.
AI nie zniknie z biur, tak jak kiedyś nie zniknął internet czy smartfony. Różnica między firmami polega więc coraz mniej na tym, „czy” używają ChatGPT, a coraz bardziej na tym, jak to robią: chaotycznie i ryzykownie, czy świadomie, po przemyślanym szkoleniu całych zespołów.


