Firmy masowo szkolą z AI, a pracownicy wrzucają dane do darmowego ChatGPT

Firmy masowo szkolą z AI, a pracownicy wrzucają dane do darmowego ChatGPT
Oceń artykuł

Efekt? Z jednej strony wyścig o produktywność i oszczędności, z drugiej – rosnący strach szefów, że poufne dane lądują w publicznych narzędziach, nad którymi nikt nie ma kontroli.

Gorączka szkoleń z AI: „jeśli nie ruszymy teraz, zostaniemy z tyłu”

Historia paryskiej firmy budowlanej dobrze pokazuje klimat ostatnich miesięcy. Właściciel niewielkiej, ale ambitnej spółki remontowej zdecydował, że cała załoga – od biura po brygadzistów – przejdzie intensywne szkolenie z narzędzi AI. Nie chodziło o modę, tylko o bardzo konkretne cele: szybsze oferty, mniej papierologii, mniej pomyłek w umowach.

Szef widzi w AI uniwersalne narzędzie: ChatGPT ma pomagać w pisaniu wzorów kontraktów, opisów stanowisk, wstępnych analizach ryzyka prawnego czy porządkowaniu danych w arkuszach. Dla mniejszej firmy, która nie ma rozbudowanych działów prawnych czy HR, to realna szansa, żeby dorównać dużym graczom – przynajmniej jeśli chodzi o organizację pracy.

Coraz więcej właścicieli firm dochodzi do tego samego wniosku: brak planu na AI dziś może oznaczać realny problem z konkurencyjnością jutro.

Trzy szkolenia tygodniowo, kalendarz pęka w szwach

Trenerzy i konsultanci potwierdzają, że popyt urósł lawinowo. Jedna ze specjalizujących się w tym agencji chwali się ponad setką trenerów i ponad dwustu pięćdziesięcioma szkoleniami miesięcznie. Jeszcze dwa lata temu takie liczby brzmiałyby jak science fiction.

Do drzwi pukają bardzo różne organizacje:

  • mniejsze i średnie firmy, które chcą szybko podnieść produktywność i nie boją się eksperymentów,
  • duże korporacje, działające wolniej, ale budujące bardziej rozbudowane programy wdrożeń i własne procedury bezpieczeństwa.

W wielu firmach szkolenia nie są już „opcją dla chętnych”, ale elementem strategii rozwoju. Menedżerowie zdają sobie sprawę, że pracownik, który biegle korzysta z AI, może realnie wykonywać tę samą pracę szybciej i na wyższym poziomie. W skali całej organizacji przekłada się to na widoczne oszczędności.

Cichy kryzys: darmowy ChatGPT + brak wiedzy = wyciek danych

Za tą historią sukcesu stoi jednak drugi, mniej chwytliwy nagłówek: rosnące ryzyko dla bezpieczeństwa informacji. W wielu biurach sytuacja wygląda podobnie. Ktoś w zespole zakłada darmowe konto w ChatGPT, pokazuje reszcie, wszyscy są zachwyceni – i po chwili modele językowe zaczynają przetwarzać prawdziwe dokumenty firmy.

Kluczowy problem nie polega na samym użyciu AI, tylko na tym, że pracownicy wrzucają do niej treści, których nie powinni nawet kopiować poza firmowy system.

W praktyce pojawiają się takie sytuacje:

  • prawnik zleca modelowi „streść ten kontrakt” i wkleja pełną umowę z danymi klienta,
  • dział HR tworzy opis stanowiska na podstawie wewnętrznych widełek płacowych,
  • handlowiec prosi AI o „bardziej przekonującą” ofertę i przekazuje szczegóły rabatów, których nie widać publicznie,
  • specjalista IT zamieszcza fragmenty kodu z unikalnymi rozwiązaniami firmy.

Takie działania często nie wynikają ze złej woli. Raczej z pośpiechu i niewiedzy, jak działają systemy generatywne. Dla typowego pracownika okienko czatu AI wygląda jak kolejne narzędzie biurowe, a regulaminy korzystania z darmowych usług czyta mało kto.

Mniejsze firmy: szybka adaptacja, słabe procedury

Małe i średnie przedsiębiorstwa podchodzą do AI odważniej. Brak rozbudowanej struktury decyzyjnej sprawia, że wystarczy decyzja właściciela lub dyrektora, by w tydzień wdrożyć nowe narzędzie. To często przewaga nad korporacjami, ale jednocześnie poważne ryzyko.

W wielu takich firmach nie istnieją formalne polityki dotyczące danych. Jeśli są, często powstały lata temu z myślą o pendrive’ach i mailach, a nie o narzędziach generatywnych w chmurze. Pracownicy zostają więc sami z decyzją, co można wklejać do AI, a czego nie dotykać.

Brak prostych, jasnych zasad sprawia, że to zwykły użytkownik decyduje, czy dokument jest poufny – i robi to w sekundę, pod presją czasu.

Dlaczego darmowe narzędzia kuszą najbardziej

Firmowe wdrożenia AI, z kontrolą danych i dedykowanym środowiskiem, wymagają budżetu, negocjacji z dostawcą, czasem wsparcia działu prawnego. Darmowy ChatGPT jest dostępny od ręki i wymaga tylko adresu e‑mail. To wystarcza, żeby całe zespoły zaczęły z niego korzystać nieoficjalnie – „bo działa, bo jest szybki, bo nikt jeszcze nie zabronił”.

Dla pracownika różnica między wersją konsumencką a rozwiązaniem firmowym często jest abstrakcyjna. Liczy się efekt: gotowy tekst, poprawiony mail, uporządkowane dane. O tym, że każde wklejenie danych do zewnętrznej usługi tworzy ślad w systemach, myśli niewielu.

Korporacje: duże ambicje, dużo lęków

Duże organizacje zwykle lepiej rozumieją ryzyka regulacyjne. Mają działy compliance, inspektorów ochrony danych, wewnętrznych prawników. To sprzyja pisaniu polityk dotyczących AI, ale też tworzy dodatkowe napięcia. Z jednej strony zarząd domaga się wzrostu efektywności, z drugiej – prawnicy ostrzegają przed choćby pozornym naruszeniem zasad ochrony danych osobowych.

Stąd rośnie popularność tzw. „bezpiecznych piaskownic” AI: wydzielonych środowisk, w których pracownik może korzystać z modeli językowych, a firma kontroluje, gdzie dane są przechowywane i do czego wolno je wykorzystać. Tyle że takie projekty zajmują miesiące, a rynek i pracownicy nie chcą czekać.

Typ organizacji Tempo wdrożeń AI Główne ryzyka
Małe i średnie firmy Bardzo szybkie, często „oddolne” Brak procedur, brak nadzoru nad danymi
Duże korporacje Wolniejsze, bardziej sformalizowane „Czarny rynek” darmowych narzędzi mimo zakazów

Szkolenia z AI: od „jak pisać prompt” do „co wolno wkleić”

Jeszcze rok temu typowe szkolenie z AI skupiało się głównie na trikach: jak zadać pytanie, by model dał lepszą odpowiedź, jak użyć AI do prezentacji, jak przerobić notatki na raport. Teraz programy coraz częściej obejmują elementy cyberbezpieczeństwa i ochrony danych.

Trenerzy zaczynają od prostych przykładów, które działają na wyobraźnię: co by było, gdyby konkurencja poznała twoje cenniki lub pełną listę klientów? Czy chciałbyś, żeby fragmenty umowy z twoim nazwiskiem trafiły do narzędzia, którego regulaminu nie czytałeś?

Dobre szkolenie z AI nie kończy się na sztuczkach z promptami. Musi nauczyć pracowników, gdzie przebiega granica między sprytnym wykorzystaniem narzędzia a narażeniem firmy na poważne konsekwencje.

Pięć prostych zasad bezpiecznego korzystania z ChatGPT w pracy

Eksperci coraz częściej proponują firmom krótkie, konkretne kodeksy zachowań. Mogą one wyglądać tak:

  • Nie wklejaj do AI danych osobowych wrażliwych: numerów PESEL, adresów, dokumentacji medycznej, szczegółów sporów sądowych.
  • Nie przenoś do zewnętrznych narzędzi całych umów, wewnętrznych regulaminów i raportów finansowych. Jeśli musisz, anonimizuj treść.
  • Uzgodnij z przełożonym, czy dane zadanie można zlecić AI. W wielu działach pojawiają się już listy zadań „dozwolonych” i „zakazanych”.
  • Korzystaj z rozwiązań firmowych, jeśli takie istnieją. Jeśli ich nie ma, zgłoś potrzeby – nie buduj „tajnego” workflow opartego na prywatnym koncie.
  • Czytaj komunikaty o zmianach regulaminu narzędzi, z których korzystasz. To tam często pojawiają się zapisy o wykorzystaniu danych do trenowania modeli.
  • Dlaczego firmy tak się spieszą z AI

    Poza modą i presją rynku w tle grają bardzo proste liczby. Narzędzia generatywne potrafią w kilka minut przerobić zadanie, które kiedyś zajmowało godzinę. Jeśli taki proces powtarza się codziennie w setkach zespołów, roczne oszczędności robią wrażenie nawet w mniejszej organizacji.

    Do tego dochodzi efekt psychologiczny. Gdy konkurencja chwali się „transformacją z AI”, zarządy nie chcą wyglądać na spóźnione. Pojawia się więc wyścig: kto pierwszy wdroży, kto nauczy pracowników, kto pokaże inwestorom, że ogarnia nową technologię.

    W tym pośpiechu łatwo zgubić pytanie: czy nasze zespoły naprawdę rozumieją, jak działa technologia, z której właśnie zrobiły sobie codzienne narzędzie pracy?

    Na czym tak naprawdę polega ryzyko danych w AI

    Wokół ChatGPT i podobnych systemów narosło sporo mitów. Część osób zakłada, że „skoro to poważna firma, na pewno wszystko jest superbezpieczne”. Inni z kolei są przekonani, że wszystko, co wkleją, natychmiast stanie się publiczne. Prawda leży gdzieś pomiędzy i zależy od konkretnego dostawcy, wersji usługi i ustawień.

    Z praktycznego punktu widzenia dla firm najważniejsze są trzy kwestie:

    • gdzie fizycznie przetwarzane są dane i jakie prawo je chroni,
    • czy treści wprowadzane przez użytkowników mogą być wykorzystywane do trenowania modeli,
    • kto ma dostęp do logów i historii rozmów – zarówno po stronie dostawcy, jak i w samej firmie.

    Nawet jeśli dostawca deklaruje wysokie standardy bezpieczeństwa, organizacja musi zadać sobie pytanie, czy akceptuje taki poziom ryzyka dla kontraktów, kodu czy dokumentów klientów. W wielu przypadkach bezpieczniej jest zablokować pewne typy treści niż liczyć na zdrowy rozsądek użytkowników.

    Co dalej: od jednorazowych szkoleń do kultury pracy z AI

    Jedno szkolenie, choćby świetnie poprowadzone, nie załatwi problemu. Pracownicy zapamiętają kilka trików i przykładów, ale codzienność szybko wciągnie ich z powrotem w pośpiech, w którym najłatwiej kliknąć „wklej” do najbliższego okienka czatu.

    Firmy, które traktują temat poważnie, zaczynają budować szerszą kulturę pracy z AI. Obejmuje to regularne warsztaty, kanały do zadawania pytań, testowe środowiska, w których można bezpiecznie eksperymentować, a także jasne komunikaty: co jest dozwolone, a co absolutnie nie przejdzie. AI przestaje być gadżetem, a staje się kolejnym narzędziem biurowym – takim jak poczta czy system CRM – z własnym zestawem zasad.

    Dla polskich firm ta lekcja jest o tyle cenna, że zachodnia gorączka AI pokazuje zarówno korzyści, jak i potknięcia. Warto skorzystać z doświadczeń tych, którzy już dziś muszą godzić fascynację ChatGPT z bardzo przyziemnym faktem: dane, które raz przestaną być poufne, nie wrócą już do sejfu.

    Prawdopodobnie można pominąć