Szok w firmach: pracownicy wrzucają w darmowe ChatGPT dane z kontraktów i HR
Firmy masowo szkolą ludzi z AI, ale wielu pracowników już dziś korzysta z darmowych chatbotów tak beztrosko, jak z wyszukiwarki.
Do otwartych narzędzi typu ChatGPT trafiają opisy projektów, projekty umów, dane z działu HR i analizy finansowe. Menedżerowie orientują się często dopiero wtedy, gdy dział bezpieczeństwa łapie się za głowę.
Gorączka szkoleń z AI w firmach – nikt nie chce „przegapić pociągu”
Historia paryskiej firmy budowlanej dobrze pokazuje, co dziś dzieje się w biznesie. Szef niewielkiej spółki zajmującej się luksusowymi remontami zdecydował kilka miesięcy temu, że cała załoga – 18 osób – przejdzie szkolenie z narzędzi sztucznej inteligencji. Nie z pasji technologicznej, tylko z czystej kalkulacji: chodzi o produktywność i przetrwanie na rynku.
W mniejszej firmie nie ma rozbudowanych działów prawnych, HR ani analityków. AI ma więc pełnić rolę cyfrowego scyzoryka: wstępnie pisać umowy, propozycje ofert, ogłoszenia o pracę, analizować ryzyka prawne, porządkować dane w Excelu. Szef tej spółki jest przekonany, że firmy, które dziś nie uczą ludzi pracy z AI, za kilka lat zostaną w tyle. Z takiego założenia wychodzi coraz więcej przedsiębiorców w całej Europie.
Przeczytaj również: Horoskop od 11 marca: te 3 znaki zodiaku mają mieć wyjątkową passę
Pracodawcy widzą w AI jednocześnie szansę na skok wydajności i ryzyko poważnych wpadek z danymi, jeśli zostawią pracowników samym sobie.
Trzy szkolenia tygodniowo: trenerzy AI nie nadążają z kalendarzem
Firmy szkoleniowe, które specjalizują się w wdrażaniu AI, mówią wprost: takiej fali zainteresowania nie było od lat. Jeden z francuskich trenerów przyznaje, że prowadzi obecnie prawie trzy szkolenia tygodniowo, a jego agencja obsługuje ponad 250 grup miesięcznie.
Na zajęcia zgłaszają się:
Przeczytaj również: Blue Origin chce chronić Ziemię przed asteroidami. Nowa misja NEO Hunter
- małe i średnie firmy, które liczą na szybkie zwyżki efektywności,
- duże korporacje, które poruszają się wolniej, ale mają ogromny potencjał skali,
- organizacje publiczne, bo presja na „robienie więcej za mniej” dotyka też administrację.
Wszędzie powtarza się ten sam schemat: część pracowników już korzysta z ChatGPT lub innych modeli językowych, choć nikt im wcześniej nie wyjaśnił, gdzie leży granica między sprytnym ułatwieniem pracy a złamaniem zasad bezpieczeństwa.
„Moi koledzy wrzucają do darmowego ChatGPT dane klientów”
Wielu trenerów słyszy od kursantów podobne wyznania. Ktoś przyznaje, że od miesięcy karmi darmowy model treściami z poufnych ofert. Ktoś inny kopiuje opisy stanowisk wraz z widełkami płacowymi całych zespołów. Jeszcze inna osoba wkleja fragmenty umów z prawdziwymi danymi kontrahentów, żeby chatbot „wyłapał ryzyka”.
Przeczytaj również: Brazylijskie mokradła ukryte za Amazonią: cichy gigant magazynuje węgiel
Największym problemem nie jest dziś brak dostępu do narzędzi AI, tylko brak elementarnej świadomości, co wolno do nich wkleić.
Pracownikom często wydaje się, że skoro to „tylko tekst”, a nie plik z bazy danych, to nic złego się nie dzieje. W praktyce:
| Co pracownicy wklejają do AI | Dlaczego to groźne |
|---|---|
| treści umów i aneksów | ujawniają warunki biznesowe, rabaty, kary umowne |
| opisy stanowisk z wynagrodzeniami | odsłaniają politykę płacową i różnice w pensjach |
| maile z klientami | zawierają dane osobowe i wrażliwe informacje biznesowe |
| surowe dane z Excela | pozwalają odtworzyć bazę klientów lub dostawców |
Gdy rozmowy z ChatGPT odbywają się w darmowej wersji, na prywatnym koncie, firma traci jakąkolwiek kontrolę nad tym, dokąd te informacje trafiają i jak długo będą przechowywane po stronie dostawcy usługi.
Presja czasu kontra bezpieczeństwo danych
Dlaczego organizacje mimo wszystko pędzą z wdrożeniami i pozwalają, by ten „dziki zachód” trwał miesiącami? Po pierwsze – presja konkurencyjna. Gdy jedna firma chwali się, że dzięki AI skraca przygotowanie oferty z dwóch dni do dwóch godzin, sąsiednia nie chce zostać przy długopisach i arkuszu w kratkę.
Po drugie – realne braki kadrowe. W wielu sektorach brakuje specjalistów od analizy danych, prawników in-house czy researcherów. AI wydaje się tanią protezą, która łata dziury kadrowe, choć nie zawsze w odpowiedzialny sposób.
Trenerzy opowiadają, że często pojawiają się w firmie dopiero wtedy, gdy ktoś z działu bezpieczeństwa podniesie alarm. Na przykład zauważy w logach, że pracownicy kopiują całe fragmenty wewnętrznej dokumentacji do narzędzi zewnętrznych. Wtedy firmie nagle bardzo się spieszy, żeby „zrobić porządek” i ułożyć zasady korzystania z AI.
Jak firmy próbują ogarnąć AI: polityki, szkolenia, wersje „enterprise”
Rosnąca grupa organizacji wprowadza więc strukturalne podejście do generatywnej AI. Najczęściej pojawiają się trzy elementy.
1. Jasne zasady używania chatbotów
W firmowych regulaminach i prezentacjach dla zespołów zaczynają się pojawiać zapisy typu:
- zakaz wklejania danych osobowych i finansowych do darmowych narzędzi,
- obowiązkowa anonimizacja treści, w tym nazw firm i osób,
- wymóg ręcznej weryfikacji odpowiedzi AI przed wysłaniem ich do klienta,
- wyraźne rozdzielenie kont prywatnych i służbowych.
Firmy, które traktują temat serio, komunikują te zasady nie tylko w PDF-ach, ale także na warsztatach, w intranecie i na spotkaniach z menedżerami liniowymi. Chodzi o to, żeby pracownik zrozumiał logikę zakazów, a nie tylko „odhaczył” szkolenie.
2. Wewnętrzne lub płatne wersje narzędzi AI
Coraz więcej organizacji decyduje się na wykupienie płatnych planów typu ChatGPT Team, ChatGPT Enterprise lub podobnych rozwiązań od innych dostawców. Argumenty są dwa: wyższy poziom bezpieczeństwa i lepsza kontrola nad tym, gdzie lądują dane.
W dużych firmach powstają też wewnętrzne chatboty oparte na otwartych modelach, które działają wyłącznie w infrastrukturze organizacji. Dzięki temu można pozwolić pracownikom na wklejanie większej ilości danych – bo nie opuszczają one sieci firmowej – choć nadal pozostają kwestie zgodności z RODO i prawem pracy.
3. Edukacja szyta na miarę działów
Szkolenia ogólne to za mało. Inaczej powinien korzystać z AI handlowiec, inaczej prawnik, a inaczej osoba z HR. Trenerzy coraz częściej projektują moduły dedykowane konkretnym zespołom, pokazując im przykłady „z ich życia”: prawdziwe maile do klientów, realne procesy rekrutacyjne, firmowe raporty.
Najlepsze efekty pojawiają się wtedy, gdy szkolenie kończy się gotowymi szablonami promptów i procedur, które pracownik może od razu włożyć do swojej codziennej pracy.
Co z polskimi firmami? Scenariusz będzie bardzo podobny
Choć opisane przykłady pochodzą z Francji, polskie firmy idą bardzo podobną drogą. W wielu organizacjach oficjalnie „AI jeszcze nie ma”, a nieoficjalnie połowa biura ma zakładkę z ChatGPT przypiętą do paska przeglądarki. Pracownicy z różnych branż – od bankowości po e-commerce – przyznają, że korzystają z darmowej wersji na własną rękę, bo przyspiesza to przygotowanie ofert, analiz czy prezentacji.
Ryzyko jest więc identyczne: wrażliwe dane lądują w systemach, nad którymi pracodawca nie ma żadnej kontroli. W sytuacji kontroli regulatora albo głośnego wycieku informacji trudno będzie wtedy wytłumaczyć, że „przecież to tylko pomocnik do pisania maili”.
Jak bezpiecznie korzystać z AI w pracy – minimum higieny danych
W praktyce można wskazać kilka prostych zasad, które realnie zmniejszają ryzyko, a jednocześnie nie zabijają korzyści z ChatGPT czy innych modeli.
- Anonimizuj wszystko, co się da. Zmieniaj nazwy firm i ludzi na ogólne określenia, usuwaj numery, dane kontaktowe, kwoty.
- Oddzielaj konta. Do pracy używaj tylko służbowych narzędzi zatwierdzonych przez firmę, prywatny ChatGPT zostaw do przepisów na obiad.
- Nie wklejaj całych dokumentów. Jeśli musisz coś przeanalizować, wyciągnij fragmenty i je uprość, zamiast wrzucać całość z nagłówkami i stopkami.
- Pytaj dział bezpieczeństwa lub IT. Lepiej przez tydzień poczekać na zielone światło, niż przez lata tłumaczyć się z wycieku danych.
- Traktuj AI jak stażystę. Może dużo pomóc, ale nic nie powinno wyjść na zewnątrz bez Twojej kontroli.
AI jako „cyfrowy scyzoryk” – zarówno dla szefa, jak i szeregowego pracownika
Dla małych i średnich firm generatywna AI to wyjątkowo kuszące narzędzie. Pozwala szefowi małej spółki nagle mieć coś, co do tej pory było przywilejem korporacji: pomocnika od prawa, analizy, komunikacji i HR w jednym okienku przeglądarki. Ta sama logika dotyczy zwykłych pracowników – dzięki ChatGPT mogą lepiej pisać maile, szybciej tworzyć prezentacje, sprawniej tłumaczyć treści.
Różnica między firmą, która na tym zyska, a tą, która napyta sobie kłopotów, często sprowadza się do dwóch rzeczy: czy ktoś sensownie zaprojektował zasady korzystania z AI i czy ludzie dostali praktyczne, zrozumiałe szkolenie, a nie tylko broszurę z hasłami o „transformacji cyfrowej”.
Dobrze przygotowane organizacje uczą dziś pracowników nie tyle magii promptów, ile prostego odruchu: zanim cokolwiek wkleisz do ChatGPT, zadaj sobie pytanie, czy tak samo swobodnie wysłałbyś to obcej firmie mailem. Jeśli odpowiedź brzmi „nie”, to sygnał, że pora na inne narzędzie albo rozmowę z działem bezpieczeństwa.


