Dlaczego bezpieczeństwo przy AI nie jest dodatkiem, tylko koniecznością
Generatywna AI weszła do codziennej pracy szybciej, niż firmy zdążyły zmienić regulaminy, procedury bezpieczeństwa i szkolenia. Narzędzia typu ChatGPT czy Copilot są w przeglądarce, pod ręką, działają błyskawicznie – i aż się prosi, żeby „wrzucić” tam treść maila klienta, fragment umowy czy zrzut ekranu z CRM-em.
Różnica między prywatną „zabawą” z AI a użyciem jej w pracy jest zasadnicza. W domu ryzykujesz głównie swoim komfortem i prywatnością. W firmie – danymi klientów, tajemnicą przedsiębiorstwa, zgodnością z RODO i reputacją organizacji, która często budowana była latami.
Szkody z nieprzemyślanego korzystania z AI da się podzielić na kilka kategorii. Prawne – naruszenie RODO, tajemnicy zawodowej, NDA. Finansowe – kary, odszkodowania, utrata kontraktów. Wizerunkowe – utrata zaufania klientów, kryzys medialny po „wycieku do AI”. Osobiste – odpowiedzialność pracownika, konsekwencje służbowe, stres i utrata zaufania przełożonych.
Przed każdym użyciem AI w pracy warto zadać sobie dwa krótkie pytania kontrolne:
- Co się stanie, jeśli treść promptu wycieknie i zobaczy ją ktoś niepowołany?
- Kto realnie może zobaczyć te dane po tym, jak wyślę je do narzędzia AI?
Jeśli odpowiedzią na pierwsze pytanie jest „będzie wstyd, ale nic więcej” – ryzyko jest inne niż wtedy, gdy mówimy o możliwej karze administracyjnej, naruszeniu tajemnicy lub kradzieży tożsamości. Przy drugim pytaniu chodzi o urealnienie sytuacji: to już nie jest „magiczna chmurka”, tylko konkretna infrastruktura, ludzie i procedury po stronie dostawcy.
Bezpieczne korzystanie z AI w pracy to nie blokowanie narzędzi, tylko ustawienie rozsądnych barier: co można wrzucić, czego nie wolno, jak przerobić dane, żeby zachować wartość merytoryczną, a nie zdradzić nic poufnego. To da się poukładać na co dzień – pod warunkiem, że zaczyna się od głowy, a nie od checklisty do odhaczenia.
Jak narzędzia AI przetwarzają dane użytkownika
Co faktycznie wysyłasz do modelu, gdy piszesz prompt
Każda wiadomość wysłana do narzędzia AI to dane przekazywane na serwery dostawcy. Nieważne, czy to jedno zdanie, PDF z analizą finansową, czy zrzut ekranu systemu medycznego – technicznie to po prostu pakiet informacji, który opuszcza twoje urządzenie.
W praktyce wysyłasz:
- Tekst – treść promptu, historia rozmowy, komentarze i doprecyzowania.
- Pliki – dokumenty (DOCX, PDF), arkusze (XLSX, CSV), prezentacje, zarchiwizowane maile.
- Obrazy – zdjęcia (np. dokumentów, tablicy w sali konferencyjnej), skany, wykresy.
Trzeba odróżnić model od aplikacji. Model (np. GPT-4, Claude czy Gemini) to silnik generujący odpowiedź. Aplikacja to cała otoczka: interfejs webowy, wtyczki, integracje, historia czatu, system plików, logi serwerowe. Dane, które wpisujesz, przechodzą przez aplikację, mogą być logowane, moderowane, filtrowane i dopiero potem trafiają do modelu.
Po drodze mogą być zapisywane:
- treść promptu i odpowiedzi (historia rozmowy),
- metadane (czas, IP, identyfikator użytkownika, urządzenie),
- informacje o plikach (nazwa, format, rozmiar, fragmenty treści do indeksowania).
Niektóre systemy logują także błędy, próbują wykrywać treści niezgodne z regulaminem (np. dane wrażliwe) i mogą te fragmenty kierować do osobnych procesów analitycznych. Z punktu widzenia ochrony danych oznacza to, że „to tylko jedno zdanie do AI” może realnie przejść przez kilka systemów i zostać zapisane w kilku miejscach, choćby tymczasowo.
Trening modeli a użycie danych użytkownika
Kluczowe pytanie: czy to, co wpisujesz, będzie używane do dalszego trenowania modeli AI. Odpowiedź zależy od narzędzia, wersji konta i wybranych ustawień prywatności.
Typowo można wyróżnić dwa scenariusze:
- Konto konsumenckie / darmowe – dane z konwersacji mogą być używane do poprawy modeli, statystyk, testów, często są analizowane przez ludzi (np. do oceny jakości odpowiedzi), chyba że wyraźnie wyłączysz tę opcję.
- Konto biznesowe / enterprise – dostawca deklaruje, że dane klientów nie są używane do trenowania modeli ogólnych, są odseparowane, logowane i przetwarzane na podstawie odrębnej umowy.
Więksi dostawcy dają opcje „opt-out” – wyłączenia używania danych do uczenia modeli, ale nie zawsze jest to domyślne ustawienie. Konfiguracja prywatności i bezpieczeństwa powinna być pierwszą rzeczą, którą sprawdza administrator IT lub osoba odpowiedzialna za bezpieczeństwo informacji.
Różnica między darmową wersją a wersją firmową jest często ogromna. W wersji darmowej płacisz danymi i ograniczeniami. W wersji firmowej płacisz pieniędzmi, a w zamian dostajesz wyraźne deklaracje co do tego, jak dane są przetwarzane, kto ma do nich dostęp i jak długo są przechowywane.

Podstawy ochrony danych w pracy z AI: RODO, tajemnica i zdrowy rozsądek
Bezpieczne korzystanie z AI w pracy zaczyna się od uporządkowania, z jakimi rodzajami danych masz do czynienia. W większości organizacji da się wyróżnić kilka prostych kategorii.
W praktyce przydaje się podział:
- Dane publiczne – informacje dostępne bez ograniczeń (np. treści na stronie WWW, ogłoszenia, opublikowane raporty).
- Dane wewnętrzne – materiały robocze, notatki, drafty, które nie powinny wychodzić na zewnątrz, ale nie są krytycznie wrażliwe.
- Dane wrażliwe biznesowo – strategie, wyniki finansowe, oferty dla kluczowych klientów, informacje o marżach, technologii.
- Dane osobowe – wszystko, co pozwala zidentyfikować osobę fizyczną (samodzielnie lub w połączeniu z innymi danymi).
- Dane szczególne (sensytywne) – zdrowie, poglądy, przekonania religijne, seksualność, związki zawodowe itd.
RODO dotyczy każdej sytuacji, w której AI jest używana do przetwarzania danych osobowych – nie ma znaczenia, czy robi to człowiek, czy model językowy. Dane czysto biznesowe (np. parametry techniczne, pseudonimizowane zestawienia) nie podlegają RODO, ale mogą być tajemnicą przedsiębiorstwa i rodzić inny rodzaj odpowiedzialności.
Odpowiedzialność z reguły rozkłada się trójstronnie:
- Pracodawca / organizacja – jako administrator danych, odpowiedzialny za zasady, narzędzia i nadzór.
- Użytkownik – który realnie wpisuje treść do AI i może złamać zasady, nawet działając „z dobrego serca”.
- Dostawca narzędzia – jeśli formalnie staje się procesorem danych (umowa powierzenia, DPA), odpowiada za swoje systemy.
Granica między „inspirowaniem się” danymi a ich faktycznym przetwarzaniem jest prosta: jeśli w promptach pojawiają się konkretne dane o osobach lub firmach (nawet zanonimizowanych niedbale), to jest to przetwarzanie. Szczególnie gdy prosisz AI o analizę zachowań, wyciąganie wniosków, tworzenie profili.
Bezpieczny nawyk: jeśli pytanie dotyczy konkretnej osoby, kontraktu, transakcji – najpierw wyczyść dane, potem dopiero użyj AI. Jeśli dotyczy ogólnej sytuacji, trendu, wzorca – możesz przygotować opis case’u tak, żeby nie dało się z niego odtworzyć tożsamości czy tajemnicy.
Jakie dane absolutnie nie powinny trafiać do narzędzi AI
Dane osobowe i szczególne – czerwone światło
Do publicznych narzędzi AI (szczególnie darmowych) nie powinny trafiać żadne dane, które wprost identyfikują osobę, a już na pewno nie dane szczególnych kategorii.
Lista przykładów danych, których nie wolno wklejać wprost:
- imiona i nazwiska połączone z dodatkowymi danymi (np. stanowisko, firma, adres),
- adresy e‑mail i numery telefonów,
- numery identyfikacyjne: PESEL, NIP, REGON, numery dowodu, paszportu, prawa jazdy,
- numery kont bankowych, kart płatniczych, identyfikatory płatności,
- informacje o stanie zdrowia, niepełnosprawnościach, leczeniu, nałogach,
- poglądy polityczne, przynależność partyjna, udział w protestach czy organizacjach,
- wyznanie, praktyki religijne, orientacja seksualna, życie intymne,
- przynależność do związków zawodowych czy innych wrażliwych grup.
Jeżeli twoja praca wymaga kontaktu z takimi informacjami (HR, medycyna, prawo, edukacja, NGO), domyślnym ustawieniem powinien być brak ich użycia w narzędziach dostępnych przez przeglądarkę – chyba że firma ma wdrożone konkretne narzędzie AI, zoptymalizowane pod takie przetwarzanie i zabezpieczone kontraktowo.
Wrażliwe dane biznesowe: umowy, finanse, dostęp do systemów
Druga kategoria to dane, które mogą narazić firmę na straty finansowe lub technologiczne. Generatywna AI świetnie radzi sobie z analizą treści, więc pokusa jest duża: „niech AI streści mi umowę”, „niech porówna oferty”, „niech przeanalizuje raport kwartalny”.
Zabronione (w narzędziach AI bez firmowej umowy i pełnej kontroli) powinny być m.in.:
- pełne treści umów z kluczowymi klientami, dostawcami czy partnerami,
- oferty sprzedażowe z cenami, rabatami, warunkami negocjowanymi indywidualnie,
- szczegóły techniczne produktów, których konkurencja jeszcze nie widziała,
- szczegółowe dane finansowe (marże, koszty, plany inwestycyjne),
- strategie marketingowe i sprzedażowe na przyszłe kwartały,
- dane logowania, hasła, klucze API, tokeny, kody 2FA.
Hasła, tokeny i klucze API nie powinny trafiać do żadnych czatów – także wewnętrznych – w formie jawnej. Jeśli narzędzie AI ma analizować logi techniczne, powinno to odbywać się w środowisku kontrolowanym, najlepiej lokalnym lub wydzielonym, połączonym z bezpiecznym menedżerem sekretów.
Szare strefy: fragmenty maili, opisy problemów, realne case’y
Najwięcej problemów pojawia się nie przy oczywistych naruszeniach, tylko w szarej strefie. Typowe przykłady:
- kopiowanie całych wątków mailowych z klientem, by AI „napisała ładną odpowiedź”,
- wklejanie treści reklamacji, zgłoszeń serwisowych, ticketów z helpdesku,
- opisywanie szczegółowych sytuacji konfliktowych z pracownikami lub partnerami biznesowymi,
- wrzucanie screenów z CRM-a, Jiry, Slacka, komunikatorów wewnętrznych.
Często są tam imiona, nazwiska, identyfikatory klienta, dane kontaktowe, a także informacje wrażliwe biznesowo. Usunięcie samego nazwiska nie załatwia sprawy, jeśli w tle widać nazwę firmy, lokalizację, stanowisko i specyficzny problem.
Bezpieczniejsze podejście to:
- przerobienie konkretnego maila na zanonimizowany opis sytuacji („klient z branży X, średnia firma, problem z…”),
- zmiana szczegółów, które pozwoliłyby zidentyfikować osobę lub organizację (branża, miasto, kwoty, daty),
- zastąpienie fragmentów wrażliwych neutralnymi placeholderami (np. [KWOTA], [MIASTO], [NAZWA FIRMY]).
AI nie potrzebuje wiedzieć, że chodzi o „Panią Monikę Kowalską z firmy ABC w Poznaniu, która 14 lutego zgłosiła reklamację faktury na 12 387 zł”. Wystarczy „średnia firma z branży produkcyjnej, klientka zgłosiła reklamację faktury na kilkanaście tysięcy złotych, kwestionując termin naliczenia opłaty”.
Na koniec warto zerknąć również na: Kradzież tożsamości online: skąd wycieka PESEL i jak się przed tym zabezpieczyć — to dobre domknięcie tematu.

Anonimizacja i pseudonimizacja danych krok po kroku
Anonimizacja vs pseudonimizacja – co jest czym
Przed użyciem AI trzeba zdecydować, czy dane da się tak przerobić, by nie były już danymi osobowymi. Tu pojawia się różnica między dwoma pojęciami.
Anonimizacja to nieodwracalne usunięcie elementów pozwalających zidentyfikować osobę. Po prawidłowej anonimizacji nie ma realnego sposobu, by z dostępnych danych odtworzyć, o kogo chodzi – nawet mając dostęp do dodatkowych źródeł.
Praktyczne przykłady anonimizacji treści
Anonimizacja nie musi być skomplikowana, ale wymaga konsekwencji. Najpierw identyfikujesz wszystkie elementy, które mogą prowadzić do konkretnej osoby lub firmy, potem zastępujesz je bezpiecznymi odpowiednikami.
Typowe elementy do usunięcia lub zmiany:
- imiona, nazwiska, nazwy firm,
- dokładne daty, godziny, numery dokumentów,
- adresy (ulica, numer, lokal),
- kwoty, które w twojej branży są charakterystyczne dla konkretnego klienta,
- rzadkie połączenia cech („jedyny dyrektor ds. X w mieście Y”).
Przykładowa transformacja:
- Przed: „Pani Anna Nowak z firmy ABC Sp. z o.o. z Warszawy zgłosiła 3 maja reklamację faktury na 11 275 zł za projekt wdrożeniowy.”
- Po: „Klientka z dużej polskiej firmy z sektora usług zgłosiła na początku miesiąca reklamację faktury za projekt wdrożeniowy o wartości kilkunastu tysięcy złotych.”
Sens sytuacji zostaje, ale zewnętrzna osoba (ani dostawca AI) nie odtworzy tożsamości, nawet łącząc dane z innymi źródłami.
Pseudonimizacja: kiedy dane nadal są danymi osobowymi
Pseudonimizacja polega na zastąpieniu identyfikatorów innymi oznaczeniami (np. ID-123, KLIENT_7), ale przy zachowaniu możliwości odtworzenia, kto jest kim, w innym systemie lub pliku.
Przykłady pseudonimizacji:
- zastąpienie imienia i nazwiska oznaczeniem „KLIENT_01”,
- zamiana PESEL na wewnętrzny numer klienta, który masz tylko w CRM-ie,
- usunięcie adresu, ale pozostawienie dokładnej historii transakcji przypisanej do ID.
Tak przetworzone dane nadal są danymi osobowymi, bo administrator (twoja firma) potrafi przywrócić tożsamość. W kontekście AI ma to znaczenie: przy publicznych narzędziach często potrzebna jest prawdziwa anonimizacja, a nie tylko pseudonimizacja.
Typowe błędy przy „anonimizowaniu” danych
Najczęstszy problem to pozorne usuwanie danych, które w praktyce nic nie zmienia. Często wygląda to tak:
- wymazujesz nazwisko, ale zostawiasz nazwę małej miejscowości i unikalne stanowisko,
- usuwasz nazwę firmy, ale w tekście zostaje rzadki produkt i opis konkretnego wdrożenia,
- zastępujesz imię inicjałem, choć z kontekstu w firmie i tak wiadomo, o kogo chodzi.
Drugi błąd to zbyt szczegółowe opisy sytuacji. Jeśli opis case’u zawiera „lokalne” smaczki, połączenie kilku detali (miasto, funkcja, rodzaj sporu, data zwolnienia) może być wystarczające do identyfikacji.
Bezpieczniejsza zasada: zastanów się, czy osoba zainteresowana, mając ten tekst i ogólną wiedzę o organizacji, zdołałaby odgadnąć, o kogo chodzi. Jeśli tak – opis trzeba uogólnić.
Prosty schemat anonimizacji krok po kroku
W codziennej pracy przydaje się prosta checklista. Możesz ją stosować zanim wyślesz treść do AI:
- Przejrzyj tekst pod kątem bezpośrednich identyfikatorów – imiona, nazwiska, maile, numery dokumentów, PESEL/NIP, nazwy firm. Usuń je lub zastąp neutralnymi opisami („klient”, „dostawca”).
- Usuń dokładne daty i godziny – zmień je na opisy typu „na początku roku”, „kilka tygodni temu”, „w poprzednim kwartale”, chyba że precyzja daty nie ma znaczenia dla analizy.
- Uogólnij lokalizacje – konkretny adres zamień na miasto, miasto na region („południowa Polska”), małą miejscowość na „małe miasto”.
- Zakryj charakterystyczne kwoty i liczby – konkretne wartości zamień na zakres („kilkanaście tysięcy”, „ponad sto osób”) lub placeholdery [KWOTA], [LICZBA PRACOWNIKÓW].
- Usuń rzadkie kombinacje cech – jeśli osoba jest „jedynym prawnikiem od prawa kosmicznego w małym mieście”, zmień opis na „specjalista ds. prawa w niszowej dziedzinie”.
- Dodaj placeholdery tam, gdzie potrzebny jest kontekst – [NAZWA FIRMY], [DATA], [NUMER UMOWY]. AI zrozumie strukturę, nie potrzebuje realnych danych.
- Zrób szybki test „znajomego z firmy” – czy ktoś wewnątrz organizacji, niezaangażowany w sprawę, mógłby po tym opisie zgadnąć, kto to? Jeśli tak, uogólnij jeszcze raz.
Anonimizacja dokumentów: tekst, PDF, screeny
Z tekstem jest najłatwiej – możesz go przepisać lub edytować. Przy dokumentach i obrazach sprawa jest trudniejsza, ale nadal do ogarnięcia.
Przy plikach tekstowych i PDF:
- używaj funkcji „znajdź i zamień” dla nazw firm, produktów, osób,
- zanim zaczniesz anonimizację, zrób kopię pliku, żeby nie stracić oryginału,
- po anonimizacji przeszukaj plik pod kątem typowych wzorców (np. numerów kont, PESEL).
Przy screenach i obrazach:
Dla osób, które chcą ogarnąć temat dostępu do kont i minimalizacji szkód po potencjalnym wycieku, przydaje się perspektywa z zewnątrz – np. praktyczne wskazówki: informatyka pokazują, jak łączyć kwestie haseł, 2FA i dobrej higieny cyfrowej z codzienną pracą.
- wymazuj dane w sposób nieodwracalny (trwale zamalowane, a nie tylko „rozmyte” lekkim filtrem),
- upewnij się, że widać tylko to, co jest niezbędne do zrozumienia problemu,
- pamiętaj, że miniatury, paski zadań, zakładki w przeglądarce też mogą zawierać nazwy i loginy.
Jeśli narzędzie AI umożliwia bezpośrednie przesyłanie plików, traktuj każdy załącznik jak potencjalne źródło wrażliwych informacji ukrytych w metadanych (autor dokumentu, ścieżka pliku, historia zmian). Bezpieczna praktyka to eksport do „płaskiego” formatu (np. PDF bez historii edycji) i weryfikacja przed wysyłką.
Automatyzacja anonimizacji – pomocne, ale z głową
Na rynku są narzędzia, które automatycznie wyszukują i zamieniają wrażliwe dane (np. imiona, numery kart, PESEL). Mogą oszczędzić sporo czasu, ale nie rozwiązują wszystkiego.
Typowe ograniczenia takich narzędzi:
- dobrze wykrywają oczywiste wzorce (numery, maile), gorzej – kontekst („jedyny prezes spółki X w Y”),
- mogą pominąć dane wpisane z błędami lub w nieoczywistym formacie,
- nie zastąpią decyzji, jak bardzo trzeba uogólnić opis sytuacji.
Rozsądne podejście to połączenie: wstępne czyszczenie automatyczne, a potem krótna, manualna kontrola kluczowych fragmentów, zanim wyślesz dane do AI.
Wybór narzędzi AI a ochrona danych: na co patrzeć w praktyce
Publiczna usługa vs rozwiązanie biznesowe
Z perspektywy bezpieczeństwa kluczowe jest, czy używasz narzędzia jako „zwykły użytkownik internetu”, czy w ramach firmowej, płatnej usługi z umową.
Publiczne, darmowe wersje zwykle zakładają:
- szersze wykorzystanie danych do trenowania modeli lub poprawy jakości usługi,
- ograniczoną odpowiedzialność dostawcy,
- mniejszą przewidywalność co do miejsca przechowywania danych (różne centra danych na świecie).
Wersje biznesowe pozwalają najczęściej:
- wyłączyć używanie twoich danych do trenowania modeli,
- podpisać umowę powierzenia przetwarzania danych (DPA),
- wybrać region przechowywania danych (np. UE),
- korzystać z kont służbowych z centralnym zarządzaniem i audytem.
Jeśli organizacja ma więcej niż kilka osób i poważnie używa AI w pracy, prywatne, darmowe konta pracowników to słaby fundament. Z czasem rodzi to problem „dzikiego” shadow IT: nikt nie wie, kto i co wkleił do jakiego narzędzia.
Na co spojrzeć w regulaminie i polityce prywatności
Zamiast czytać cały regulamin słowo w słowo, skup się na kilku kluczowych punktach. Przede wszystkim:
- Jak dostawca używa treści, które wprowadzasz? Czy jest jasne, że nie będą używane do trenowania modeli, jeśli tego nie chcesz?
- Gdzie są przechowywane dane? Unia Europejska, USA, inne regiony? Ma to znaczenie przy projektach wymagających lokalizacji danych.
- Kto jest procesorem, a kto administratorem danych? Czy dostawca występuje jako podmiot przetwarzający na zlecenie twojej firmy?
- Jak długo przechowywane są logi i treści rozmów? Czy można żądać ich usunięcia?
- Czy jest dostępny DPA / umowa powierzenia? Bez tego trudno mówić o legalnym użyciu AI przy danych osobowych.
Jeśli nie zajmujesz się tym zawodowo, wystarczy prosty filtr: jeśli w regulaminie napisane jest wprost, że dostawca może swobodnie wykorzystywać twoje treści do trenowania modeli lub udostępniać je innym partnerom, to nie jest narzędzie do pracy z danymi wrażliwymi.
Ustawienia prywatności w popularnych narzędziach AI
Większość dużych dostawców wprowadziła już podstawowe opcje ograniczania wykorzystania danych użytkownika. Problem w tym, że domyślne ustawienia są często mało konserwatywne.
Dobrą praktyką na start jest:
- wyłączenie zgody na używanie treści rozmów do trenowania modeli (jeśli jest taka opcja),
- włączenie weryfikacji dwuetapowej (2FA) na koncie,
- ograniczenie liczby osób mających dostęp do wspólnego konta – lepiej konta indywidualne niż jedno „dzielone” hasło,
- regularne czyszczenie historii rozmów, jeśli nie jest ona potrzebna do audytu.
W zespołach przydaje się też proste ustalenie: co wolno, a czego nie wolno przekazywać do danego narzędzia. Przykładowo: jedno narzędzie może być „do ogólnych pytań i draftów”, inne – firmowe, odizolowane – „do pracy na realnych dokumentach”.
Integracje, pluginy i dodatki – ukryte ryzyko
Narzędzia AI coraz częściej pozwalają na podłączanie zewnętrznych pluginów (np. do kalendarza, dysku, CRM-u). To wygodne, ale każda taka integracja to kolejny podmiot, który potencjalnie widzi twoje dane.
Przy włączaniu integracji sprawdź:
- jakie dokładnie uprawnienia żąda plugin (odczyt, zapis, pełen dostęp?),
- czy działa w imieniu twojego konta, czy przesyła dane gdzieś dalej,
- kto jest dostawcą – duża, zweryfikowana firma czy anonimowy twórca.
Bezpieczeństwo drastycznie spada, jeśli AI zyska pełny, niekontrolowany dostęp do maila, kalendarza, dysku sieciowego czy repozytoriów kodu, a ty nie wiesz, jak i gdzie te dane są dalej analizowane.

Bezpieczny workflow: jak korzystać z AI w typowych zadaniach
Tworzenie i redagowanie treści na podstawie danych wewnętrznych
Częsty scenariusz to pisanie ofert, prezentacji, raportów na podstawie danych z firmy. Kuszące jest „wklejenie wszystkiego” do czatu i poproszenie o ładny dokument. Bezpieczniej jest rozdzielić etapy.
Przykładowy schemat:
- Przygotuj wersję roboczą bez najwrażliwszych szczegółów (konkretne kwoty, nazwy klientów, numery umów).
- Poproś AI o strukturę, język i formę – np. „uporządkuj ten tekst, uprość język, dodaj nagłówki”.
- Po otrzymaniu rezultatu uzupełnij szczegóły lokalnie, już poza narzędziem AI.
W ten sposób AI pomaga w formie i logice, ale nie ma dostępu do pełnych danych, które mogłyby być wrażliwe biznesowo lub osobowo.
Analiza dokumentów: umowy, regulaminy, raporty
AI świetnie sprawdza się przy streszczaniu długich dokumentów czy wskazywaniu ryzykownych zapisów. Kluczowe pytanie brzmi: czy możesz pokazać jej cały dokument?
Trzy podejścia, w zależności od wrażliwości treści:
- Dokument publiczny (np. regulamin dostępny na stronie konkurencji) – możesz w całości przesłać do analizy, zachowując ostrożność co do praw autorskich, ale bez ryzyka naruszenia prywatności.
- Dokument wewnętrzny, ale bez danych osobowych – rozważ wersję firmowego narzędzia AI; jeśli go nie ma, ogranicz się do fragmentów, które nie ujawniają strategii ani nie zawierają negocjowanych warunków.
- Umowy z klientami, dane finansowe, NDA – analizuj tylko w kontrolowanym środowisku (on-premise lub firmowe AI z odpowiednią umową). Alternatywnie poproś AI o wzorce klauzul, a nie o analizę konkretnej umowy.
Jeżeli musisz przeanalizować strukturę konkretnej umowy, możesz przepisać jej kluczowe elementy w formie zanonimizowanej: zamiast nazw stron użyć [STRONA A], [STRONA B], zamiast konkretnej kwoty – zakresu lub placeholdera [WYNAGRODZENIE].
Praca z e‑mailami i komunikacją z klientem
Największe ryzyko pojawia się wtedy, gdy AI zaczyna „widzieć” pełną historię korespondencji z klientem. Tam zwykle miesza się wszystko: dane osobowe, szczegóły ofert, niekiedy poufne załączniki.
Bezpieczniejszy model to korzystanie z AI jako asystenta stylu, a nie „czytacza” całej skrzynki.
Praktyczny podział wygląda tak:
- do AI przekazujesz szkice odpowiedzi (bez historii wątku i sygnaturki z danymi),
- nie wklejasz pełnych nagłówków maila, adresów i numerów spraw,
- wrażliwe elementy zastępujesz placeholderami lub opisem („kwota X”, „data podpisania umowy”).
Jeśli potrzebujesz pomocy przy trudnym mailu od klienta (reklamacja, eskalacja), streszcz treść w neutralnej formie zamiast kopiować całą wiadomość. Wystarczy opis sytuacji i kluczowe oczekiwania klienta.
W przypadku narzędzi zintegrowanych z pocztą (AI pisząca maile „za ciebie”) ważne jest, kto ma dostęp do pełnych treści. Jeśli to rozwiązanie firmowe, z umową i kontrolą uprawnień – inna rozmowa. Jeśli to wtyczka z niejasnym regulaminem, lepiej ograniczyć ją do wzorców i szablonów, a nie realnych wątków z klientami.
Dobrym uzupełnieniem będzie też materiał: Czy Twoje hasła już wyciekły? Szybki audyt kont, menedżer haseł i konfiguracja 2FA — warto go przejrzeć w kontekście powyższych wskazówek.
Wsparcie przy pracy z danymi i arkuszami kalkulacyjnymi
AI bardzo pomaga przy formułach, czyszczeniu danych czy projektowaniu dashboardów. Klucz to oddzielenie „jak to zrobić” od „na jakich danych to robimy”.
Bezpieczny sposób korzystania:
- zamiast wysyłać cały arkusz, wysyłasz strukturę (nazwy kolumn, kilka przykładowych, zanonimizowanych wierszy),
- prosisz o formuły, zapytania, pomysł na agregację – a potem stosujesz je lokalnie na pełnym zbiorze,
- przy raportach dotyczących konkretnych osób/klientów ograniczasz się do opisów: „zestawienie sprzedaży miesięcznej per osoba, bez szczegółów indywidualnych”.
Wyjątkiem jest sytuacja, gdy firma korzysta z własnego, odizolowanego modelu lub usługi z pełnym DPA i jasnym zakresem przetwarzania. Wtedy modele mogą działać na pełnych danych, ale i tak przydaje się minimalizacja – nie każdy proces musi widzieć wszystkie kolumny.
Przykład: zamiast wgrywać pełną listę klientów z adresami i numerami telefonów, przy analizie sprzedaży wystarczą agregaty per segment, kanał, okres.
Szkolenia, dokumentacja i bazy wiedzy tworzone z pomocą AI
Coraz częściej AI służy do budowania procedur, instrukcji czy materiałów onboardingowych. To dobry kierunek, ale łatwo „przemycić” w nich realne dane z case studies.
Kilka prostych zasad:
- przy opisach przypadków usuń lub zmień wszelkie identyfikatory: nazwy firm, miasta, stanowiska,
- zamiast prawdziwych zrzutów ekranu z systemów produkcyjnych używaj wersji z testowego środowiska,
- gdy prosisz AI o uporządkowanie wiedzy z notatek, wcześniej przejrzyj je pod kątem danych osobowych.
Jeśli budujesz wewnętrznego asystenta zasilanego dokumentacją firmową, zadbaj o separację zbiorów. Co innego materiały HR, co innego dane finansowe. Nie każdy pracownik musi mieć dostęp do całej „mózgownicy” firmy.
Współpraca w zespole: dzielenie się promptami i wynikami
AI to narzędzie zespołowe. W praktyce szybko powstają wspólne prompty, szablony, makra. Tam również mogą „utknąć” dane, które nigdy nie powinny ujrzeć światła dziennego.
Przy tworzeniu i udostępnianiu promptów:
- nie wklejaj przykładów z realnymi danymi klientów lub pracowników,
- twórz prompty „szablonowe”, z placeholderami i instrukcją użycia,
- sprawdzaj, czy w historii promptów nie zostały fragmenty konkretnej korespondencji lub umów.
Podobnie z wynikami: zanim wrzucisz odpowiedź AI na kanał zespołowy czy do narzędzia do zarządzania projektami, przejrzyj ją jak każdy inny dokument. Czasem model „odtworzy” fragment danych wejściowych bardziej dosłownie, niż zakładałeś.
Tworzenie kodu i wsparcie dla działów IT
Dla programistów AI jest już standardowym narzędziem. Pojawia się jednak kilka specyficznych ryzyk: ujawnienie fragmentów własnościowego kodu, kluczy API, konfiguracji infrastruktury.
Zdrowe nawyki:
- nie wklejaj całych repozytoriów ani plików konfiguracyjnych z adresami serwerów, tokenami, hasłami,
- przy debugowaniu ogranicz się do fragmentu kodu z problemem, bez danych o architekturze całego systemu,
- tokeny, klucze i hasła zawsze maskuj lub zamieniaj na placeholdery, nawet jeśli korzystasz z „bezpiecznej” instancji.
Jeżeli firma wdraża rozwiązania typu „AI pair programmer” zintegrowane z kodem źródłowym, kluczowe jest ustalenie, czy kod trafia do zewnętrznej chmury, czy pozostaje w infrastrukturze organizacji. To nie tylko kwestia bezpieczeństwa, ale też licencji i tajemnicy przedsiębiorstwa.
AI w HR, rekrutacji i ewaluacji pracowników
To obszar, w którym łatwo o naruszenie prywatności i dyskryminację. CV, opinie, notatki z rozmów kwalifikacyjnych – wszystko to zawiera dane szczególnej kategorii lub przynajmniej informacje bardzo wrażliwe wizerunkowo.
Przy używaniu AI w HR:
- nie analizuj pojedynczych kandydatów po imieniu i nazwisku w zewnętrznych narzędziach,
- jeśli potrzebujesz wsparcia przy opisie stanowiska czy kryteriów, korzystaj z opisów ogólnych, bez listy konkretnych osób i ich wyników,
- notatki z ocen okresowych, feedback 360 czy plany rozwojowe nie powinny trafiać do publicznych modeli.
Bezpieczniejszy scenariusz to używanie AI do tworzenia szablonów formularzy, pytań, kryteriów oceny – bez łączenia ich z realnymi danymi personalnymi w jednym kroku. Dane osobowe pracowników można później wypełnić już wewnętrznie.
AI w pracy z klientami wrażliwych branż (medycyna, prawo, finanse)
W sektorach regulowanych margines błędu jest minimalny. Nawet jeśli technicznie da się „przepchnąć” dane przez narzędzie, regulacje i kodeksy etyczne mogą tego zabraniać.
Kilka praktycznych filtrów bezpieczeństwa:
- dla danych medycznych i zdrowotnych – brak pracy na danych identyfikowalnych poza rozwiązaniami certyfikowanymi pod ten cel,
- w usługach prawnych – brak przesyłania pełnych akt sprawy do publicznych modeli; zamiast tego używanie opisów abstrakcyjnych i pytań o przepisy, orzecznictwo, konstrukcje prawne,
- w finansach – niewysyłanie pełnych wyciągów bankowych, planów inwestycyjnych z danymi osobowymi, szczegółowych przepływów pojedynczych osób.
W tych branżach często jedyną sensowną drogą jest wdrożenie własnego, kontrolowanego środowiska AI, z jasnym modelem odpowiedzialności i audytem. Dorywcze korzystanie z darmowych usług przez pojedynczych specjalistów to proszenie się o problem, który wyjdzie na jaw dopiero przy incydencie.
Organizacja pracy: minimalizacja ryzyka na poziomie zespołu i firmy
Indywidualne nawyki to jedno, ale o realnym poziomie bezpieczeństwa decydują wspólne zasady. Bez nich nawet najlepsze procedury bezpieczeństwa IT szybko się rozjadą.
Przydaje się krótki, konkretny „kodeks korzystania z AI”, znany wszystkim pracownikom. Może zawierać:
- listę dozwolonych narzędzi i jasno zakazanych kategorii (np. „żadnych anonimowych chatbotów z internetu do dokumentów firmowych”),
- typy danych, które nigdy nie powinny trafiać do zewnętrznych modeli (z przykładami z danej branży),
- przykładowe, bezpieczne scenariusze: co wolno zlecać AI, a co wymaga zgody przełożonego lub działu bezpieczeństwa.
Pomaga też dodanie prostego kroku do procesu pracy: przed wysłaniem danych do AI każdy zadaje sobie krótkie pytanie kontrolne – „czy byłbym spokojny, gdyby ten fragment jutro zobaczył mój klient lub regulator?”. Jeśli odpowiedź brzmi „nie”, to znak, że trzeba wrócić do anonimizacji albo zmienić narzędzie na bardziej kontrolowane.
Bibliografia
- Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 (RODO). Dziennik Urzędowy Unii Europejskiej (2016) – Podstawy prawne przetwarzania danych osobowych, definicje, obowiązki
- Wytyczne EROD dotyczące przetwarzania danych osobowych w kontekście nowych technologii. Europejska Rada Ochrony Danych – Interpretacje RODO przy wykorzystaniu nowych technologii, w tym usług chmurowych
- Wytyczne dotyczące przetwarzania danych osobowych w chmurze obliczeniowej. Urząd Ochrony Danych Osobowych – Zalecenia dla administratorów przy korzystaniu z usług chmurowych i podmiotów przetwarzających
- NIST Artificial Intelligence Risk Management Framework. National Institute of Standards and Technology (2023) – Ramy zarządzania ryzykiem związanym z systemami AI w organizacjach
- ISO/IEC 27001 – Information security, cybersecurity and privacy protection. International Organization for Standardization – Norma zarządzania bezpieczeństwem informacji, przydatna przy ocenie dostawców AI





