Zanim przejdziesz do praktycznych zasad, sprawdź źródło: w tym odcinku Paula Skrzypecka tłumaczy, gdzie kończy się wygoda, a zaczyna ryzyko. To dobry kontekst, jeśli pracujesz z danymi klientów i chcesz używać AI bez stresu.
Posłuchaj odcinka DSS#6 na YouTube →AI w pracy z klientem nie jest problemem. Problemem jest to, że wielu przedsiębiorców używa jej tak, jakby wrzucanie danych do narzędzia było neutralne. Nie jest. Każdy prompt, każda notatka, każda oferta i każda analiza mogą oznaczać ujawnienie informacji poufnych, naruszenie NDA albo wejście w obszar, którego nikt wcześniej w umowie nie opisał.
W rozmowie w DSS#6 Paula Skrzypecka bardzo jasno pokazuje jedną rzecz: w świecie AI nie warto czekać na idealne przepisy. Trzeba budować bezpieczną praktykę już teraz — na podstawie celu regulacji, warunków korzystania z narzędzi i zdrowego rozsądku. I właśnie dlatego ten artykuł jest inspirowany tematami z podcastu, ale rozwija je w praktyczny przewodnik dla firm, które chcą korzystać z AI bez strzelania sobie w stopę.
Jeśli używasz AI do ofert, strategii, dokumentacji, contentu, analiz albo pracy z zespołem i podwykonawcami, ten tekst pomoże ci poukładać najważniejsze decyzje. Bez prawniczego żargonu. Bez udawania, że „jakoś to będzie”.
AI przy danych klientów: najpierw ryzyko, potem wygoda
Największy błąd przedsiębiorców polega na założeniu, że skoro narzędzie jest dostępne publicznie i działa szybko, to można w nim bez większego namysłu opisać klienta, projekt, problem i strategię. W praktyce to oznacza często przekazanie danych podmiotowi trzeciemu — nawet jeśli nikt tego tak nie nazywa. Jeśli wklejasz do modelu brief, umowę, ofertę albo fragmenty strategii, to nie jest już „tylko korzystanie z AI”. To jest operowanie na cudzych lub poufnych informacjach w środowisku, którego warunków często nie czyta nikt.
Paula zwraca uwagę, że najpierw trzeba sprawdzić, czy w ogóle wolno użyć konkretnego narzędzia do konkretnego celu. Inne zasady będą dotyczyć wrzucenia publicznego posta do redakcji, a inne — wklejenia dokumentu objętego NDA. Wiele firm ma z klientami umowy, które zakazują przekazywania jakichkolwiek informacji dalej. Wtedy prompt staje się problemem nie dlatego, że AI jest „złe”, tylko dlatego, że ujawnienie danych może naruszyć umowę.
Wniosek jest prosty: nie zaczynaj od pytania „jakie AI mi to zrobi?”, tylko od pytania „jakie dane w ogóle mogę tam włożyć?”. To zmienia całą kolejność myślenia. Najpierw klasyfikujesz dane, potem sprawdzasz zgodność z umową, a dopiero na końcu wybierasz narzędzie.
Jak bezpiecznie korzystać z AI przy danych klientów i NDA
Jeśli masz podpisane NDA, nie zakładaj, że skoro „to tylko asystent”, to ryzyko znika. W rozmowie pojawia się bardzo praktyczna uwaga: z formalnego punktu widzenia wpisanie promptu do narzędzia może być ujawnieniem informacji poufnych. To oznacza, że przy niektórych umowach trzeba po prostu powiedzieć „nie”. Nie ma tu miejsca na kreatywne interpretacje, jeśli klient wyraźnie wyklucza takie działania albo jeśli kara umowna za ujawnienie danych jest wysoka.
Jak sobie z tym poradzić? Najbezpieczniej działa podejście systemowe. Nie każda firma musi zakazać AI w całości. Ale każda powinna ustalić, co wolno, a czego nie wolno. Możesz wprost w umowie lub polityce współpracy opisać, że korzystasz z konkretnych kategorii narzędzi, w jakim zakresie i do jakich zadań. Jeśli klient ma wiedzieć, że używasz AI do notatek, a nie do przetwarzania jego strategii czy umów, trzeba to nazwać otwarcie.
W praktyce warto wdrożyć kilka zasad, które padły też w rozmowie i świetnie działają biznesowo:
- nie wrzucaj do narzędzi całych umów, jeśli zawierają poufne dane;
- nie używaj prywatnych kont do pracy komercyjnej, jeśli regulamin narzędzia tego zabrania;
- sprawdzaj, czy dostawca pozwala wyłączyć trenowanie na danych użytkownika;
- ustal z klientem, czy dane mogą trafiać do zewnętrznych systemów;
- zostaw ślad transparentności w dokumentacji współpracy.
To nie jest nadmiar ostrożności. To jest koszt wejścia w świat AI bez późniejszych awantur.
Prawa autorskie, obrazy i treści generowane przez AI: gdzie zaczyna się kłopot
Jednym z najmocniejszych wątków odcinka są przypadki, w których firmy dostały „gotowiec” wygenerowany przez AI, ale ten gotowiec nie nadawał się do użycia. Paula opowiada o sytuacji z raportem zamówionym przez uczelnię i o wykonawcy, który zamiast tradycyjnych nagrań wykorzystał awatary oraz narzędzia do generowania głosów. Problem nie polegał wyłącznie na tym, że użyto AI. Problem był bardziej podstawowy: finalny efekt nie spełniał celu umowy, a w dodatku pojawiły się wątpliwości, kto właściwie ma prawa do takiego materiału.
To ważna lekcja dla każdej firmy: output z AI nie zawsze będzie utworem. Jeśli treść powstała bez twórczej ingerencji człowieka, może w ogóle nie podlegać ochronie prawnoautorskiej. Ale jeśli później ktoś tę treść modyfikuje, dopracowuje, składa z innymi materiałami, poprawia i nadaje jej indywidualny charakter, sytuacja staje się dużo bardziej złożona. I właśnie tutaj przedsiębiorcy najczęściej popełniają błąd — zakładają, że sam fakt kliknięcia „generate” rozwiązuje temat własności.
W rozmowie pada też bardzo praktyczna wskazówka: jeśli chcesz działać bezpiecznie, nie patrz tylko na sam efekt końcowy, ale na to, co konkretnie dopuszcza regulamin narzędzia. Nie każde narzędzie pozwala na komercyjne wykorzystanie wygenerowanych materiałów. Nie każde pozwala na rejestrację logo jako znaku towarowego. Nie każde daje ci pełną swobodę, nawet jeśli płacisz za subskrypcję. Zanim więc włączysz AI do pracy marketingowej lub kreatywnej, sprawdź warunki korzystania, politykę prywatności i ograniczenia licencji.
W skrócie: jeśli generujesz teksty, grafiki, audio czy logo dla klienta, musisz wiedzieć, czy i na jakich zasadach możesz później z tego korzystać. Bo sam fakt, że coś powstało szybko, nie oznacza jeszcze, że można to legalnie sprzedać, oddać dalej albo zarejestrować jako własne.
Jak sprawdzać, czy AI nie narusza cudzych znaków towarowych i stylu
W praktyce biznesowej ogromny problem pojawia się przy logo, identyfikacji wizualnej i materiałach, które z daleka wyglądają „oryginalnie”, ale po bliższym przyjrzeniu przypominają cudzy znak towarowy albo cudzy wizerunek. Paula podkreśla, że w takich sytuacjach nie wystarczy intuicja. Trzeba sprawdzić rejestry znaków towarowych — najlepiej w Polsce, w EUIPO i w WIPO — oraz porównać nie tylko sam obraz, ale też klasy, w których znak jest chroniony.
To ważne, bo podobny znak nie zawsze oznacza problem. Jeśli ktoś ma znak zarejestrowany w innej klasie towarów lub usług, ryzyko może być mniejsze. Ale jeśli tworząc nowe logo, korzystasz z AI i chcesz nim oznaczać dokładnie ten sam rodzaj usług, wchodzisz na pole minowe. W dodatku AI nie daje żadnej gwarancji, że nie wypluje czegoś zbyt podobnego do istniejącego znaku. Odpowiedzialność pozostaje po stronie użytkownika.
Dlatego bezpieczny proces wygląda tak:
- najpierw generujesz koncepcję albo szkic;
- potem sprawdzasz podobieństwo obrazem i po słowach kluczowych;
- następnie weryfikujesz rejestry znaków towarowych;
- na końcu oceniasz klasy, w których znak działa;
- dopiero wtedy decydujesz, czy idziesz dalej.
Paula zwraca też uwagę na ważny niuans: sam styl zwykle nie jest objęty taką ochroną jak konkretny utwór. To znaczy, że „inspiracja stylem” nie zawsze będzie naruszeniem. Ale jeśli efekt końcowy jest już praktycznie plagiatem — albo jest tak podobny do cudzego logo, że nie da się tego obronić — wtedy nie ma znaczenia, że zrobiło to AI. To ty z tego korzystasz i to ty bierzesz odpowiedzialność.
Najwięcej praktycznych przykładów pojawia się właśnie wtedy, gdy Paula tłumaczy różnicę między samym stylem, plagiatem i znakiem towarowym. Jeśli chcesz zobaczyć, jak wygląda to w realnych sytuacjach biznesowych, wróć do odcinka.
Posłuchaj odcinka DSS#6 na YouTube →AI, dane osobowe i umowy z klientami: co trzeba ustalić zanim coś wrzucisz do narzędzia
Wątek danych osobowych w rozmowie jest wyjątkowo praktyczny. Paula nie mówi: „nie używaj AI”. Mówi raczej: „sprawdź, na jakich zasadach to robisz i czy klient w ogóle wie, co się dzieje z jego danymi”. To ważne, bo dane osobowe nie wymagają zawsze zgody, ale osoba, której dane dotyczą, powinna być świadoma, że mogą trafić do narzędzia zewnętrznego i że dostawca może je przechowywać przez określony czas lub nawet bez jasno określonego terminu.
W biznesie często działa się na skróty: ktoś robi ofertę, ktoś pisze strategię, ktoś podsumowuje warsztat w ChatGPT, a klient nie ma pojęcia, że jego dane pojawiły się w jakimś systemie. Z perspektywy operacyjnej to wygodne. Z perspektywy formalnej — ryzykowne. Dlatego najlepsza praktyka to nie tylko wewnętrzna polityka korzystania z AI, ale też jasne komunikowanie klientowi, jakie informacje mogą trafiać do narzędzi.
Jeśli chcesz to wdrożyć dobrze, zacznij od prostego porządku:
- ustal, jakie typy danych są całkowicie wyłączone z AI;
- określ, które dane mogą trafiać do narzędzi po anonimizacji;
- wprowadź zasadę informowania klienta o użyciu AI;
- sprawdź, czy dostawca narzędzia nie wykorzystuje danych do dalszego uczenia;
- zadbaj o archiwizację i możliwość odtworzenia pracy, jeśli narzędzie zniknie.
Ten ostatni punkt jest zresztą bardzo niedoceniany. Paula zwraca uwagę, że wiele narzędzi nie gwarantuje trwałego przechowywania tego, co wygenerujesz. Jeśli pracownicy albo podwykonawcy korzystają z AI, a później historia zniknie, możesz zostać bez dowodu, bez kontekstu i bez możliwości odtworzenia procesu. Przy pracy z klientem to może być spory problem.
Jak zbudować bezpieczną praktykę AI w firmie
Najbardziej użyteczny wniosek z całej rozmowy jest taki: bezpieczeństwo w AI nie bierze się z zakazów, tylko z zasad. Firma nie musi wyłączać wszystkiego, żeby nie wpaść w kłopoty. Musi za to wiedzieć, jakie narzędzia dopuszcza, kto może z nich korzystać, do jakich danych i na jakich warunkach. To jest dokładnie ten moment, w którym transparentność działa na korzyść obu stron — firmy i podwykonawcy.
W praktyce warto rozdzielić trzy poziomy:
- poziom danych — co wolno wklejać, a czego nie;
- poziom narzędzia — z czego można korzystać komercyjnie, a z czego nie;
- poziom odpowiedzialności — kto odpowiada za jakość, legalność i zgodność z umową.
Paula proponuje bardzo proste rozwiązanie: wpisz do umowy, że strony znają regulamin narzędzia i akceptują jego warunki, albo że korzystanie z AI jest dopuszczalne tylko w określonym zakresie. Możesz też jasno wskazać, że podwykonawca odpowiada za sprawdzenie materiału przed oddaniem go klientowi. To nie jest przesadna formalizacja. To jest sposób na uniknięcie sytuacji, w której nikt nic nie powiedział, a potem wszyscy są zaskoczeni.
Warto też pamiętać o jednym: AI nie zastępuje profesjonalizmu. Jeśli ktoś nie dowozi jakości bez AI, to z AI też najpewniej nie dowiezie. Narzędzie może przyspieszyć pracę, pomóc w analizie, podsunąć warianty i uporządkować myślenie. Ale nie zdejmie z ciebie odpowiedzialności za decyzję.
Dlatego bezpieczna firma nie pyta: „czy wolno używać AI?”. Bezpieczna firma pyta: „jak używać AI, żeby nie ujawniać danych, nie łamać NDA i nie oddawać klientowi czegoś, czego nie da się obronić?”. To jest dużo lepsze pytanie. I dużo bardziej biznesowe.
Jeśli miałbym zamknąć ten tekst w kilku zdaniach, powiedziałbym tak: AI w pracy z danymi klientów nie jest zakazana z definicji, ale wymaga porządku. Trzeba sprawdzać umowy, czytać warunki narzędzi, rozumieć różnicę między treścią wygenerowaną a utworem i nie udawać, że prompt to niewinna notatka. To wciąż nowy obszar, ale dobre praktyki można wdrożyć już dziś.
Druga rzecz: nie warto czekać, aż przepisy wszystko dokładnie opiszą. W odcinku DSS#6 Paula Skrzypecka pokazuje, że w wielu przypadkach wystarczy połączenie celu regulacji, świadomości ryzyka i zwykłej transparentności. To właśnie daje firmie realną ochronę.
Jeśli chcesz zobaczyć te przykłady w pełnym kontekście — od NDA, przez prawa autorskie, po praktyczne spory i znak towarowy — obejrzyj cały odcinek. Tam jest jeszcze więcej konkretów, które pomogą ci używać AI mądrzej i bezpieczniej.
Ten odcinek to dobry punkt odniesienia, jeśli chcesz wdrożyć AI w firmie bez chaosu. Obejrzyj pełną rozmowę i weź z niej konkretne zasady do swojej codziennej pracy z danymi klientów.
Posłuchaj odcinka DSS#6 na YouTube →