DSS#6

Zanim wdrożysz AI do codziennej pracy z klientami, warto usłyszeć, gdzie kończy się wygoda, a zaczyna ryzyko prawne. W tym odcinku Paula Skrzypecka mówi konkretnie, jak nie wpaść na minę z danymi osobowymi, umowami i licencjami.

Posłuchaj odcinka DSS#6 na YouTube →

Jeśli korzystasz z AI w firmie, problemem nie jest to, czy narzędzie jest „mądre”. Problemem jest to, co do niego wrzucasz, komu o tym mówisz i czy w ogóle masz do tego prawo. Właśnie na tym skupia się rozmowa w DSS#6 z Paulą Skrzypecką — prawniczką od nowych technologii, która bez owijania w bawełnę pokazuje, że w praktyce najwięcej błędów popełnia się nie przy samym modelu, tylko na styku biznesu, danych i umów.

To ważne też dlatego, że artykuły publikowane wokół podcastu Druga Strona Sukcesu są inspirowane realnymi rozmowami, a nie oderwanymi teoriami. Tu nie chodzi o straszenie AI ani o technologiczną ekscytację dla samej ekscytacji. Chodzi o proste pytanie: jak używać narzędzi, żeby przyspieszać pracę, ale nie narażać firmy na roszczenia, konflikt z klientem albo ujawnienie informacji, których ujawniać nie wolno.

W tym artykule bierzemy na warsztat właśnie temat danych osobowych. Bez akademickich fajerwerków, za to z praktycznymi wnioskami z odcinka: co sprawdzać przed użyciem narzędzia, kiedy wystarczy transparentność, a kiedy trzeba powiedzieć „stop”.

AI nie zwalnia z odpowiedzialności za dane osobowe klientów

Najważniejsza rzecz wybrzmiewająca w rozmowie jest brutalnie prosta: to, że coś generuje AI, nie oznacza, że odpowiedzialność znika. Paula przypomina, że w praktyce trzeba patrzeć nie tylko na sam rezultat, ale też na kontekst użycia. Jeśli wklejasz do narzędzia dane klienta, draft umowy, strategię albo notatki z projektu, to wciąż pracujesz na cudzych informacjach. I nie ma znaczenia, że „to tylko prompt”.

Właśnie dlatego pierwsze pytanie nie powinno brzmieć: „czy to narzędzie jest popularne?”, tylko: czy wolno mi w ogóle przekazać te informacje do zewnętrznego dostawcy? W transkrypcie pada bardzo ważna uwaga: jeśli klient ma NDA, zakaz udostępniania informacji albo po prostu zastrzegł, że nie zgadza się na korzystanie z takich narzędzi, to wrzucenie danych do AI może być zwyczajnie naruszeniem uzgodnień. I nie da się tego później przykryć tekstem „ale przecież to tylko pomocniczo”.

Praktyczny wniosek? Przed użyciem AI w pracy z klientem sprawdź trzy rzeczy:

  • czy umowa z klientem pozwala na korzystanie z takich narzędzi,
  • czy w danych, które chcesz wkleić, są informacje poufne lub osobowe,
  • czy klient został o tym uprzedzony i rozumie, co może się z tymi danymi stać.

To nie jest nadmiar ostrożności. To jest zwykłe zarządzanie ryzykiem.

Jak informować klientów o użyciu AI, żeby nie naruszyć danych osobowych

W rozmowie wyraźnie pada ważna zasada: nie potrzebujesz zgody na samo wpisanie danych osobowych do narzędzia, ale modelowo osoba, której dane dotyczą, powinna być tego świadoma. To oznacza, że biznes nie może działać po cichu i liczyć, że nikt się nie zorientuje. Jeśli używasz AI do notatek, ofert, analiz czy przygotowania dokumentów, klient powinien wiedzieć, że jego dane mogą trafić do narzędzia zewnętrznego.

W praktyce najlepiej działa prosty, zrozumiały komunikat. Nie trzeba pisać eseju o architekturze modelu. Wystarczy jasno wskazać: z jakiego narzędzia korzystasz, w jakim zakresie, do czego trafiają dane i czy mogą być przechowywane przez dostawcę. Jeśli współpracujesz z klientem regularnie, takie zasady można wpisać do umowy albo do załącznika opisującego zasady współpracy. Paula podkreśla, że transparentność opłaca się obu stronom, bo porządkuje oczekiwania jeszcze przed pierwszym problemem.

To samo dotyczy wewnętrznej pracy zespołu. Jeśli ktoś działa na prywatnym koncie, bez ustalonych zasad, firma traci kontrolę nad tym, jakie dane wyciekną do dostawcy, kto ma dostęp do historii czatów i czy treści nie będą dalej przetwarzane. A przecież często to nie sam model jest problemem, tylko chaos po stronie użytkownika.

Warto więc wdrożyć prostą procedurę:

  • ustalić, które dane można w ogóle wprowadzać do AI,
  • określić, czy klient ma być o tym informowany wprost,
  • zapisać, kto w zespole może z narzędzia korzystać i w jakim zakresie.

Taki porządek wygląda zwyczajnie. I właśnie dlatego jest skuteczny.

Co sprawdzić w regulaminie narzędzia AI, zanim wrzucisz tam dane

Jednym z mocniejszych wątków odcinka jest to, że wiele firm patrzy na AI wyłącznie przez pryzmat funkcji, a nie zasad korzystania. A to właśnie regulamin i polityka prywatności często mówią więcej niż marketingowa strona produktu. Paula zwraca uwagę na kilka rzeczy, które trzeba sprawdzić zanim narzędzie trafi do codziennej pracy.

Po pierwsze: czy możesz korzystać z niego komercyjnie. Zdarza się, że darmowa wersja nie pozwala na użycie biznesowe, a płatna już tak — ale nie zawsze. Po drugie: czy dostawca może wykorzystywać dane do uczenia modeli. Po trzecie: czy masz wpływ na to, jak długo dane są przechowywane i czy można wyłączyć ich dalsze użycie. Po czwarte: czy narzędzie nie zastrzega, że nie gwarantuje trwałego usunięcia wygenerowanych treści.

To brzmi technicznie, ale w praktyce chodzi o jedno: nie oddawaj danych bez świadomości, co może się z nimi stać. Jeśli zapisujesz w narzędziu dane klientów, a potem okazuje się, że historię promptów da się odtworzyć albo że dostawca zachowuje treści bez jasnego terminu kasowania, problem nie jest teoretyczny. To realne ryzyko dla firmy i dla relacji z klientem.

W odcinku pojawia się też bardzo ważna obserwacja: niektóre narzędzia wymagają dodatkowych oznaczeń, wskazania źródła treści albo mają ograniczenia związane z rejestracją znaków towarowych czy użyciem komercyjnym. Czyli nie wystarczy „mieć subskrypcję”. Trzeba wiedzieć, co dokładnie kupujesz i na jakich warunkach.

DSS#6

W połowie rozmowy pojawia się bardzo praktyczny wątek: co zrobić, gdy korzystasz z AI, ale nie chcesz naruszyć poufności klienta. To właśnie tam padają konkretne zasady dotyczące umów, NDA i informowania klientów — warto wrócić do tego fragmentu w odcinku.

Posłuchaj odcinka DSS#6 na YouTube →

Kiedy dane osobowe w AI stają się problemem w relacji z klientem

Największy błąd firm polega zwykle nie na tym, że używają AI, tylko na tym, że robią to bez umowy, bez komunikacji i bez świadomości konsekwencji. Jeśli działasz na danych klienta, a nie masz zgody na użycie narzędzia zewnętrznego, to możesz naruszyć nie tylko zasady poufności, ale też zaufanie, które zwykle buduje się miesiącami.

Paula podaje bardzo praktyczne podejście: jeśli chcesz korzystać z AI przy pracy z klientem, to nie chowaj tego w szufladzie. Lepiej napisać wprost, że korzystacie z narzędzi wspierających notowanie, tworzenie draftów czy analizę, a klient wie, jakie informacje mogą się tam znaleźć. Wtedy obie strony wiedzą, na czym stoją. I dokładnie tak samo można podejść do podwykonawców.

Warto też pamiętać, że w wielu przypadkach ryzyko nie dotyczy wyłącznie danych osobowych, ale także informacji poufnych. Jeśli do AI wrzucasz strategię, ofertę, dane projektowe albo szczegóły dotyczące klienta, formalnie przekazujesz je podmiotowi trzeciemu. To może być problem nawet wtedy, gdy na pierwszy rzut oka „przecież nie ma tam nazwisk”.

Dlatego dobra praktyka w firmie to nie tylko informowanie klientów, ale też zbudowanie prostych zasad dla zespołu:

  • jakich typów danych nie wolno wklejać do AI,
  • które narzędzia są dopuszczone,
  • czy wolno używać prywatnych kont do pracy służbowej,
  • kto odpowiada za sprawdzenie zgodności z umową i polityką prywatności.

To nie musi być rozbudowany dokument. Ważne, żeby nie było ciszy i domysłów.

Transparentność i systemowe zasady są ważniejsze niż gaszenie pożarów

W rozmowie mocno wybrzmiewa też coś, co w biznesie często bywa lekceważone: najlepsze zabezpieczenie to nie paranoja, tylko jasne zasady. Paula proponuje bardzo proste podejście — jeśli firma chce być naprawdę bezpieczna, to powinna z góry ustalić, z czego wolno korzystać, w jakim zakresie i z jakimi ograniczeniami. Czy chodzi o treści marketingowe, dokumentację techniczną, czy analizę danych klientów, każda z tych rzeczy może wymagać innych reguł.

To samo dotyczy relacji z podwykonawcami. Dobrą praktyką jest zapisanie, że podwykonawca jako profesjonalista odpowiada za to, co tworzy, oraz że ma obowiązek zadbać o staranność i sprawdzenie efektu przed przekazaniem go klientowi. Jeśli w grę wchodzą dane osobowe, można też wskazać, że podwykonawca ma korzystać wyłącznie z określonych narzędzi i tylko w uzgodnionym zakresie.

Właśnie tu pojawia się kluczowe słowo z odcinka: transparentność. Nie jako modne hasło, tylko jako realny mechanizm zmniejszania ryzyka. Gdy strony wiedzą, co jest dozwolone, łatwiej uniknąć sporów o to, czy coś było „oczywiste”, „domyślne” albo „przecież każdy tak robi”. A takie spory zwykle kończą się wtedy, gdy już jest za późno.

Dla przedsiębiorcy praktyczny wniosek jest prosty: nie czekaj, aż AI stanie się problemem. Ustal zasady teraz. Najlepiej w czterech krokach:

  • sprawdź umowy z klientami i podwykonawcami,
  • wybierz tylko te narzędzia, które spełniają wymagania biznesowe i prawne,
  • zapisz, jakie dane mogą być używane i przez kogo,
  • poinformuj klientów wprost, jak wygląda ten proces.

To nie zabiera dużo czasu. Ale potrafi oszczędzić bardzo dużo kłopotów.

Podsumowanie: AI można używać bezpiecznie, ale nie na ślepo

Największa lekcja z DSS#6 jest taka, że AI nie jest problemem samym w sobie. Problemem jest brak zasad. Jeśli wrzucasz do narzędzia dane osobowe klientów, informacje poufne albo treści objęte umową, musisz wiedzieć, co dzieje się dalej. Bez tego łatwo o naruszenie NDA, konflikt z klientem albo naruszenie obowiązków informacyjnych.

Paula Skrzypecka pokazuje bardzo praktyczne podejście: nie szukaj odpowiedzi tylko w newsach o nowych narzędziach. Patrz na regulamin, politykę prywatności, zakres licencji i na to, czy klient w ogóle zgadza się na taki sposób pracy. To właśnie tam kryje się realne ryzyko, a nie w samym fakcie, że korzystasz z AI.

Jeśli miałbym zostawić Ci jedną myśl z tego odcinka, to byłaby taka: zanim użyjesz AI przy danych osobowych, ustal zasady z klientem, sprawdź warunki narzędzia i zabezpiecz sobie jasną odpowiedzialność w umowie. To proste, ale właśnie takie rzeczy najczęściej oddzielają bezpieczne wdrożenie od kosztownego błędu.

Jeśli chcesz usłyszeć więcej praktycznych przykładów i zobaczyć, jak Paula rozkłada na czynniki pierwsze konkretne sytuacje z rynku, wróć do pełnego odcinka podcastu.

DSS#6

Jeśli chcesz zobaczyć, jak te zasady działają w realnych przykładach — od NDA, przez umowy z podwykonawcami, po odpowiedzialność za dane — obejrzyj pełny odcinek. To dobry materiał dla każdego, kto chce używać AI w firmie bez zgadywania.

Posłuchaj odcinka DSS#6 na YouTube →