DSS#6

Jeśli temat AI w firmie dotyczy Cię nie tylko „z ciekawości”, ale wprost wpływa na to, jak tworzysz treści, podpisujesz umowy i rozliczasz podwykonawców, ten odcinek warto mieć pod ręką. Paula Skrzypecka tłumaczy wszystko bez prawniczego dymu i pokazuje konkretne ryzyka, które naprawdę mogą wyskoczyć w biznesie.

Posłuchaj odcinka DSS#6 na YouTube →

Artykuły na blogu Druga Strona Sukcesu powstają z tematów poruszanych w podcaście — ale nie są jego kopią. To rozwinięcie rozmowy, które ma pomóc przedsiębiorcy szybko zrozumieć, gdzie AI jest wsparciem, a gdzie zaczyna się odpowiedzialność. I właśnie w prawie autorskim ten podział jest dziś szczególnie ważny.

Bo problem nie brzmi: „czy korzystać z AI?”. Problem brzmi: co dokładnie wygenerowało narzędzie, kto to poprawił, na jakich warunkach i komu potem chcesz przekazać efekt końcowy. W DSS#6 Paula Skrzypecka bardzo jasno pokazuje, że sam output z AI nie zawsze jest utworem. Czasem jest tylko surowcem. Czasem materiałem roboczym. A czasem po prostu czymś, czego nie da się legalnie użyć tak, jak planowaliśmy.

To ważne, bo wiele firm działa dziś „na skróty”: grafik robi logo w narzędziu AI, copywriter generuje fragmenty tekstu, dział marketingu wrzuca prompt do asystenta, a potem wszyscy zakładają, że skoro jest płatna subskrypcja, to temat jest zamknięty. Nie jest. I właśnie o tym jest ten tekst: o tym, kiedy treść z AI może stać się utworem w firmie, jak minimalizować ryzyko i gdzie w praktyce kończą się domysły, a zaczynają zasady.

Sam output z AI nie jest automatycznie utworem

W rozmowie padło najważniejsze zdanie, które wielu przedsiębiorców powinno sobie przykleić do monitora: to, co wygeneruje AI, samo w sobie nie zawsze jest utworem. W prawie autorskim utwór musi być efektem twórczej działalności człowieka. Jeśli więc narzędzie wygenerowało tekst, grafikę albo dźwięk bez realnej ingerencji człowieka, to na poziomie prawnym nie mamy jeszcze utworu w klasycznym sensie.

To jednak nie kończy tematu, tylko go zaczyna. Paula zwraca uwagę, że w praktyce większość firm nie bierze „czystego outputu” i nie wrzuca go od razu klientowi czy do publikacji. Prawie zawsze pojawia się poprawka, selekcja, montaż, dopisanie, przeróbka, kompozycja. I właśnie wtedy wchodzi pytanie: czy twórcza ingerencja człowieka była na tyle istotna, że końcowy efekt jest już utworem?

Tu nie ma prostego procentu, żadnego „minimum 30% ludzkiej pracy”. I to jest jednocześnie trudne oraz wygodne. Trudne, bo nie daje gotowej recepty. Wygodne, bo pozwala patrzeć na realny wkład, a nie na sztuczne metryki. Jeśli grafik bierze wygenerowany obraz i dalej nad nim pracuje, zmienia kompozycję, kolorystykę, układ, detale, to finalnie może powstać utwór. Jeśli tylko biernie akceptuje to, co wyszło z narzędzia, sytuacja jest dużo słabsza.

Wniosek dla firmy jest prosty: nie zakładaj, że „skoro AI zrobiło, to mamy prawa autorskie”. Zamiast tego ustal, co człowiek robi po wygenerowaniu treści. To ta druga warstwa często decyduje o wartości prawnej i biznesowej całego efektu.

Dlaczego płatna subskrypcja nie załatwia wszystkiego

Jednym z częstszych biznesowych skrótów myślowych jest przekonanie, że skoro narzędzie jest płatne, to można z niego korzystać swobodnie także komercyjnie. Paula tłumaczy, że to bywa prawdą, ale nie zawsze i nie bezwarunkowo. Wiele zależy od regulaminu, licencji i celu wykorzystania. Sama subskrypcja nie daje automatycznie pełnej dowolności.

W odcinku pojawił się bardzo praktyczny przykład: narzędzie może pozwalać na tworzenie treści, ale już niekoniecznie na rejestrację logo jako znaku towarowego. Albo może dopuszczać wykorzystanie w określonym zakresie, ale zabraniać komercyjnego użycia przy darmowym planie. Albo wymagać oznaczania pochodzenia treści. W przypadku Perplexity padł konkretny przykład obowiązku oznaczania, nawet jeśli w praktyce mało kto to robi.

To pokazuje ważną rzecz: płatność nie jest równoznaczna z pełnymi prawami. W firmie trzeba osobno sprawdzić:

  • jaki plan jest wykupiony,
  • co dokładnie mówi regulamin danego narzędzia,
  • czy wolno korzystać z outputu komercyjnie,
  • czy można rejestrować efekt jako znak towarowy albo utwór,
  • czy narzędzie nie zastrzega sobie prawa do dalszego przetwarzania danych i wygenerowanych treści.

To nie jest nadgorliwość. To zwykłe zarządzanie ryzykiem. Zwłaszcza jeśli tworzysz markę, materiały sprzedażowe, logo albo treści, które mają pracować na firmę przez lata. Wtedy dobrze mieć pewność, że nie budujesz aktywów na warunkach, których nawet nie przeczytałeś.

Transparentność z podwykonawcami to nie formalność, tylko zabezpieczenie

Jednym z najmocniejszych wątków rozmowy była praktyka kontraktowa. Paula bardzo wyraźnie mówi: jeśli chcesz być bezpieczny, pisz wprost, czy zgadzasz się na korzystanie z AI, z jakich narzędzi, w jakim zakresie i przez kogo. Nie zostawiaj tego w sferze domysłów. Nie zakładaj, że „przecież to oczywiste”. W prawie i biznesie oczywistości kończą się zwykle wtedy, gdy pojawia się spór.

To ważne szczególnie przy współpracy z podwykonawcami. Możesz określić, że grafik ma prawo używać AI do inspiracji, ale nie do finalnego projektu. Możesz zgodzić się na generowanie treści do postów, ale nie na przetwarzanie umów, ofert czy dokumentacji poufnej. Możesz wskazać, że z danym narzędziem pracuje tylko określona rola w zespole — na przykład UX designer — a reszta procesu ma być prowadzona tradycyjnie.

W praktyce daje to dwie rzeczy. Po pierwsze, porządkuje współpracę. Po drugie, chroni obie strony. Podwykonawca nie działa wtedy „na czuja” i nie zastanawia się, czy przypadkiem nie łamie warunków licencji albo nie wystawia siebie na ryzyko. Firma z kolei wie, jaki standard jakości i odpowiedzialności dostaje. I właśnie tu transparentność przestaje być miękkim hasłem, a staje się narzędziem operacyjnym.

Warto też pamiętać o jeszcze jednym detalu: jeśli podwykonawca korzysta z AI na swoim prywatnym koncie, a firma tego nie przewidziała, można naruszyć nie tylko umowę z klientem, ale też warunki samego narzędzia. To już nie jest drobiazg. To jest potencjalny problem, który potem wraca w reklamacji, sporze albo przy próbie przeniesienia praw.

DSS#6

Jeśli chcesz zobaczyć, jak Paula rozkłada na czynniki pierwsze konkretne przypadki z rynku — od raportów i nagrań po logo i znaki towarowe — posłuchaj tej części rozmowy. Tam widać najlepiej, jak teoria przeradza się w realny biznesowy problem.

Posłuchaj odcinka DSS#6 na YouTube →

Kiedy AI może naruszyć cudze prawa autorskie i znaki towarowe

Najbardziej ryzykowny scenariusz nie dotyczy samego użycia AI, tylko tego, co dokładnie powstaje i jak bardzo przypomina cudzą chronioną treść. Paula mówi wprost: jeśli wygenerowany materiał jest plagiatem albo stanowi wizerunek konkretnej osoby lub bardzo wyraźne nawiązanie do chronionego znaku, wtedy użytkownik może mieć problem. I nie obroni się samym argumentem: „to zrobił model”.

W praktyce największe ryzyko pojawia się przy logo, identyfikacji wizualnej i materiałach reklamowych. Jeśli ktoś wygeneruje znak bardzo podobny do logo istniejącej firmy, nawet jeśli zmieni kolory, nadal może wejść w obszar naruszenia. Dokładnie to samo dotyczy sytuacji, gdy tworzysz materiał promocyjny na bazie wizerunku konkretnej osoby albo zbyt mocno inspirowanego stylem rozpoznawalnego twórcy.

Tu warto zatrzymać się przy ważnej granicy: sam styl zwykle nie podlega ochronie tak jak konkretny utwór. Czyli fakt, że coś „wygląda jak u kogoś”, nie zawsze oznacza naruszenie. Ale jeśli podobieństwo jest tak duże, że przeciętny odbiorca widzi niemal kopię, ryzyko rośnie natychmiast. Wtedy sprawa nie dotyczy już inspiracji, tylko podobieństwa zbyt bliskiego, by uznać je za przypadek.

Jak temu przeciwdziałać? Nie przez panikę, tylko przez prostą procedurę:

  • sprawdź obrazem, czy wygenerowany znak nie przypomina istniejącego logo,
  • przeszukaj rejestry znaków towarowych w Polsce, UE i — jeśli trzeba — szerzej,
  • zobacz, w jakich klasach znak jest zarejestrowany,
  • oceń, czy działasz w podobnej branży i na tym samym rynku,
  • jeśli trzeba, zweryfikuj finalny projekt z prawnikiem przed publikacją.

To brzmi zwyczajnie, ale właśnie zwyczajne kroki często oszczędzają najwięcej pieniędzy i nerwów. A w odcinku znajdziesz też przykład, jak takie spory wyglądają w realnym obrocie i dlaczego czasem jedno szybkie sprawdzenie może zmienić cały los projektu.

Dane, poufność i odpowiedzialność: AI nie zwalnia z myślenia

Druga wielka grupa ryzyk to dane. Paula zwraca uwagę, że korzystanie z AI często oznacza ujawnienie czegoś podmiotowi trzeciemu — nawet jeśli formalnie wpisujesz tylko prompt. Jeśli w tym promptcie znajdują się informacje poufne klienta, dane osobowe albo elementy strategii, to nie jest już niewinna zabawa z narzędziem. To jest realne przekazanie informacji poza pierwotny kontekst współpracy.

Dlatego pierwsze pytanie brzmi nie: „czy mogę użyć AI?”, tylko: czy w ogóle mogę wpisać te dane do narzędzia. Czasem odpowiedź będzie jasna: nie, bo umowa NDA albo warunki współpracy z klientem tego zakazują. Czasem będzie bardziej elastyczna, ale tylko jeśli klient został uprzedzony i zgodził się na taki sposób pracy. W wielu przypadkach najlepszym rozwiązaniem jest po prostu zapisanie tego wprost w umowie.

Podobnie z odpowiedzialnością. Jeśli podwykonawca używa AI, nie powinien znikać z odpowiedzialności za efekt końcowy. Standard profesjonalny nadal ma znaczenie: weryfikacja, korekta, sprawdzenie użyteczności, zgodności z celem, a także bezpieczeństwo praw osób trzecich. Sama technologia nie przejmuje odpowiedzialności za błąd. To nadal robi człowiek albo firma, która ją wdrożyła.

Paula pokazuje też bardzo ważny praktyczny trop: dostawca narzędzia zwykle wprost mówi, że nie bierze odpowiedzialności za to, co wygenerujesz. To oznacza, że przedsiębiorca nie może opierać się na założeniu „skoro system to podał, to jest bezpieczne”. Nie. W wielu przypadkach to właśnie użytkownik ponosi ryzyko, jeśli wykorzysta output bez sprawdzenia.

Co przedsiębiorca powinien zrobić od jutra

Jeśli prowadzisz firmę, nie potrzebujesz od razu wielkiej strategii AI compliance. Potrzebujesz kilku rzeczy, które realnie obniżają ryzyko. Najważniejsza jest świadomość, z jakich narzędzi korzysta zespół i do czego te narzędzia są używane. Bez tego każda kolejna decyzja będzie przypadkowa.

Drugi krok to prosty audyt umów i praktyk. Sprawdź, czy w kontraktach z podwykonawcami i klientami masz jasno opisane:

  • czy wolno korzystać z AI,
  • jakie typy danych wolno wprowadzać do narzędzi,
  • czy output ma być traktowany jako utwór, czy tylko materiał roboczy,
  • kto odpowiada za weryfikację treści przed oddaniem klientowi,
  • czy i kiedy przenoszone są prawa autorskie.

Trzeci krok to edukacja zespołu. Nie chodzi o to, by wszyscy stali się prawnikami. Chodzi o to, by wiedzieli, że „skopiuj-wklej z AI” nie jest neutralne prawnie. Że logo trzeba sprawdzić. Że dane klienta nie zawsze wolno wrzucić do publicznego asystenta. Że płatny dostęp nie oznacza pełnej dowolności. To są bardzo praktyczne nawyki, które chronią firmę bardziej niż deklaracje w prezentacji.

I wreszcie: jeśli tworzysz coś wartościowego, nie bój się dopisać własnych zasad. To jedna z najmocniejszych myśli z rozmowy. Skoro prawo nie daje często twardego algorytmu, firma może zbudować własny, sensowny standard. Nie po to, żeby komplikować życie. Po to, żeby później nie tłumaczyć się z chaosu.

Podsumowanie: AI nie zabiera odpowiedzialności, tylko ją porządkuje

Najważniejszy wniosek z odcinka DSS#6 jest prosty: AI nie tworzy automatycznie prawa do wszystkiego, co wypluje narzędzie. Jeśli chcesz, żeby treść stała się utworem w firmie, liczy się twórcza ingerencja człowieka, kontekst użycia i to, co dzieje się z materiałem dalej. Bez tego zostajesz z outputem, ale niekoniecznie z prawami, których oczekujesz.

Druga rzecz to kontrakt i procedura. W biznesie nie wystarczy liczyć na zdrowy rozsądek drugiej strony, bo ten zdrowy rozsądek często kończy się tam, gdzie pojawia się oszczędność czasu albo pieniędzy. Jasne zasady, transparentność i zapisanie dopuszczalnych zastosowań AI są dziś zwyczajnie tańsze niż rozwiązywanie sporu po fakcie.

Trzecia rzecz to ostrożność przy danych i cudzych prawach. Jeśli tworzysz logo, tekst reklamowy, materiał szkoleniowy albo dokumentację techniczną, sprawdź nie tylko narzędzie, ale też to, czy finalny efekt nie narusza czyjegoś znaku, wizerunku albo praw autorskich. Wiele kłopotów nie bierze się z samego AI, tylko z pośpiechu i założenia, że „jakoś to będzie”.

Jeśli chcesz zobaczyć, jak Paula Skrzypecka tłumaczy te zasady na konkretnych przykładach z rynku — od raportów i nagrań po znaki towarowe, prywatne konta i odpowiedzialność podwykonawców — warto odsłuchać cały odcinek. To najlepsze rozwinięcie tematu i praktyczna mapa dla przedsiębiorcy, który chce korzystać z AI bez wchodzenia na minę.

DSS#6

Jeśli chcesz zobaczyć pełny kontekst i usłyszeć więcej o tym, jak AI zmienia zasady gry w prawie i biznesie, kliknij i obejrzyj cały odcinek. To rozmowa, która porządkuje temat lepiej niż większość internetowych „tipów” o AI.

Posłuchaj odcinka DSS#6 na YouTube →