Jeśli AI już wchodzi do Twojej firmy, to zanim zaczniesz się zastanawiać nad kolejnym narzędziem, warto usłyszeć, jak o tym myśli prawnik od nowych technologii. W tym odcinku jest dokładnie o tym, gdzie kończy się wygoda, a zaczyna odpowiedzialność.
Posłuchaj odcinka DSS#6 na YouTube →Artykuły na blogu Druga Strona Sukcesu powstają z tematów poruszanych w podcaście — ale nie są streszczeniem rozmowy. To praktyczne rozwinięcie tego, co padło w odcinku, przepisane na język decyzji biznesowych.
I właśnie tu jest sedno: AI nie musi być ryzykiem w umowach z podwykonawcami, jeśli zapiszesz zasady zanim pojawi się problem. W rozmowie z Paulą Skrzypecką wybrzmiało to bardzo wyraźnie. Najwięcej kłopotów nie robi samo narzędzie, tylko brak ustaleń: czy wolno z niego korzystać, w jakim zakresie, na czyich danych, kto odpowiada za efekt i co się dzieje, gdy wygenerowana treść nie nadaje się do użytku.
To ważna wiadomość dla przedsiębiorcy. Nie trzeba tworzyć skomplikowanego „regulaminu AI” na 20 stron. Trzeba za to przestać zakładać, że podwykonawca „na pewno wie, co robi”. Właśnie wtedy zaczynają się najdroższe błędy.
Dlaczego temat AI w umowach z podwykonawcami przestał być opcjonalny
W odcinku Paula zwraca uwagę na bardzo praktyczną rzecz: przepisy nie nadążają za technologią, ale to nie znaczy, że biznes ma czekać bez ruchu. Wręcz przeciwnie — prawo cywilne, odpowiedzialność za należyte wykonanie umowy i zasada swobody umów nadal działają. Tyle że teraz trzeba je świadomie dopasować do pracy z AI.
To zmiana mentalna. Jeszcze niedawno ktoś mógł powiedzieć: „przecież niczego nie zakazaliśmy, więc wszystko jest w porządku”. Dziś to za mało. Jeśli wykonawca przygotowuje teksty, grafiki, nagrania, oferty albo dokumentację techniczną z użyciem AI, a w umowie nie ma o tym ani słowa, firma zostaje z ryzykiem po swojej stronie. I to nie tylko prawnym. Także wizerunkowym, operacyjnym i finansowym.
W praktyce najbardziej narażone są firmy, które:
- pracują z wieloma podwykonawcami jednocześnie,
- kupują treści, projekty lub materiały szkoleniowe,
- korzystają z zewnętrznych grafików, lektorów, copywriterów i software house’ów,
- nie mają własnej polityki używania narzędzi AI.
Właśnie w takich firmach jedno niedoprecyzowane zlecenie potrafi skończyć się sporem o to, czy produkt został wykonany zgodnie z umową, czy tylko „technicznie dostarczony”.
Co pokazały realne spory: gdy umowa milczy, zaczyna się interpretacja
Najmocniejsza część rozmowy dotyczyła przykładów z polskiego rynku. Pierwszy z nich to sprawa dwóch uczelni, w której zamówiony raport okazał się słabej jakości i został częściowo wygenerowany przez ChatGPT. Problem nie polegał wyłącznie na tym, że użyto AI. Kłopot zaczął się tam, gdzie zamawiający oczekiwał określonego standardu, a umowa nie mówiła wprost, że generatywna AI jest zakazana.
To pokazuje prostą zasadę: jeśli nie opiszesz, czego oczekujesz, później rozmawiasz nie o faktach, tylko o interpretacjach. A interpretacje w sporze są zawsze droższe niż jasny zapis. W tamtym przypadku można było wrócić do klasycznego narzędzia prawa cywilnego i zadać pytanie: czy świadczenie zostało wykonane należycie, skoro nie nadaje się do celu, dla którego je zamówiono?
Drugi przykład był jeszcze bardziej praktyczny. Wykonawca dostarczał nagrania do materiałów szkoleniowych, ale zamiast lektorów wykorzystał awatary i generowane głosy. Efekt? Głos był nienaturalny, pojawiły się błędy językowe, a zamówienie nie spełniło oczekiwań. I znów: umowa nie zawierała wprost zakazu użycia AI, ale z kontekstu wynikało, że zamawiający oczekiwał ludzkiego wykonania, zgód na wykorzystanie głosu i praw autorskich do materiałów.
Wniosek biznesowy jest brutalnie prosty: jeśli w Twojej firmie AI jest „dozwolone, o ile nie przeszkadza”, to w praktyce nikt nie wie, kiedy przeszkadza. A tam, gdzie nie ma granic, podwykonawca będzie szukał najtańszego rozwiązania. Niekoniecznie najlepszego.
Jak opisać korzystanie z AI w umowie z podwykonawcą, żeby było jasno i bez niedomówień
Największą wartością z rozmowy z Paulą jest to, że ona nie proponuje skomplikowanej sztuki prawniczej. Ona proponuje porządek. Najpierw określ, z jakich narzędzi w ogóle można korzystać. Potem ustal, do czego. Na końcu dopiero przychodzi odpowiedzialność i zasady akceptacji efektu.
W praktyce w umowie możesz uregulować kilka rzeczy bardzo konkretnie:
- czy podwykonawca może korzystać z AI w ogóle,
- z jakich narzędzi może korzystać — nazwanych wprost albo wskazanych kategorią,
- do jakich zadań AI jest dozwolone, a do jakich nie,
- czy wolno używać wersji darmowych czy tylko płatnych,
- czy dane klienta, prompt albo materiały mogą trafiać do zewnętrznego modelu,
- czy treści mają być oznaczane jako wspomagane przez AI,
- kto sprawdza efekt przed przekazaniem go dalej.
To nie musi być rozbudowane. Czasem wystarczy jeden paragraf, który brzmi mniej więcej tak: strony zgadzają się na korzystanie z określonych narzędzi AI wyłącznie w zakresie przygotowania szkiców, a nie do tworzenia finalnych materiałów dla klienta. Albo odwrotnie: strony dopuszczają użycie AI, ale podwykonawca gwarantuje ręczną weryfikację i ponosi odpowiedzialność za zgodność z prawami osób trzecich.
Ważne jest też, żeby nie zostawiać pola na domysły. Jeśli zgadzasz się na używanie AI w materiałach blogowych, ale nie zgadzasz się na użycie jej w dokumentacji prawnej, napisz to. Jeśli dopuszczasz AI przy researchu, ale nie przy finalnym tekście, napisz to. Im bardziej konkretnie, tym mniej miejsca na spór.
Prawa autorskie, dane i prywatność: gdzie najłatwiej o kosztowny błąd
W odcinku mocno wybrzmiał też temat praw autorskich. I tu warto od razu powiedzieć jasno: sam output z modelu nie zawsze będzie utworem, bo utwór w rozumieniu prawa wymaga twórczego udziału człowieka. Ale jeśli podwykonawca tylko „wypluwa” rezultat z narzędzia i oddaje go bez żadnej ingerencji, a klient oczekuje wyłącznych praw do dzieła, problem jest gotowy.
To dlatego Paula podkreślała znaczenie twórczego wkładu człowieka. Jeżeli grafik, copywriter czy marketer bierze wygenerowany materiał i realnie go przetwarza, poprawia, buduje na nim własną wartość, sytuacja wygląda inaczej niż przy prostym kopiowaniu wyniku z narzędzia. Z biznesowego punktu widzenia trzeba więc rozróżnić dwie rzeczy: pomoc AI i oddanie surowego wyniku.
Drugi obszar ryzyka to dane i poufność. Jeśli podwykonawca wrzuca do narzędzia prompt zawierający informacje o kliencie, strategie, NDA albo dane osobowe, formalnie może to oznaczać ujawnienie informacji podmiotowi trzeciemu. I to bez względu na to, czy ktoś zrobił to z intencją „tylko na chwilę”. Tu nie działa argument: „przecież to tylko narzędzie”.
Dlatego w umowie warto uregulować trzy rzeczy:
- jakie dane w ogóle mogą być wprowadzane do narzędzia,
- czy klient został o tym uprzedzony,
- kto odpowiada za ewentualne naruszenie NDA, tajemnicy przedsiębiorstwa albo zasad ochrony danych.
W praktyce najbardziej rozsądną zasadą jest transparentność. Jeśli podwykonawca ma korzystać z asystentów AI, klient powinien wiedzieć, w jakim zakresie i z jakim ryzykiem. To nie tylko zabezpiecza firmę. To też buduje zaufanie.
Właśnie w tym miejscu rozmowa z Paulą robi się najbardziej praktyczna: padają przykłady, jak rozmawiać z podwykonawcą o AI, danych i odpowiedzialności bez wchodzenia w urzędowy język. Jeśli chcesz usłyszeć, jak to brzmi w konkretach, warto wrócić do odcinka.
Posłuchaj odcinka DSS#6 na YouTube →Jak zabezpieczyć firmę bez tworzenia paragrafów, których nikt nie czyta
Paula bardzo dobrze pokazała, że skuteczna umowa to nie jest dokument, który wygląda groźnie. To dokument, który działa. Dlatego zamiast pisać ogólniki, lepiej zapisać kilka konkretnych zasad i potraktować je jak część procesu współpracy z podwykonawcą.
Najbardziej praktyczne podejście wygląda tak:
- zdefiniuj narzędzia — wskaż, z jakich systemów wolno korzystać,
- zdefiniuj zakres — opisz, co wolno zrobić z pomocą AI, a czego nie,
- zdefiniuj dane — ustal, co można wprowadzać do narzędzia,
- zdefiniuj odpowiedzialność — wskaż, kto odpowiada za naruszenie praw osób trzecich,
- zdefiniuj kontrolę — ustal, kto weryfikuje efekt przed przekazaniem dalej.
To samo dotyczy relacji z podwykonawcą, który jest dla Ciebie stałym partnerem. Jeśli pracujecie razem długo, warto stworzyć wspólnie listę dopuszczonych narzędzi i aktualizować ją w miarę zmian. To prostsze niż gaszenie pożaru po tym, jak ktoś w dobrej wierze użył wersji darmowej narzędzia, które nie pozwala na użycie komercyjne.
Warto też pamiętać o praktycznej stronie bezpieczeństwa. Czasem problemem nie jest prawo, tylko dostępność. Jeśli cały proces pracy opiera się na tym, że „jak jutro padnie ChatGPT, to zobaczymy”, to firma sama siebie ustawia w ryzykownym miejscu. Dobre umowy mają więc nie tylko chronić przed sporami, ale też wymuszać rozsądek operacyjny.
Kiedy AI pomaga, a kiedy staje się zwykłą oszczędnością kosztem jakości
Jedna z ciekawszych myśli z rozmowy dotyczyła tego, że AI samo w sobie nie rozwiązuje problemu jakości. Jeśli ktoś jest słaby, to z AI nadal będzie słaby. Jeśli ktoś ma kompetencje, narzędzie może mu tylko pomóc szybciej je wykorzystać. I to jest bardzo dobra perspektywa dla przedsiębiorcy.
Bo wtedy nie pytasz już: „czy można korzystać z AI?”. Pytasz raczej: „czy ten podwykonawca wie, co robi, i czy bierze odpowiedzialność za rezultat?”. To dużo lepsze pytanie. Zmienia rozmowę z technicznej na biznesową. A biznesowo liczy się efekt, zgodność z celem i ryzyko, które jesteś gotów zaakceptować.
W przypadku prac kreatywnych, materiałów marketingowych czy dokumentacji technicznej AI może być świetnym wsparciem. Ale tylko wtedy, gdy podwykonawca nie traktuje jej jak wymówki do obniżenia jakości. Jeśli masz w umowie zapisane oczekiwania jakościowe, obowiązek weryfikacji i jasny podział odpowiedzialności, dużo łatwiej rozpoznać, kiedy ktoś dostarcza faktyczną wartość, a kiedy tylko tanią imitację pracy.
To właśnie dlatego temat AI w umowach z podwykonawcami nie jest o technologii. Jest o jakości współpracy. A technologia tylko przyspiesza ujawnienie tego, co i tak już było prawdą o procesie.
Podsumowanie: transparentność jest tańsza niż spór
Jeśli miałbym zamknąć ten odcinek jednym zdaniem, brzmiałoby ono tak: AI w umowie nie powinna być zakazanym słowem ani magicznym przywilejem, tylko jasno opisanym narzędziem pracy. Wtedy obie strony wiedzą, na czym stoją.
W rozmowie z Paulą Skrzypecką wybrzmiało kilka praktycznych wniosków. Po pierwsze: umowa ma mówić wprost, czy AI jest dopuszczone i w jakim zakresie. Po drugie: trzeba rozróżnić surowy wynik z narzędzia od rzeczywiście twórczej pracy człowieka. Po trzecie: dane, prompt, poufność i prawa autorskie nie mogą być zostawione „na zdrowy rozsądek”, bo zdrowy rozsądek nie rozwiązuje sporów.
Najważniejsza lekcja jest jednak jeszcze prostsza. Jeśli chcesz uniknąć problemów, nie zaczynaj od narzędzia. Zacznij od zasad. Dopiero potem wybieraj AI, podwykonawcę i model współpracy. To oszczędza czas, pieniądze i nerwy — a czasem także relację z klientem.
Jeżeli chcesz usłyszeć więcej przykładów z praktyki, w tym konkretne historie sporów i sposób myślenia o granicy między wygodą a odpowiedzialnością, wróć do pełnego odcinka podcastu. To najlepsze rozwinięcie tego tematu.
Jeśli chcesz przenieść te zasady do własnej firmy, pełny odcinek da Ci dużo więcej kontekstu i konkretnych przykładów z praktyki. To dobra okazja, żeby zobaczyć, jak o AI, prawie i umowach mówi się bez prawniczego zadęcia.
Posłuchaj odcinka DSS#6 na YouTube →