DSS#6

Ten tekst jest inspirowany tematami poruszanymi w podcastcie „Druga Strona Sukcesu”. Jeśli chcesz usłyszeć, jak Paula Skrzypecka tłumaczy granice AI w prawie i biznesie na prawdziwych przykładach, zacznij od odcinka DSS#6.

Posłuchaj odcinka DSS#6 na YouTube →

Uczelnia nie powinna skazywać nikogo na podstawie procentu z antyplagiatu. To zbyt słabe narzędzie, żeby udawało wyrok. W odcinku DSS#6 Paula Skrzypecka bardzo wyraźnie pokazuje, że AI może wspierać ocenę pracy, ale nie może zastąpić człowieka, który rozumie kontekst, potrafi przeczytać tekst i wie, czym dana dziedzina nauki naprawdę żyje.

To ważne nie tylko dla studentów i promotorów. To temat dla każdego przedsiębiorcy, który korzysta z AI w tworzeniu treści, ofert, dokumentacji, grafik czy materiałów szkoleniowych. Bo jeśli dziś uczelnia ma problem z oceną pracy pisanej z pomocą czatu, to jutro podobny problem może mieć firma, która zleca treść, rozlicza podwykonawcę albo wdraża własne procedury kontroli jakości.

W tym odcinku nie ma teorii dla teorii. Są konkretne przypadki, praktyczne ryzyka i spokojne przypomnienie, że prawo nie nadąża za technologią nie dlatego, że jest głupie, tylko dlatego, że musi działać szerzej niż jeden modny przypadek. I właśnie z tej perspektywy warto spojrzeć na pytanie: czy uczelnia może karać za pracę napisaną z pomocą AI?

Czy uczelnia może karać za pracę napisaną z pomocą AI, skoro system antyplagiatowy daje tylko procenty?

Największy problem z narzędziami wykrywającymi treści tworzone z użyciem AI polega na tym, że one nie dają pewności. Dają wskaźnik, prawdopodobieństwo, szacunkowy sygnał. Paula w rozmowie zwraca uwagę na coś bardzo prostego, ale kluczowego: taki wynik nie mówi „to na pewno napisał czat”, tylko „coś wskazuje, że mogło tak być”. To ogromna różnica, zwłaszcza gdy stawką jest zaliczenie roku, obrona pracy albo reputacja studenta.

W praktyce oznacza to, że sam raport antyplagiatowy nie powinien być traktowany jak automat decyzyjny. Powinien być sygnałem do sprawdzenia pracy przez promotora, a nie substytutem czytania. Właśnie to jest sedno podejścia, o którym mówi gościni odcinka: człowiek ma ocenić, czy tekst ma sens, czy student rozumie temat i czy faktycznie doszło do nadużycia, czy tylko narzędzie „uznało”, że coś brzmi zbyt gładko.

To nie jest akademicka fanaberia. Paula przypomina, że nawet w naukach prawnych, gdzie cytowanie i powtarzanie treści jest częścią pracy naukowej, automatyczne narzędzia potrafią się mylić. Jeśli więc student dostaje wysoki procent „AI”, to nie znaczy jeszcze, że oszukiwał. Może po prostu pisał poprawnie, rzeczowo i bez stylistycznych fajerwerków. A czasem właśnie tak wygląda dobra praca.

Wniosek jest prosty: jeśli uczelnia chce sprawdzać AI, to nie może robić tego jak sąd wydający wyrok na podstawie jednego raportu. Potrzebny jest człowiek, kontekst i odpowiedzialność. Inaczej łatwo zablokować kogoś, kto po prostu potrafi pisać zwięźle i sensownie.

Promotor nie może zniknąć z procesu. Automatyzacja ma wspierać, a nie przejmować odpowiedzialność

W rozmowie pada bardzo ważna myśl: system antyplagiatowy może być wsparciem, ale nie zastępuje promotora. To szczególnie istotne, gdy pojawia się pokusa, by wszystko uprościć do jednego progu procentowego. Problem w tym, że praca dyplomowa nie jest zbiorem znaków do odfajkowania. To dokument, który trzeba przeczytać, zrozumieć i ocenić w odniesieniu do konkretnej osoby, kierunku i wymagań.

Paula podkreśla też, że różne dyscypliny działają inaczej. W prawie, gdzie cytowanie źródeł i odwoływanie się do cudzych treści jest codziennością, system może oznaczać wysokie ryzyko, choć praca jest poprawna. To samo może wydarzyć się w innych naukach, gdzie styl pisania jest bardziej formalny, a tekst mniej „ludzki” w sensie potocznym. Narzędzie widzi podobieństwo. Promotor widzi człowieka.

Dlatego sensowniejsze podejście do uczelni wygląda tak:

  • antyplagiat jako filtr wstępny, nie jako finalna decyzja,
  • promotor jako osoba, która rozumie treść, a nie tylko procent,
  • ocena kontekstu: dyscyplina, poziom studiów, charakter pracy,
  • możliwość wyjaśnienia, jak student korzystał z AI i co sam dopracował.

To jest też lekcja dla biznesu. Jeśli w firmie ktoś chce oceniać jakość wyłącznie przez KPI z narzędzia, skończy się podobnie: będzie liczba, ale nie będzie rozumienia. A bez rozumienia łatwo skrzywdzić pracownika, podwykonawcę albo klienta.

Praca napisana z pomocą AI nadal może mieć wartość. Pytanie brzmi: kto wniósł własny wkład?

Jednym z mocniejszych fragmentów rozmowy jest pytanie o wartość pracy stworzonej z pomocą czatu. Paula odpowiada bez kluczenia: to nie narzędzie decyduje o jakości, tylko człowiek. Jeśli ktoś jest słaby merytorycznie, to AI nie zrobi z niego eksperta. Jeśli ktoś ma wiedzę, umiejętność analizy i wrażliwość na temat, AI może być przyspieszaczem, a nie protezą.

To bardzo zdrowe podejście, bo odczarowuje dwie skrajności. Pierwsza skrajność mówi: „wszystko napisane z AI jest bezwartościowe”. Druga: „skoro AI pomaga, to człowiek już nie jest potrzebny”. Obie są błędne. W praktyce liczy się to, czy ktoś potrafił nadać tekstowi własny kierunek, wyciągnąć wnioski, przerobić materiał, dodać strukturę i odpowiedzialność za wynik.

Właśnie dlatego w rozmowie pada porównanie do fotografa obrabiającego zdjęcie. Surowy materiał to nie wszystko. Liczy się praca końcowa, decyzje twórcze i to, czy człowiek rzeczywiście coś dołożył od siebie. W kontekście prac dyplomowych oznacza to, że student, który korzysta z AI do szkicu, researchu czy porządkowania myśli, nie robi nic automatycznie złego. Problem zaczyna się dopiero wtedy, gdy oddaje coś bez zrozumienia i bez własnego wkładu.

To samo dotyczy biznesu. Jeśli tworzysz ofertę, dokumentację techniczną albo tekst marketingowy z pomocą AI, pytanie nie brzmi „czy użyłeś czatu?”. Pytanie brzmi: „co z tym zrobiłeś potem?”. Bo właśnie tam zaczyna się jakość, odpowiedzialność i ryzyko.

DSS#6

W połowie rozmowy pojawia się temat, który dotyczy nie tylko uczelni, ale też firm: jak sprawdzać użycie AI bez krzywdzenia ludzi procentem z narzędzia. Jeśli to Cię dotyczy, odsłuchaj tę część odcinka DSS#6.

Posłuchaj odcinka DSS#6 na YouTube →

Jak firmy i uczelnie powinny ustawiać zasady korzystania z AI, żeby nie udawać bezpieczeństwa?

W rozmowie mocno wybrzmiewa jedna zasada: transparentność. Jeśli korzystasz z AI w biznesie, nie chowaj tego pod dywan i nie udawaj, że problem sam zniknie. Paula mówi wprost, że najlepsze zabezpieczenie zaczyna się od ustalenia, z jakich narzędzi wolno korzystać, do czego można ich używać i kto odpowiada za wynik. To brzmi prosto, ale właśnie prostota chroni najlepiej.

W praktyce warto wprowadzić kilka jasnych reguł:

  • określić, które narzędzia są dozwolone,
  • napisać, do jakich zadań można ich używać,
  • ustalić, jakie dane nie mogą trafiać do modelu,
  • wskazać, kto sprawdza efekt końcowy przed przekazaniem dalej,
  • opisać odpowiedzialność podwykonawcy i zasady reakcji na roszczenia.

To dotyczy też relacji z klientem. Jeśli tworzysz strategię, ofertę czy dokument na bazie AI, nie wystarczy powiedzieć: „to tylko narzędzie”. Trzeba ustalić, czy klient zgadza się na taki proces, czy akceptuje określone narzędzia i czy w ogóle dopuszcza ich udział. W odcinku pada bardzo ważna uwaga: przesłanie promptu z danymi klienta do zewnętrznego systemu może być w praktyce ujawnieniem informacji poufnych. I tu nie ma miejsca na zgadywanie.

W przypadku uczelni analogia jest oczywista. Jeżeli studentowi wolno korzystać z AI, trzeba mu powiedzieć, na jakich zasadach. Jeśli nie wolno, trzeba wyjaśnić dlaczego i jak uczelnia będzie to sprawdzać. Udawanie, że „jakoś to będzie”, zwykle kończy się konfliktem i niesprawiedliwością.

Czy AI łamie prawa autorskie? Nie zawsze. Ale użytkownik musi wiedzieć, kiedy wchodzi na cienki lód

Jednym z najciekawszych wątków odcinka jest rozróżnienie między zwykłym użyciem AI a sytuacją, w której pojawia się realne ryzyko naruszenia praw osób trzecich. Paula podkreśla, że sam styl nie podlega ochronie, podobnie jak sam pomysł. Problem zaczyna się wtedy, gdy output jest zbyt podobny do konkretnego utworu, logo albo wizerunku. Wtedy nie ma znaczenia, czy wygenerował go człowiek, czy model.

To ważne zwłaszcza dla firm, które generują logotypy, grafiki reklamowe czy hasła kampanii. Nie można zakładać, że „skoro zrobił to model, to nikt się nie przyczepi”. Jeśli obrazek albo logo wygląda jak czyjeś oznaczenie, albo wykorzystuje chroniony wizerunek, odpowiedzialność może spaść na użytkownika. Właśnie dlatego warto sprawdzać podobieństwo w rejestrach znaków towarowych i nie zaczynać projektu od entuzjazmu, tylko od szybkiego sanity checku.

Paula podaje konkret: przy logo najlepiej najpierw sprawdzić wyszukiwarkę Urzędu Patentowego RP, potem bazę EUIPO i WIPO. To nie jest przesada. To po prostu sposób, żeby nie budować marki na czymś, co już jest zajęte albo zbyt podobne. W biznesie taka ostrożność jest tańsza niż późniejszy spór.

Warto zapamiętać prostą zasadę: AI nie zwalnia z odpowiedzialności za to, co publikujesz. Nawet jeśli narzędzie daje Ci „gotowy” materiał, to Ty decydujesz, czy nadaje się do użycia. Jeśli nie sprawdzisz, ryzyko zostaje po Twojej stronie.

Prawo nie musi nadążać za każdą nowinką. Czasem wystarczą stare zasady, żeby ogarnąć nową technologię

W odcinku mocno wybrzmiewa też coś bardzo uspokajającego: nie wszystko wymaga nowego przepisu. Przykład z jedną z opisanych spraw pokazuje, że wystarczy odwołać się do zasad należytego wykonania umowy, żeby rozwiązać problem produktu wygenerowanego przez AI, który po prostu nie nadaje się do celu. Nie trzeba za każdym razem tworzyć nowego prawa od zera.

To ważna lekcja dla przedsiębiorców, którzy lubią pytać: „a czy to już jest uregulowane?”. Czasem odpowiedź brzmi: nie wprost, ale stary mechanizm nadal działa. Jeśli zamówiłeś raport, nagranie albo dokumentację i dostałeś rzecz, która nie spełnia celu, to masz problem jakościowy i kontraktowy, nie metafizyczny. Prawo cywilne nadal potrafi takie sytuacje obsłużyć.

Właśnie dlatego Paula podkreśla sens patrzenia na regulacje celowo, a nie jak na zbiór wyrwanych zdań. Zamiast pytać tylko „czego nie wolno”, lepiej zapytać „po co ten przepis istnieje”. To podejście przydaje się w firmie, w uczelni i przy każdym wdrożeniu AI. Bo technologia zmienia formę, ale nie zmienia podstawowych pytań o odpowiedzialność, rzetelność i zaufanie.

I tu pojawia się najważniejszy wniosek z całej rozmowy: AI nie znosi odpowiedzialności. Ono ją przesuwa na miejsce, gdzie trzeba bardziej uważać. Na człowieka, który podpisuje, zatwierdza, publikuje i rozlicza.

Podsumowanie

Jeśli uczelnia chce korzystać z antyplagiatu, musi pamiętać, że wynik procentowy to nie wyrok. Narzędzie może pomóc wychwycić ryzyko, ale decyzję powinien podjąć człowiek, który rozumie tekst i kontekst. Bez tego łatwo skrzywdzić kogoś, kto po prostu pisze dobrze, a nie „za czysto”.

Jeśli firma korzysta z AI, powinna zrobić to jeszcze bardziej świadomie. Wybór narzędzia, zakres użycia, dane wejściowe, zgody klientów i odpowiedzialność za wynik to nie dodatki, tylko fundament. Transparentność jest tu nie miękkim hasłem, ale najtańszym sposobem na uniknięcie problemów.

Najważniejsze jednak jest to, że AI nie tworzy jakości z niczego. Może przyspieszyć, uporządkować, podpowiedzieć i odciążyć, ale nie zastąpi kompetencji, odpowiedzialności i zdrowego rozsądku. To człowiek decyduje, czy efekt końcowy nadaje się do obrony, publikacji albo wdrożenia.

Jeśli chcesz usłyszeć więcej konkretnych przykładów, w tym o sporach uczelnianych, prawach autorskich, danych osobowych i tym, jak biznes może ustawić bezpieczne zasady korzystania z AI, koniecznie obejrzyj pełny odcinek podcastu.

DSS#6

To był tylko wycinek najciekawszych wątków. W pełnym odcinku DSS#6 usłyszysz więcej praktycznych przykładów, sporów i konkretnych zasad, które pomagają nie wpaść w pułapki AI w prawie i biznesie.

Posłuchaj odcinka DSS#6 na YouTube →