DSS#30

Jeśli chcesz zobaczyć, jak naprawdę myśli przedsiębiorca, który wdraża AI bez nabożnego strachu i bez zachwytu oderwanego od biznesu, posłuchaj pełnej rozmowy. W odcinku DSS#30 jest dużo więcej kontekstu, który pomaga zrozumieć, gdzie kończy się automatyzacja, a zaczyna odpowiedzialność lidera.

Posłuchaj odcinka DSS#30 na YouTube →

Artykuły, które czytasz na blogu „Druga Strona Sukcesu”, powstają z tematów poruszanych w podcaście. Nie są streszczeniem rozmowy słowo w słowo. Są rozwinięciem tego, co padło między pytaniami o rozwój firmy, błędy, decyzje i konsekwencje. I właśnie dlatego ten tekst warto czytać jak praktyczny filtr: co z AI naprawdę pomaga w biznesie, a co tylko daje złudzenie, że „system już pomyśli za nas”.

W odcinku DSS#30 Bartosz Szkudlarek bardzo jasno pokazuje, że technologia sama w sobie nie jest ani ratunkiem, ani zagrożeniem. Zagrożeniem bywa sposób, w jaki firma ją wdraża. Jeśli chcesz zbudować organizację odporną na chaos, zmianę i presję rynku, musisz wiedzieć, gdzie oddać zadanie AI, a gdzie zostawić decyzję człowiekowi. Bo odpowiedzialność za wynik nie znika tylko dlatego, że wynik wygenerował algorytm.

Czy można ufać AI w decyzjach biznesowych, jeśli nie rozumiesz jej działania?

Najkrótsza odpowiedź brzmi: można jej ufać tylko częściowo. I dokładnie to wybrzmiewa w rozmowie. Bartosz zwraca uwagę, że AI nie działa jak klasyczny algorytm obliczeniowy, tylko jak system probabilistyczny. To oznacza, że może się mylić, może podpowiedzieć coś pozornie sensownego, a jednak nietrafionego. W praktyce biznesowej nie jest to problem, jeśli traktujesz AI jak narzędzie wsparcia. Problem zaczyna się wtedy, gdy zaczynasz traktować ją jak wyrocznię.

To ważna zmiana perspektywy. W wielu firmach pokusa jest prosta: skoro model generuje odpowiedź szybciej niż człowiek, to może też szybciej podejmie decyzję. Tylko że szybkość nie jest tym samym co trafność. Bartosz przywołuje choćby Google Maps jako przykład systemu, który nie podaje „prawdy absolutnej”, tylko najbardziej prawdopodobną wersję właściwej decyzji. I właśnie tak trzeba myśleć o AI w biznesie: jako o przyspieszeniu myślenia, a nie jego zastępstwie.

Jeśli chcesz wykorzystać AI odpowiedzialnie, zacznij od prostego pytania:

  • czy ten wynik można zweryfikować człowiekiem,
  • czy błąd będzie odwracalny,
  • czy decyzja niesie koszt, którego nie da się łatwo odzyskać,
  • czy AI tylko skraca proces, czy już faktycznie przejmuje odpowiedzialność.

Właśnie w tym miejscu kończy się wygoda, a zaczyna zarządzanie. Dobrze użyta AI odciąża firmę. Źle użyta daje poczucie bezpieczeństwa, którego nie ma.

Dlaczego doświadczenie może bardziej blokować niż pomagać w wdrażaniu AI?

To jeden z najmocniejszych wątków rozmowy. Bartosz mówi wprost, że wiedza i doświadczenie potrafią być blokadą. Brzmi paradoksalnie, ale ma sens. Im więcej lat w biznesie, tym więcej ryzyk widzisz. Im więcej błędów pamiętasz, tym mniej chętnie wchodzisz w nowe rozwiązania. I wtedy zamiast przewagi powstaje hamulec: „to się nie uda”, „to za ryzykowne”, „to na pewno rozbije proces”.

W kontekście AI ten problem jest szczególnie wyraźny, bo technologia rozwija się szybciej niż nasze stare procedury oceny ryzyka. Bartosz mówi o konieczności „oduczania się” tego, co działało przez ostatnie 25 lat. To mocne, ale prawdziwe. Jeśli firma próbuje budować przyszłość dokładnie tak, jak budowała ją w przeszłości, może po prostu nie zauważyć zmiany, która już dzieje się na rynku.

To prowadzi do ważnego wniosku: w firmie potrzebujesz nie tylko ludzi doświadczonych, ale też ludzi gotowych zadać głupie pytanie, zakwestionować schemat i sprawdzić coś bez nadmiernego przywiązania do starego porządku. AI nie wymaga ślepej wiary. Wymaga gotowości do uczenia się od nowa.

W praktyce oznacza to trzy rzeczy:

  • nie myl sceptycyzmu z blokowaniem zmian,
  • nie pozwól, by „tak zawsze robiliśmy” zamknęło temat na starcie,
  • traktuj doświadczenie jako źródło ostrożności, ale nie jako wymówkę przed testem.

Właśnie dlatego w firmie Bartosza tak ważne są relacje z ludźmi, rynek i kontakt z rzeczywistością. Nie buduje się przyszłości w próżni.

Jak AI zmienia odpowiedzialność lidera i zespołu?

W rozmowie wybrzmiewa bardzo zdrowe podejście: technologia nie zwalnia lidera z myślenia o ludziach. Wręcz przeciwnie. Im więcej automatyzacji, tym większe znaczenie ma to, jak komunikujesz zmianę, jak tłumaczysz sens i jak pokazujesz, że nowy system nie jest tylko narzędziem do cięcia kosztów, ale elementem szerszej odpowiedzialności za firmę.

Bartosz opowiada o sytuacji, w której prezes jednej z firm ubezpieczeniowych publicznie powiedziała, że system ma pomóc zwolnić część ludzi. Efekt był oczywisty: opór, lęk, niechęć i przekonanie, że technologia jest przeciwko pracownikom. To świetny przykład tego, jak nie wdrażać AI. Jeśli ludzie usłyszą, że narzędzie ma ich zastąpić, będą sabotażować wdrożenie nawet wtedy, gdy projekt ma sens biznesowy.

Dlatego odpowiedzialność lidera polega dziś na czymś więcej niż tylko wyborze narzędzia. Musi zadbać o trzy poziomy naraz:

  • poziom biznesowy: czy to się opłaca,
  • poziom operacyjny: czy to działa w praktyce,
  • poziom ludzki: czy zespół rozumie, po co to robi.

Bartosz mówi też o „no blame policy” i o budowaniu przestrzeni do błędów. To nie jest miękka gadka. To warunek, żeby ludzie chcieli eksperymentować z AI zamiast tylko udawać, że wdrożenie postępuje. Jeśli za błąd grozi kara, każdy będzie wolał przeczekać zmianę. Jeśli błąd jest elementem procesu, zespół zaczyna działać.

Tu kryje się ważna granica odpowiedzialności: AI może przyspieszać, ale to człowiek odpowiada za klimat, w którym zespół z niej korzysta. I za to, czy technologia stanie się narzędziem rozwoju, czy kolejnym źródłem strachu.

DSS#30

W połowie rozmowy pojawia się bardzo konkretny wątek: jak wdrażać technologię tak, żeby nie zabić motywacji zespołu. To dobry moment, żeby wrócić do odcinka, bo właśnie tam padają przykłady, które pokazują, dlaczego opór przed AI często zaczyna się nie od technologii, tylko od źle poprowadzonej komunikacji.

Posłuchaj odcinka DSS#30 na YouTube →

Jak uniknąć sabotażu wdrożeń AI w organizacji?

Bartosz opisuje bardzo praktyczny mechanizm: jeśli ludzie nie czują współodpowiedzialności, będą traktować zmianę jak coś narzuconego z góry. A wtedy pojawia się sabotaż, czasem otwarty, czasem bierny. Na poziomie deklaracji wszyscy są „za innowacją”, ale w codzienności nikt nie chce ryzykować własnego komfortu. Dlatego jego organizacja nie zaczyna od technologii, tylko od rynku, rozmów i zderzenia pomysłu z rzeczywistą potrzebą.

To jest dobry model dla każdej firmy, która wdraża AI. Najpierw trzeba sprawdzić, czy problem w ogóle istnieje. Potem trzeba zobaczyć, czy rozwiązanie AI rzeczywiście go zmniejsza. Dopiero później warto inwestować czas i budżet. Bartosz mówi wprost: w jego firmie „nie powstaje nic, dopóki nie jest skonfrontowane z rynkiem”. To działa jak filtr przeciwko sztucznej kreatywności, czyli produkowaniu narzędzi tylko dlatego, że proces tworzenia jest przyjemny.

Żeby ograniczyć sabotaż, warto pilnować kilku rzeczy:

  • nazywaj zmianę językiem korzyści, nie zagrożenia,
  • pokazuj ludziom, co zyskają w codziennej pracy,
  • nie każ wdrażać AI „bo tak”,
  • daj czas na oswojenie się z nowym modelem pracy,
  • mierz efekt biznesowy, ale nie ignoruj reakcji zespołu.

Jeśli tego nie zrobisz, technologia staje się symbolem czegoś obcego. A to właśnie z obcości rodzi się opór. W DSS#30 dobrze widać, że dobre wdrożenie AI nie polega na tym, by wymusić akceptację. Polega na tym, by stworzyć warunki, w których ludzie mają sens, wpływ i bezpieczeństwo psychologiczne.

Dlaczego AI nie może zastąpić odpowiedzialności za wynik finansowy?

Jedna z ciekawszych części rozmowy dotyczyła połączenia miękkiego podejścia z twardym biznesem. Bartosz nie mówi: „róbmy innowacje dla innowacji”. Mówi coś odwrotnego: jeśli coś nie przekłada się na przychód albo oszczędność, to przedsiębiorstwo traci sens. I dlatego w jego firmie liderzy technologiczni mają nie tylko zadania, ale też budżety i odpowiedzialność za wynik.

To bardzo ważne w kontekście AI responsibility. Łatwo zachwycić się automatyzacją, modelami i usprawnieniami, a potem zapomnieć, że każdy eksperyment kosztuje. Bartosz opowiada, że ustalili 15% czasu na nowe rzeczy, ale realnie na początku wykorzystywali tylko 3%. To pokazuje, jak łatwo deklarować innowację, a jak trudno rzeczywiście ją dowieźć. Sama przestrzeń nie wystarczy. Potrzebne są priorytety, dyscyplina i sprawdzenie, czy nowy projekt ma ekonomiczny sens.

To podejście jest zdrowe, bo stawia granice. AI może pomóc, ale nie może zastąpić myślenia o marży, kosztach i zwrocie z inwestycji. W praktyce warto pamiętać o prostym układzie:

  • AI przyspiesza proces,
  • lider ocenia, czy przyspieszony proces ma sens biznesowy,
  • firma mierzy efekt na wyniku, nie na entuzjazmie.

To właśnie dlatego Bartosz przenosi odpowiedzialność ekonomiczną niżej w organizacji. Gdy ludzie widzą koszty i wynik, zaczynają myśleć inaczej. Przestają produkować rozwiązania „na fajność”, a zaczynają zadawać pytanie: czy to realnie pomaga firmie?

Czy AI jest zagrożeniem, czy kolejną falą, którą trzeba umieć wykorzystać?

W rozmowie pada bardzo dojrzała myśl: technologia zmienia rynek, ale rynek zawsze się do tego dostosowuje. Bartosz przywołuje rewolucję przemysłową, rozwój fotografii cyfrowej, zanik zawodów takich jak szewc czy zegarmistrz oraz upadek firm, które nie umiały się przestawić. To nie jest opowieść o tym, że świat jest sprawiedliwy. To jest opowieść o tym, że świat się zmienia, a firmy, które tego nie rozumieją, zostają z tyłu.

AI nie jest więc ani wybawieniem, ani apokalipsą. Jest kolejną falą. Jedni będą ją blokować, inni próbować na niej surfować. Bartosz jasno mówi, że nie ma gwarancji bezpieczeństwa. Ale jest szansa, żeby wykorzystać zmianę szybciej niż konkurencja. I właśnie tu pojawia się odpowiedzialność: nie za to, czy fala nadejdzie, ale za to, jak przygotujesz ludzi, procesy i decyzje na moment, kiedy już będzie na brzegu.

W praktyce to oznacza, że firma powinna:

  • testować małe rzeczy zamiast budować wielkie projekty w ciemno,
  • rozmawiać z rynkiem zanim zamknie się w własnych pomysłach,
  • łączyć dane finansowe z decyzjami technologicznymi,
  • traktować AI jako wsparcie w szukaniu przewagi, nie jako wymówkę do oddania sterów.

Bartosz nie ukrywa też obawy przed koncentracją mocy obliczeniowej i przewagą kilku globalnych graczy. To ważny sygnał: odpowiedzialność nie kończy się na poziomie jednej firmy. Obejmuje też szerszy kontekst rynku, na którym działasz. Tym bardziej warto budować własną zdolność do adaptacji, zanim rynek zrobi to za ciebie.

Podsumowanie: zaufanie do AI zaczyna się od dojrzałości firmy

Jeśli z tej rozmowy miałby zostać jeden wniosek, byłby prosty: AI nie powinno podejmować decyzji za firmę, tylko pomagać je podejmować szybciej i lepiej. Ale to działa wyłącznie wtedy, gdy firma ma jasne zasady, dobrego lidera i odwagę mówić o odpowiedzialności bez zasłaniania się technologią. W DSS#30 bardzo mocno wybrzmiewa, że sukces nie polega na wdrożeniu modnego narzędzia. Polega na tym, żeby nie stracić kontaktu z rynkiem, ludźmi i wynikiem.

Druga rzecz: im bardziej technologia przyspiesza, tym bardziej liczy się człowiek. Nie tylko jako użytkownik, ale jako ktoś, kto rozumie konsekwencje, potrafi nadać sens zmianie i nie boi się powiedzieć „sprawdźmy to najpierw na małej skali”. AI responsibility to nie jest hasło do prezentacji. To codzienna praktyka: testowanie, weryfikacja, rozmowa z zespołem i pilnowanie, żeby technologia nie zaczęła żyć własnym życiem.

Trzecia rzecz: firmy, które wygrają, nie będą najszybsze w kupowaniu narzędzi. Będą najszybsze w uczeniu się, odpuszczaniu starych schematów i przekładaniu eksperymentów na realny wynik. Właśnie o tym jest ten odcinek. Jeśli chcesz zobaczyć, jak taki sposób myślenia wygląda w praktyce i jak Bartosz Szkudlarek podchodzi do AI, ryzyka, zespołu i odpowiedzialności lidera, warto przesłuchać pełną rozmowę.

DSS#30

Jeśli ten temat jest ci bliski, pełny odcinek DSS#30 da ci jeszcze więcej przykładów i kontekstu. To dobra rozmowa, żeby zobaczyć, jak odpowiedzialnie myśleć o AI w firmie, bez paniki, bez marketingowego szumu i bez udawania, że technologia sama rozwiąże problem.

Posłuchaj odcinka DSS#30 na YouTube →