Sztuczna inteligencja w polskich firmach. Czego brakuje w debacie o wdrożeniach AI?
Sztuczna inteligencja coraz śmielej wchodzi do polskich firm – nie tylko jako narzędzie, ale też jako czynnik zmieniający strukturę zatrudnienia, modele decyzyjne i codzienne praktyki pracy. Z raportów firm Ernst&Young (z roku 2023 oraz analizy porównawczej rok do roku z 2025) i Deloitte wyłania się obraz rynku na rozdrożu: z jednej strony firmy dostrzegają realne korzyści z AI, z drugiej – mierzą się z wyzwaniami.
Z danych wynika, że firmy zmagają się z kilkoma wspólnymi barierami – zarówno technologicznymi, jak i organizacyjnymi.
Wspólne obawy sektorów
Badanie, które zostało zlecone przez EY Polska i wykonane przez agencję Cube Research, objęło 501 firm w pierwszej edycji w roku 2023. Jego analiza rok do roku powtórzona w ostatnim kwartale 2024 roku ponownie objęła 501 firm z tych samych branż i potwierdziła rozpoznane rok wcześniej trendy i tendencje.Choć EY 61% firm deklaruje dobrą lub bardzo dobrą znajomość przepisów dotyczących sztucznej inteligencji, bezpieczeństwo – szczególnie danych – wciąż budzi istotne obawy.
W trzech analizowanych sektorach (usługi, handel, produkcja) firmy konsekwentnie wskazują kwestie bezpieczeństwa informacji jako jedno z trzech głównych wyzwań przy wdrażaniu AI.
Obawa ta wynika m.in. z niepewności co do tego, jak zewnętrzne narzędzia AI przetwarzają dane, kto ma do nich dostęp i czy infrastruktura IT organizacji jest na to gotowa. W szczególności dotyczy to danych osobowych klientów oraz danych wewnętrznych, które mogą być nieświadomie udostępniane w narzędziach AI opartych na chmurze. Brakuje też jasnych praktyk, które regulowałyby korzystanie na własną rękę z takich narzędzi przez pracowników.
Co istotne, choć świadomość zagrożeń jest stosunkowo wysoka, raport EY nie informuje, czy idą za nią realne działania – np. inwestycje w zabezpieczenia, kontrolę dostępu czy tworzenie firmowych standardów korzystania z AI.
Taki rozjazd między deklaracjami a strategią może w praktyce oznaczać podwyższone ryzyko wycieku danych i niezgodności z wymogami europejskich regulacji, takich jak AI Act.
Koszty związane z wdrażaniem AI pozostają jedną z głównych barier, szczególnie w sektorze handlowym, gdzie wskazuje na nie niemal połowa firm. Wysokie ceny licencji, brak gotowych modeli dopasowanych do specyfiki firmy, a także konieczność rozbudowy infrastruktury IT sprawiają, że dla wielu organizacji AI to wciąż inwestycja poza zasięgiem.
Z kolei trudności technologiczne, które wskazuje około 31% firm, dotyczą przede wszystkim braku kompatybilności z istniejącymi systemami, ograniczonego dostępu do odpowiednich danych treningowych oraz braku specjalistów potrafiących skutecznie zintegrować nowe rozwiązania z dotychczasowym ekosystemem IT. AI nie jest gotowym rozwiązaniem – wymaga technicznego przygotowania, którego często brakuje.
Zmiana struktury organizacyjnej
Choć wdrażanie AI tworzy nowe role i zapotrzebowanie na specjalistów, równolegle prowadzi do poważnych zmian w strukturze zatrudnienia. Raport wskazuje, że w sektorze handlu już 36,6% firm ograniczyło rekrutację na stanowiska juniorskie, a ponad połowa planuje takie ograniczenia w przyszłości.
To zjawisko ujawnia paradoks: firmy pilnie potrzebują pracowników z doświadczeniem w AI, ale równocześnie ograniczają dostęp do pierwszych ról zawodowych, w których takie doświadczenie mogłoby się dopiero kształtować. W dłuższej perspektywie może to prowadzić do niedoboru wykwalifikowanych ekspertów – zwłaszcza jeśli juniorzy nie będą mieli, gdzie zdobywać praktyki.
W rezultacie AI nie tylko zmienia procesy operacyjne, ale też destabilizuje znane wcześniej ścieżki kariery – szczególnie dla młodszych pracowników i absolwentów wchodzących na rynek.
Optymizm mimo barier: większość firm widzi korzyści
Mimo wyzwań, około 80% firm, które już wdrożyły narzędzia AI, deklaruje osiągnięcie zamierzonych efektów. Wśród głównych korzyści najczęściej wymieniane są: automatyzacja rutynowych procesów, szybsze podejmowanie decyzji dzięki analizie danych, poprawa efektywności operacyjnej oraz odciążenie zespołów w obszarach wymagających dużych nakładów pracy manualnej.
Warto zaznaczyć, że zarówno bazowy raport EY opracowany w 2023 roku, jak i jego aktualizacja opublikowana w 2025 roku, opierają się na deklaracjach respondentów – nie na zweryfikowanych danych operacyjnych czy finansowych. Wnioski dotyczące skuteczności wdrożeń oraz planów na przyszłość odzwierciedlają więc przede wszystkim nastroje i subiektywne oceny, a nie rzeczywiste rezultaty czy działania już podjęte.
Luka zaufania. Co hamuje adaptację AI w praktyce?
Jedną z najbardziej aktualnych analiz w tym obszarze jest raport Deloitte z 2024 roku, oparty na badaniu ponad 30 000 pracowników i konsumentów z 11 krajów europejskich, w tym także z Polski. Skupia się on na sposobach korzystania z generatywnej AI (tzn. przeznaczonej do tworzenia treści, nie do obliczeń czy analizy), poziomie zaufania do tej technologii oraz najczęstszych obawach użytkowników. Równolegle Deloitte opublikował także raport „State of Generative AI in the Enterprise Q3”, oparty na danych od 705 liderów biznesowych z sześciu krajów Europy (bez udziału Polski).
Z tych analiz wyłania się tzw. luka zaufania – rozbieżność między wdrażaniem technologii AI a rzeczywistym poczuciem bezpieczeństwa i zrozumienia po stronie użytkowników.
Brakuje przejrzystości co do zasad jej użycia, przewidywalnych skutków dla stanowisk pracy i formalnych ram ochrony danych. Ta niepewność może skutecznie spowalniać adaptację AI – nawet tam, gdzie istnieje infrastruktura techniczna i gotowość do inwestycji.
Bezpieczeństwo danych i przejrzystość – warunki skutecznego wdrożenia
Choć około 31% polskich firm deklaruje, że bezpieczeństwo danych to jedno z głównych wyzwań we wdrażaniu AI, raport Deloitte wskazuje na szerszy i głębszy wymiar tego problemu. Aż 66% użytkowników generatywnej sztucznej inteligencji uznaje prywatność i bezpieczeństwo danych za kluczowy czynnik wpływający na poziom zaufania do tej technologii.
Ten rozdźwięk ujawnia różnicę perspektyw: firmy dostrzegają zagrożenia głównie w kontekście systemów i procesów organizacyjnych, podczas gdy pracownicy i konsumenci postrzegają je bardziej osobiście – jako warunek akceptacji i poczucia kontroli nad danymi. Brak uwzględnienia tej indywidualnej wrażliwości może prowadzić do utraty zaufania zarówno wewnątrz firmy, jak i w relacjach z rynkiem.
Luka w zarządzaniu ryzykiem
Deloitte wskazuje na to, że 25% pracowników korzystających z generatywnej AI w pracy opłaca dostęp do publicznych narzędzi z własnej kieszeni, a
aż połowa europejskich pracowników używających AI w pracy sięga po darmowe, ogólnodostępne narzędzia, które nie są oficjalnie zatwierdzone przez pracodawcę.
To poważna luka w zarządzaniu ryzykiem. Nieweryfikowane narzędzia często nie odpowiadają firmowym wymogom w zakresie bezpieczeństwa i ochrony danych, co niesie ryzyko ujawnienia informacji poufnych oraz dostępu do nich dla osób trzecich.
Z raportu Ernst&Young nie dowiadujemy się, czy skala problemu jest mniejsza lub większa od średniej podanej przez Deloitte. Czym konkretnie jest wdrożenie narzędzi AI lub proces ich wdrożenia? Jak często jest to opłacany przez użytkownika dostęp do konta w deepseek albo OpenAI połączony z prywatnym kontem Gmail?
Raport Deloitte zwraca uwagę, że wiele firm nie informuje jasno, jaki wpływ na zatrudnienie i zarządzanie stanowiskami pracy będzie miała sztuczna inteligencja.
Tylko 51% pracowników objętych badaniem uważa, że ich pracodawcy są transparentni w tej kwestii. Brak komunikacji budzi niepokój i osłabia zaufanie – a to właśnie zaufanie jest warunkiem powodzenia większych wdrożeń.
Przejrzystość jest szczególnie istotna na etapie przechodzenia z fazy pilotażu do szerszego zastosowania AI. Same testy technologii to za mało – potrzebne jest holistyczne podejście: jasne zasady wdrażania, procedury bezpieczeństwa oraz świadomi i dobrze poinformowani pracownicy. Tylko wtedy możliwe jest skuteczne i odpowiedzialne upowszechnianie AI w organizacji.
Wnioski na przyszłość: potrzeba monitoringu i przejrzystości
W kontekście obowiązującej już unijnej regulacji AI Act, kluczowe staje się prowadzenie badań śledzących rzeczywisty wpływ tej ustawy na polskie firmy – nie tylko na poziomie formalnej zgodności, ale także w zakresie wewnętrznych polityk, komunikacji z zespołami i zarządzania ryzykiem.
Nie wiemy, czy AI Act skłonił firmy w Polsce do realnych działań regulacyjnych i czy pracownicy są świadomi nowych zasad. Wciąż brakuje też danych, które pokazałyby, czy „wdrożenie AI” oznacza integrację z firmową infrastrukturą, czy raczej spontaniczne korzystanie z dostępnych narzędzi przez pojedyncze osoby.
Co więcej, raport EY pokazuje, że tylko 28% firm wiąże działania związane z AI z całościową strategią organizacyjną. W pozostałych przypadkach decyzje podejmowane są lokalnie – w obrębie konkretnych działów, takich jak marketing, IT czy HR (44% firm) – lub mają charakter doraźny i nieskoordynowany (24%). Taki rozkład wskazuje na brak jednolitego podejścia i długoterminowej wizji, co utrudnia odpowiedzialne i zrównoważone wdrażanie AI – niezależnie od poziomu technicznej gotowości.
To obszar, który wymaga dalszego monitorowania – także po to, by debata publiczna nie rozmijała się z realiami codziennego korzystania z AI w pracy.
Źródła:
Ernst&Young: Jak polskie firmy wdrażają AI? Analiza zmian rok do roku [dostęp: 24.10.2025]
Ernst&Young: Jak polskie firmy wdrażają AI [dostęp: 24.10.2025]
Deloitte: Europeans are optimistic about generative AI but there is more to do to close the trust gap [dostęp: 24.10.2025]Deloitte: The State of Generative AI in the Enterprise. 2024 year-end Generative AI report [dostęp: 24.10.2025]
Parlament Europejski i Rada Unii Europejskiej, Rozporządzenie (UE) 2024/1689 z dnia 13 czerwca 2024 r. ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji oraz zmieniające rozporządzenia (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektywy 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Akt w sprawie sztucznej inteligencji), Dz.U. L 2024/1689 z 12.07.2024
Sprawdź inne artykuły z tego wydania tygodnika:
Przejdź do archiwum tekstów na temat:
# Nowe technologie # Rynek pracy Centrum Wspierania Rad Pracowników