Coraz więcej osób korzysta z narzędzi sztucznej inteligencji w pracy – jak wynika z raportu BUZZcenter, w ubiegłym roku w Polsce dotyczyło to aż 77 proc. firm. Problem w tym, że choć AI staje się coraz powszechniejsze, wiele organizacji nie ma wystarczającej strategii na jej odpowiednie wykorzystanie. Co gorsza, 30 proc. przedsiębiorców nie przygotowuje się wcale na awarie systemów AI. A brak jasnych procedur to prawdziwe zagrożenie – nie tylko dla sprawności operacyjnej, ale i dla cyberbezpieczeństwa firmy. 

Korzyści płynące z AI 

Według danych Eurobarometru większość obywateli Unii Europejskiej dostrzega pozytywny wpływ technologii cyfrowych, w tym sztucznej inteligencji, na rynek pracy, gospodarkę, społeczeństwo oraz jakość życia. Z badań wynika, że 62 proc. obywateli UE ma pozytywne nastawienie do wykorzystywania robotów i AI w środowisku zawodowym, a 70 proc. uważa, że technologie te przyczyniają się do wzrostu produktywności. 

Choć znaczna część społeczeństwa akceptuje stosowanie AI w miejscu pracy, aż 84 proc. ankietowanych podkreśla konieczność odpowiedniego zarządzania tymi systemami w celu ochrony prywatności i zapewnienia przejrzystości. Większość badanych zdaje sobie sprawę, że bez odpowiednich regulacji i kontroli spontaniczne wykorzystanie AI przez pracowników może narażać firmy na niepotrzebne ryzyko; prowadzić do wycieków danych, niezgodności z regulacjami oraz osłabienia poziomu cyberbezpieczeństwa całej firmy.  

AI oferuje wiele możliwości, natomiast użytkownicy muszą pamiętać o potencjalnych ryzykach – wskazuje Radosław Mechło, doradca ds. AI z BUZZcenter. Ekspert dodaje: – Niedokładność, błędy w modelach, kwestie prywatności danych i potencjalne naruszenia własności intelektualnej są realnymi wyzwaniami, które wymagają starannego zarządzania. Firmy muszą nauczyć się opracowywać strategie odpowiedzialnego korzystania z tej technologii, jeśli myślą o jej wykorzystaniu. 

Potrzebne są jasne zasady 

Aby uniknąć potencjalnych zagrożeń, firmy powinny wdrożyć przejrzyste zasady dotyczące wykorzystania narzędzi AI przez pracowników. Przede wszystkim warto jasno określić, w jakich obszarach AI może być stosowana i jakie konkretnie zadania mogą być automatyzowane. Kontrola nad tym, jak przebiegają procesy w organizacji, nie tylko służy zabezpieczeniu danych i ochronie prywatności, ale także zapewnia zgodność z regulacjami. 

Jeśli chodzi o ochronę danych, mamy regulacje takie jak RODO, obowiązujące od 2018 roku, czy AI Act, którego część przepisów weszła w życie 2 lutego 2025 roku. Zobowiązują one organizacje do odpowiedniego traktowania danych oraz określają m.in. praktyki zakazane w kontekście AI. To duże wyzwanie, zwłaszcza w odniesieniu do narzędzi sztucznej inteligencji, które z jednej strony mogą stanowić istotne wsparcie dla organizacji, ale z drugiej – generować ryzyko związane z ochroną danych – tłumaczy Krystian Paszek, SOC Manager w Mediarecovery    

Pierwsze wytyczne AI Act 

Od 2 lutego obowiązują pierwsze przepisy rozporządzenia dotyczącego sztucznej inteligencji, określające praktyki zakazane oraz nakładające na dostawców systemów AI i podmioty je wykorzystujące obowiązek zapewnienia odpowiedniego poziomu kompetencji personelu. Praktyki zakazane obejmują m.in. stosowanie narzędzi AI wykorzystujących ludzkie słabości, manipulację, rozpoznawanie twarzy czy biometrię. 

W związku z nowymi regulacjami, a także kwestiami bezpieczeństwa, organizacje powinny stworzyć listę zatwierdzonych narzędzi AI – jasno określając, które z nich mogą być wykorzystywane w firmie, a które ze względów bezpieczeństwa powinny zostać wykluczone. Eksperci ds. cyberbezpieczeństwa podkreślają, że wprowadzenie jasnych regulacji dotyczących AI to nie tylko kwestia organizacyjna, ale również kluczowy element ochrony firmy przed cyberzagrożeniami. 

Firmy, które nie kontrolują sposobu wykorzystania narzędzi AI przez pracowników, narażają się na poważne ryzyko związane z wyciekiem danych chociażby przez niecelowe udostępnianie szczegółów dotyczących danej organizacji lub projektu, które mogą zostać użyte do dalszego uczenia modelu. Dlatego organizacje powinny przede wszystkim opracować strategię i zasady korzystania ze sztucznej inteligencji oraz zapewnić pracownikom szkolenia w zakresie bezpiecznego użytkowania AI. To dziś fundament budowania odporności organizacji na nowe zagrożenia – mówi Krystian Paszek. 

Podstawowe zasady 

Jakie zatem zasady powinny zastosować firmy? – Pracownicy powinni mieć dostęp jedynie do zatwierdzonych narzędzi, a ich użycie musi podlegać kontroli i autoryzacji, aby ograniczyć ryzyko wycieku danych. Kluczowe jest również przestrzeganie zasad ochrony prywatności – dane poufne nie powinny być wprowadzane do systemów AI, a każde inne wprowadzone dane powinny być zanonimizowane tak, aby nie wskazywały na konkretną organizację lub podmioty powiązane. Organizacje powinny także monitorować sposób wykorzystywania AI, wykrywać potencjalne zagrożenia oraz zapewniać regularne audyty zgodności z regulacjami – tłumaczy Krystian Paszek.   

W obliczu rosnącej roli sztucznej inteligencji w środowisku pracy firmy i instytucje nie mogą pozostawać bierne. Opracowanie spójnej strategii zarządzania AI, wdrożenie odpowiednich zasad oraz edukacja pracowników to kluczowe kroki, które pozwolą firmom w pełni wykorzystać potencjał nowych technologii, jednocześnie minimalizując ryzyko związane z bezpieczeństwem danych i zgodnością z regulacjami. Odpowiedzialne podejście do AI nie jest już wyborem – staje się koniecznością dla firm, które chcą działać w sposób bezpieczny, transparentny i zgodny ze zmieniającym się otoczeniem prawnym.