AI Act, który wszedł w życie na początku sierpnia, to krok milowy dla Unii Europejskiej, podejmującej wyzwanie wyznaczania globalnych standardów dla rozwoju, wdrażania i użytkowania w sposób etyczny sztucznej inteligencji. Regulacje promujące wartości takie jak ochrona prywatności, bezpieczeństwo i prawa człowieka będą miały ogromne znaczenie zarówno dla przedsiębiorców, jak i obywateli UE. Część nowych przepisów zacznie obowiązywać już na początku przyszłego roku, a za ich nieprzestrzeganie będą groziły poważne kary finansowe. Jakie kary będą grozić firmom za nieprzestrzeganie owych zapisów? Czy AI Act wywoła podobną rewolucję jak RODO? Jakie wyzwania niesie za sobą implementacja nowych przepisów?

AI Act – rewolucja na skalę RODO?

Wprowadzenie kompleksowych, jednolitych zasad wdrażania i użytkowania systemów sztucznej inteligencji to przełomowy moment w europejskim krajobrazie regulacyjnym. Mechanizmy mające na celu ochronę praw obywateli w kontekście wykorzystania technologii AI, przewidują transparentność i określone standardy bezpieczeństwa: respektujące prawa człowieka, niedyskryminujące, sprawiedliwe i etyczne.

AI Act wprowadza wymogi dotyczące m.in. transparentności algorytmów, bezpieczeństwa, oznaczania treści generowanych przez AI czy wręcz zakazu niektórych zastosowań AI – w tych obszarach, które stwarzają największe (i nieakceptowalne) ryzyko naruszenia praw obywateli. AI Act bywa porównywany do RODO, czyli rozporządzenia o Ochronie Danych Osobowych, które miało ogromny wpływ na standardy ochrony danych.

Obydwa rozporządzenia wprowadzają konkretne regulacje mające na celu ochronę praw obywateli. Tym, co łączy AI Act i RODO, są bez wątpienia podstawowe założenia (np. ochrona praw i wolności obywateli) i metodyka regulacji (w tym przyjęcie zasady ryzyka – stopniowanie restrykcyjności regulacji w zależności od ryzyka, które stwarza dane zastosowanie). Trzeba jednak pamiętać, że są to jednak dwa różne akty prawne, które będą stosowane równolegle. Zarówno dostawcy, jak i użytkownicy rozwiązań AI będą zobowiązani spełniać wymogi obydwu rozporządzeńwyjaśnia Marcin Ręgorowicz, Managing Associate w Kancelarii Traple Konarski Podrecki i Wspólnicy oraz Koordynator Grupy Zadaniowej Prawo AI IAB Polska.

Nowe unijne prawo to nie tylko katalog obostrzeń – założeniem Aktu o Sztucznej Inteligencji jest wsparcie innowacji czy systematyczna budowa w społeczeństwie kompetencji w jej stosowaniu, co niesie ze sobą korzyści zarówno dla podmiotów rynkowych, jak i obywateli. Nowe miejsca pracy w rozwijającym się sektorze AI czy polepszenie jakości usług publicznych to tylko niektóre z zakładanych profitów, które mają wyniknąć z nowych regulacji.

Łamanie przepisów AI Act może kosztować fortunę

Już teraz nowymi przepisami powinny zainteresować się wszystkie podmioty dostarczające oraz wykorzystujące systemy AI i rozwiązania na nich oparte na potrzeby swojej działalności. Przedsiębiorcy muszą dokładnie przeanalizować swoje procedury pod kątem zgodności z regulacją AI Act, nie tylko ze względu na ryzyko utraty zaufania klientów, ale i wysokich kar finansowych. Np. za prowadzenie zakazanych praktyk, kara może wynieść nawet 35 000 000 EUR lub do 7% całkowitego rocznego obrotu światowego.

Tak wysokie kary mają na celu skuteczne egzekwowanie prawa i podkreślenie wagi przestrzegania nowych regulacji. Wprowadzenie AI Act jest niezmiernie ważnym krokiem w stronę bardziej odpowiedzialnego i przejrzystego wykorzystania technologii sztucznej inteligencji, o tej potrzebie mówiło się na świecie od dawna. Zakaz nieetycznych praktyk, za którego łamanie grożą najpoważniejsze sankcje finansowe, to jeden z kluczowych zapisów nowego prawodawstwa, zapewniający użytkownikom poczucie bezpieczeństwa, a co za tym idzie, zwiększający ich zaufanie do systemów AI. Zaufanie publiczne niewątpliwie odrywa istotną rolę we wdrażaniu i upowszechnianiu sztucznej inteligencji. Poza ochroną użytkowników takie zapisy promują uczciwą konkurencję i odpowiedzialność branży mówi dr Anna Gumkowska, Szefowa Grupy Roboczej AI IAB Polska.

Przedsiębiorco – czy jesteś gotowy?

Przełomowe rozporządzenie weszło w życie 1 sierpnia, lecz, by ułatwić przedsiębiorcom dostosowanie się do nowych wymogów, poszczególne przepisy będą stosowane stopniowo. Większość regulacji zacznie obowiązywać za dwa lata. Są jednak takie, które będą egzekwowane już na początku przyszłego roku (dotyczy to zwłaszcza przepisów dot. praktyk zakazanych). Aby uniknąć potencjalnych sankcji, przedsiębiorcy powinni już teraz zacząć dostosowywać się do nowych wymogów.

Kluczowym obszarem jest analiza ryzyka i określenie, czy stosowane w danej organizacji rozwiązania oparte na AI mogą zostać uznane za systemy wysokiego ryzyka, czy nawet ich stosowanie może być uznane za praktykę zakazaną. Kolejny krok to zapoznanie się z wymogami dotyczącymi poszczególnych systemów sklasyfikowanych pod tym kątem. Ważnym obszarem dla firm będzie transparentność, przejrzysta dokumentacja, odpowiednie zrządzanie danymi. Ale też dla dużej grupy zastosowań nowe obowiązki mogą być minimalne (w przypadku systemów o niskim ryzyku). Trzeba też pamiętać, że AI Act nie potrzebuje implementacji w polskim porządku prawnym, niemniej wprowadzenie nowych regulacji będzie wymagało od polskich instytucji odpowiedniego przygotowana. Planowane jest wydanie dodatkowych krajowych aktów prawnych wyjaśnia Marcin Ręgorowicz, Koordynator Grupy Zadaniowej Prawo AI IAB Polska.

Nadchodzące miesiące warto wykorzystać na szkolenia, edukację, współpracę z ekspertami. Pracownicy powinni być świadomi zarówno wpływu nowych regulacji na działalność firmy, jak i ich znaczenia dla ochrony bezpieczeństwa i praw obywateli oraz rozwoju branży marketingowej.

Pierwsze na świecie tak kompleksowe przepisy dotyczące etycznego rozwoju technologii i wysokie kary za ich łamanie to z pewnością początek nowej ery – rozwoju bezpiecznych, zrównoważonych społeczeństw w rzeczywistości cyfrowej. Więcej na ten temat przeczytasz: https://www.iab.org.pl/przewodnik-po-ai/