Aby zapewnić skoncentrowany na człowieku i etyczny rozwój sztucznej inteligencji (SI, AI) w Europie, posłowie Parlamentu Europejskiego zatwierdzili nowe zasady przejrzystości i zarządzania ryzykiem dla systemów SI.

W czwartek Komisja Rynku Wewnętrznego i Komisja Wolności Obywatelskich przyjęły projekt mandatu negocjacyjnego w sprawie pierwszych w historii przepisów dotyczących sztucznej inteligencji (SI, AI) 84 głosami za, przy 7 głosach przeciw i 12 wstrzymujących się.

W swoich poprawkach do wniosku Komisji Europejskiej posłowie dążą do tego, aby systemy sztucznej inteligencji były nadzorowane przez ludzi, były bezpieczne, przejrzyste, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska. Chcą również mieć jednolitą definicję sztucznej inteligencji, zaprojektowaną tak, aby była neutralna technologicznie, tak aby mogła mieć zastosowanie do obecnych i przyszłych systemów sztucznej inteligencji.

Poziomy ryzyka i praktyki zabronione

Zasady opierają się na podejściu opartym na ryzyku i określają obowiązki dostawców i użytkowników w zależności od poziomu ryzyka, jakie sztuczna inteligencja może generować. Systemy sztucznej inteligencji o niedopuszczalnym poziomie ryzyka dla bezpieczeństwa ludzi byłyby surowo zabronione, w tym systemy wykorzystujące techniki podprogowe lub celowo manipulacyjne, wykorzystujące słabe punkty ludzi lub wykorzystywane do punktacji społecznej (klasyfikacja ludzi na podstawie ich zachowań społecznych, statusu społeczno-ekonomicznego, cech osobistych).

Posłowie do PE znacząco zmienili listę, aby zawierała zakazy natrętnego i dyskryminującego wykorzystania systemów sztucznej inteligencji, takich jak:

  • Systemy zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w miejscach publicznie dostępnych;
  • Systemy zdalnej identyfikacji biometrycznej „po”, z wyjątkiem wykorzystania przez organy ścigania w celu ścigania poważnych przestępstw i tylko po uzyskaniu zezwolenia sądu;
  • Systemy kategoryzacji biometrycznej wykorzystujące wrażliwe cechy (np. płeć, rasę, pochodzenie etniczne, obywatelstwo, religię, orientację polityczną);
  • Predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub przeszłych zachowaniach przestępczych);
  • Systemy rozpoznawania emocji w organach ścigania, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych; 
  • Bezkrytyczne pobieranie danych biometrycznych z mediów społecznościowych lub nagrań z monitoringu w celu tworzenia baz danych rozpoznawania twarzy (naruszając prawa człowieka i prawo do prywatności).

Sztuczna inteligencja wysokiego ryzyka

Posłowie rozszerzyli klasyfikację obszarów wysokiego ryzyka o szkody dla zdrowia ludzi, bezpieczeństwa, praw podstawowych lub środowiska. Do listy wysokiego ryzyka dodali również systemy sztucznej inteligencji, aby wpływać na wyborców w kampaniach politycznych i w systemach rekomendacji używanych przez platformy mediów społecznościowych (z ponad 45 milionami użytkowników zgodnie z ustawą o usługach cyfrowych).

Posłowie dążą do tego, aby systemy sztucznej inteligencji były nadzorowane przez ludzi, były bezpieczne, przejrzyste, identyfikowalne, niedyskryminacyjne i przyjazne dla środowiska
Zdjęcie RDNE Stock/Pexels

Polityka transparentności najpopularniejszych narzędzi AI

Posłowie uwzględnili obowiązki dostawców modeli generatywnych, którzy musieliby gwarantować solidną ochronę praw podstawowych, zdrowia i bezpieczeństwa oraz środowiska, demokracji i rządów prawa. Musieliby też oceniać i ograniczać ryzyko, spełniać wymogi projektowe, informacyjne i środowiskowe oraz rejestrować się w unijnej bazie danych.

Modele generatywne, takie jak GPT, musiałyby spełniać dodatkowe wymagania dotyczące przejrzystości, takie jak:

  • ujawnianie, że treść została wygenerowana przez sztuczną inteligencję,
  • zaprojektowanie modelu w taki sposób, aby uniemożliwić generowanie nielegalnych treści i publikowanie podsumowań chronionych prawem autorskim danych wykorzystywanych do szkolenia.

Wspieranie innowacji przy ochronie praw obywateli

Aby zwiększyć innowacyjność sztucznej inteligencji, posłowie do PE dodali wyjątki od tych zasad dotyczące działań badawczych i komponentów sztucznej inteligencji dostarczanych na licencji open source. Nowe prawo promuje piaskownice regulacyjne lub kontrolowane środowiska tworzone przez władze publiczne w celu testowania sztucznej inteligencji przed jej wdrożeniem.

Posłowie chcą zwiększyć prawo obywateli do składania skarg na systemy SI i otrzymywania wyjaśnień decyzji opartych na systemach AI wysokiego ryzyka, które znacząco wpływają na ich prawa. Posłowie zreformowali również rolę Biura UE ds. Sztucznej Inteligencji, którego zadaniem byłoby monitorowanie wdrażania zbioru przepisów dotyczących sztucznej inteligencji.

Zanim rozpoczną się negocjacje z Radą w sprawie ostatecznego kształtu ustawy, ten projekt mandatu negocjacyjnego musi zostać zatwierdzony przez cały Parlament, a głosowanie spodziewane jest na sesji 12-15 czerwca.

Źródło: Parlament Europejski