Podmioty wykorzystujące AI
Wniosek Rozporządzenia Parlamentu i Rady (UE) ustanawiający zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniający niektóre akty ustawodawcze UE {SEC(2021) 167 final} – {SWD(2021) 84 final} – {SWD(2021) 85 final} (dalej „Wniosek”) jest pierwszym na świecie proponowanym aktem prawnym o sztucznej inteligencji (dalej „Akt AI” albo „AI”).
Zgodnie z art. 5 ust. 1-3 Wniosku, w szczególności zakazane praktyki to te, które:
– wykorzystują AI do podprogowej manipulacji lub wykorzystywania słabości ludzi, które mogą skutkować szkodami fizycznymi lub psychicznymi,
– wykorzystują bezkrytycznie zdalną identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej w celu egzekwowania prawa,
– wykorzystują “wyniki społeczne” oparte na sztucznej inteligencji przez władze w celu niesprawiedliwego postawienia osób lub grup w niekorzystnej sytuacji.
Wniosek całkowicie zakazuje tego ostatniego, podczas gdy dla pozostałych proponowany jest system zezwoleń w kontekście egzekwowania prawa.
Katalog „szkód” za stosowanie zakazanych praktyk jest w tej chwili przedmiotem dyskusji i analiz (prawdopodobnie uregulowana zostanie też szkoda ekonomiczna).
Zgodnie z jego uzasadnieniem Wniosek przypisuje zastosowania sztucznej inteligencji do trzech kategorii ryzyka:
-aplikacje i systemy, które stwarzają niedopuszczalne ryzyko, takie jak rządowe oceny społeczne,
– aplikacje wysokiego ryzyka, takie jak narzędzie do skanowania CV, które klasyfikuje kandydatów do pracy. Podlegają określonym wymogom prawnym, oraz te, które nie zostały wyraźnie zakazane lub wymienione jako obarczone wysokim ryzykiem, pozostają w dużej mierze nieuregulowane;
– zdalne systemy identyfikacji biometrycznej “w czasie rzeczywistym” w publicznie dostępnych przestrzeniach i “po”, z jedynym wyjątkiem egzekwowania prawa w celu ścigania poważnych przestępstw, oraz biometrycznej wykorzystujące cechy wrażliwe (np. płeć, rasę, pochodzenie etniczne, status obywatelski, religię, orientację polityczną) i predykcyjne systemy policyjne (oparte na profilowaniu, lokalizacji lub wcześniejszych zrachowaniach przestępczych),
– systemy rozpoznawania emocji w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i instytucjach edukacyjnych, oraz masowe pobieranie danych biometrycznych z mediów społecznościowych lub nagrań CCTV (telewizyjne systemy dozorowe) w celu tworzenia baz danych rozpoznawania twarzy (naruszanie praw człowieka i prawa do prywatności),
Wniosek obejmuje uregulowanie następujących
systemów AI:
– systemy stwarzające niedozwolone ryzyko (art. 5 i n. Wniosku), czyli te oparte na technikach podprogowych (np. mających na celu nakłonienie konsumenta do zakupu produktu lub usługi), wykorzystujące identyfikację biometryczną w czasie rzeczywistym w przestrzeni publicznej (np. w celu egzekwowania prawa). Systemy tego typu mają zostać zakazane,
– systemy wysokiego ryzyka (art. 6 i n. Wniosku). są to systemy związane z identyfikacją biometryczną, zarządzaniem infrastrukturą krytyczną (np. lotniska); edukacją (np. ocenianie uczniów w szkołach); zatrudnieniem (np. zautomatyzowane systemy oceniające kandydatów do pracy); dostępem do usług, ściganiem przestępstw, zarządzaniem migracją ludności (służące m.in. do weryfikacji dokumentów); sprawowaniem wymiaru sprawiedliwości. Odpowiedzialność nad ich adekwatnym funkcjonowaniem ciążyć ma w głównej mierze na dostawcach systemów,
– systemy ograniczonego ryzyka. Zaliczyć do nich należy wszystkie systemy nienależące do żadnej innej kategorii. Obowiązki wynikające z Wniosku to w dużej mierze wymogi nakładane na systemy wysokiego ryzyka.
r.pr. dr Wiktor Czeszejko-Sochacki, LL.M.
Twórca bloga Lexalert.pl