Opis stanu faktycznego
Europejski Inspektor Ochrony Danych (EDPS) opublikował 11.11.2025 r. dokument pt. Guidance for Risk Management of Artificial Intelligence Systems (wytyczne dotyczące zarządzania ryzykiem w systemach sztucznej inteligencji). Celem wytycznych jest usystematyzowanie sposobu oceny i minimalizowania ryzyk związanych z wykorzystywaniem systemów sztucznej inteligencji przez instytucje Unii Europejskiej, które przetwarzają dane osobowe. Dokument obejmuje cały cykl życia systemów AI, począwszy od analizy wstępnej i planowania, poprzez pozyskiwanie oraz przygotowanie danych, proces tworzenia modelu, walidację, wdrożenie i eksploatację, a skończywszy na wycofaniu systemu. EDPS konsekwentnie podkreśla, iż ryzyka związane ze sztuczną inteligencją mają charakter wielowarstwowy i obejmują zarówno aspekty techniczne, jak i prawne oraz organizacyjne, a ich wpływ może być bezpośrednio odczuwalny przez osoby fizyczne, których dane są przetwarzane przez system. Z tego względu EDPS wydając niniejsze wytyczne, wskazał, iż działa jako organ nadzorczy ds. ochrony danych, a nie jako organ nadzoru rynku w rozumieniu rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Dz.Urz. UE L z 2024 r., s. 1689; dalej: AIAct), przy czym wytyczne te pozostają bez uszczerbku dla stosowania przepisów tego aktu.
Wytyczne szczególnie mocno akcentują zależność między parametrami technicznymi modelu a zgodnością przetwarzania danych osobowych. Wskazano, iż błędy wynikające z nieadekwatności danych treningowych, braku interpretowalności modelu, jego przeuczenia, niestabilności statystycznej czy ograniczeń metod wyjaśnialności mogą prowadzić do naruszenia fundamentalnych zasad ochrony danych. Autorzy dokumentu skupiają swoją analizę na trudności zapewnienia rzetelności, minimalizacji, dokładności oraz przejrzystości w środowisku wykorzystującym modele statystyczne i uczenie maszynowe. Przedstawiono liczne przykłady sytuacji, w których systemy AI mogą generować ryzyko „nielosowych błędów” (systemic errors), które nie są możliwe do zaobserwowania na gruncie tradycyjnych procesów przetwarzania.
Opis stanu prawnego
W punkcie wyjścia należy wyraźnie podkreślić, iż analizowany dokument EDPS odnosi się do rozporządzenia 2018/1725 obowiązującego w instytucjach, organach i agencjach Unii Europejskiej. Jest to akt prawny konstrukcyjnie i funkcjonalnie zbliżony do Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z 27.4.2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.Urz. UE L z 2016 r. Nr 119, s. 1; dalej: RODO) – zawiera analogiczne zasady przetwarzania, obowiązki administratorów i podmiotów przetwarzających oraz katalog praw osób, których dane dotyczą. Z tego względu wytyczne EDPS, choć formalnie wiążą wyłącznie instytucje unijne, mają charakter w pełni kompatybilny z zasadami wynikającymi z RODO i mogą być stosowane pomocniczo przez podmioty w państwach członkowskich, w tym w Polsce.
EDPS przedstawia interpretację zasad przetwarzania danych osobowych w ujęciu rozporządzenia 2018/1725, odnosząc je do specyfiki systemów sztucznej inteligencji, akcentując, iż zasada rzetelności obejmuje również identyfikację i minimalizację biasu (uprzedzenia) w danych i algorytmach, zasada dokładności wymaga kontrolowania dryfu i walidacji wyników, zasada przejrzystości nakłada konieczność stosowania środków wyjaśnialności, a zasada minimalizacji danych wiąże się z doborem adekwatnych zbiorów treningowych i testowych. Inspektor wskazuje również, iż zasada rozliczalności wymaga prowadzenia dokumentacji technicznej i operacyjnej, która odzwierciedla sposób działania i ewolucji systemu AI.
Równolegle do rozporządzenia 2018/1725 funkcjonuje AIAct, który wprowadza odrębną klasyfikację ryzyka opartą na wpływie systemu na bezpieczeństwo, prawa podstawowe i zdrowie użytkowników. EDPS konsekwentnie rozróżnia obie perspektywy: ryzyko wynikające z ochrony danych osobowych oraz ryzyko wynikające z zastosowania systemu AI. Ocena ryzyka systemu AI wymaga więc integracji wymagań wynikających z obu aktów prawnych, a metodologia zaprezentowana przez EDPS stanowi naturalny pomost między nimi.
Metodologia oceny ryzyka w ujęciu Wytycznych EDPS
Metodologia oceny ryzyka stanowi centralny element wytycznych EDPS i jest traktowana jako podstawowe narzędzie zapewniania zgodności systemów AI z zasadami ochrony danych. Dokument opiera się na normie ISO 31000:2018, przejmując jej strukturę obejmującą identyfikację ryzyk, ich analizę, ocenę oraz wdrażanie środków redukujących ryzyko do poziomu akceptowalnego. EDPS podkreśla, iż proces ten musi mieć charakter ciągły, dostosowany do dynamicznej natury systemów AI.
Wytyczne akcentują konieczność szczegółowego rozpoznania zagrożeń wynikających z danych, modeli i środowiska ich działania. Do najistotniejszych należą ograniczona interpretowalność, błędy związane z niereprezentatywnymi danymi, dryf statystyczny oraz nieprzewidywalne zachowania modeli, mogące prowadzić do naruszeń zasad EUDPR, a pośrednio także RODO. Analiza ryzyka powinna obejmować ocenę prawdopodobieństwa oraz ciężaru potencjalnych skutków, w tym ryzyka błędnych decyzji, utraty kontroli nad danymi czy algorytmicznej dyskryminacji.
Ocena ryzyka wymaga zestawienia wyników analizy z kryteriami przyjętymi przez organizację, przy czym EDPS wskazuje na konieczność samodzielnego określenia progów akceptowalności ryzyka, niezależnie od deklaracji dostawców systemów AI. W ostatnim etapie przewidziano dobór i wdrożenie adekwatnych środków technicznych i organizacyjnych, takich jak metody interpretowalności, testy statystyczne czy mechanizmy kontroli dryfu danych. Szczególne znaczenie ma tu także ocena ryzyka rezydualnego i odpowiednie udokumentowanie procesu jego akceptacji.
W rezultacie wytyczne przedstawiają spójną metodologię oceny ryzyka, osadzoną w zasadach ochrony danych i dostosowaną do specyfiki systemów sztucznej inteligencji. W praktyce stanowi ona uzupełnienie klasycznej DPIA (oceny skutków dla ochrony danych), wskazując na konieczność bardziej szczegółowej, dynamicznej i opartej na danych technicznych analizy w przypadku systemów AI.
Komentarz
Rozwinięta metodologia oceny ryzyka zaprezentowana przez EDPS stanowi użyteczne narzędzie dla administratorów i podmiotów przetwarzających. Wytyczne te wyraźnie wskazują, iż tradycyjna analiza DPIA stosowana w ramach RODO nie jest wystarczająca w przypadku systemów sztucznej inteligencji wysokiego ryzyka. Systemy te wymagają stałego monitorowania działania modeli, ich walidacji oraz aktualizacji, co w praktyce oznacza konieczność wdrożenia mechanizmów nadzoru technicznego.
Dla sektora publicznego dokument EDPS może stać się podstawą budowy krajowych standardów wdrażania systemów AI w administracji. Organy administracji centralnej i samorządowej będą w najbliższych latach wykorzystywać systemy predykcyjne i generatywne na skalę istotnie szerszą niż dotychczas, co zwiększa ryzyko naruszeń zasad ochrony danych. W tym kontekście Wytyczne EDPS mogą pełnić funkcję punktu odniesienia przy ocenie należytej staranności administratorów, zwłaszcza w sprawach, w których decyzje AI mają bezpośredni wpływ na obywateli.
Z kolei w sektorze prywatnym zalecenia EDPS wpisują się w rosnące wymogi compliance związane z usługami opartymi na AI, zwłaszcza w sektorach finansowym, medycznym, HR i marketingowym. Organizacje powinny postawić na wdrożenie wewnętrznych polityk oraz procedur dotyczących walidacji modeli, monitorowania ich wyników, zarządzania jakością danych oraz kontroli biasu. W praktyce oznacza to konieczność współpracy prawników, specjalistów ds. danych i inżynierów AI, a także wdrożenie narzędzi do ciągłej analizy ryzyka.
W perspektywie nadchodzących obowiązków wynikających z AIAct wytyczne EDPS stanowią jedno z najważniejszych źródeł wskazówek interpretacyjnych zarówno dla administratorów danych, jak i dla osób odpowiedzialnych za wdrażanie systemów sztucznej inteligencji, w szczególności wysokiego ryzyka. Dokument ten, choć nie stanowi prawa, służy jako praktyczne narzędzie wykładni łączące wymagania techniczne z prawnymi, ułatwiając tworzenie zintegrowanych procedur oceny ryzyka, które niedługo staną się obowiązkowym elementem nadzoru nad systemami AI.
Wytyczne Europejskiego Inspektora Ochrony Danych, Guidance for Risk Management of Artificial Intelligence Systems

3 godzin temu






