EROD przedstawia standardy przetwarzania danych osobowych w modelach AI. Co to oznacza dla podmiotów rozwijających lub wdrażających takie rozwiązania?

traple.pl 4 dni temu

W grudniu 2024 r. Europejska Rada Ochrony Danych (EROD) przedstawiła Opinię 28/2024 dotyczącą niektórych aspektów ochrony danych związanych z przetwarzaniem danych osobowych w kontekście modeli AI (dalej: „Opinia”). Przedmiotem opinii są zasady wykorzystywania danych osobowych przy tworzeniu i wdrażaniu modeli sztucznej inteligencji. Dokument skupia się na trzech kluczowych obszarach stosowania przepisów RODO w kontekście AI:

  1. kryteria dla uznania, iż w ramach działania modelu AI nie dochodzi do przetwarzania danych osobowych (kiedy model AI jest „anonimowy”?);
  2. warunki, które muszą spełnić administratorzy, aby móc oprzeć legalność przetwarzania danych osobowych w modelach AI na przesłance prawnie uzasadnionego interesu (art. 6 ust. 1 lit. f RODO);
  3. konsekwencje niezgodnego z prawem przetwarzania danych osobowych w fazie rozwoju AI dla zgodności z prawem późniejszego ich przetwarzania lub działania modelu AI po wdrożeniu.

Celem opracowania jest przedstawienie stanowiska EROD oraz omówienie jego praktycznego znaczenia dla podmiotów rozwijających modele AI.

Czym są modele AI? Zakres przedmiotowy Opinii

Przed rozpoczęciem adekwatnej analizy treści Opinii, należy najpierw odnieść się do jej zakresu przedmiotowego. Opinia nie stanowi kompleksowych wytycznych dotyczących stosowania przepisów RODO w kontekście AI. Jak podkreśla sama EROD, Opinia nie zawiera analizy takich zagadnień jak: przetwarzanie szczególnych kategorii danych osobowych, zautomatyzowane podejmowanie decyzji, w tym profilowanie, zgodność celów przetwarzania, przeprowadzenie DPIA, realizacja zasada ochrony danych w fazie projektowania. Jej zakres jest ograniczony wyłącznie do pytań zadanych przez irlandzki organ ochrony danych. Administratorzy będą zatem musieli poczekać na odrębne stanowiska Rady w tym zakresie.

Co istotne Opinia EROD nie dotyczy systemów AI, o których mowa w art. 3 pkt 1 AI Act. Systemy AI, w rozumieniu AI Act, to systemy maszynowe, które:

  • zostały zaprojektowane do działania po ich wdrożeniu z różnym poziomem autonomii oraz mogą wykazywać zdolność adaptacji po wdrożeniu,
  • wnioskują – na potrzeby wyraźnych lub dorozumianych celów – jak generować z otrzymanych danych wejściowych wyniki, takie jak: predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

Zawarta AI Act definicja „systemu AI” ma bardzo szeroki charakter i opiera się przede wszystkim na dwóch elementach:

  • wymogu, by dane rozwiązanie było oparte na mechanizmach maszynowych (machine-based) oraz
  • wymogu, by potrafiło dokonywać wnioskowania (inference).

Dodatkowo podkreśla się, iż system AI może działać z różnym stopniem autonomii i potencjalnie wykazywać zdolności adaptacyjne.

Tymczasem „modele AI”, które analizuje EROD w Opinii, to elementy składowe systemów AI, które same w sobie nie stanowią pełnoprawnych systemów AI. Zdaniem Rady „modele AI” należy rozumieć jako rezultat procesów treningowych, w których systemy uczą się na podstawie zbiorów danych, identyfikując i przyswajając wzorce. Stanowią one kluczową podstawę działania systemów AI i wymagają dodatkowych elementów, takich jak interfejsy użytkownika czy odpowiednie moduły wykonawcze, aby mogły pełnić swoje funkcje w ramach gotowego „pełnoprawnego” systemu AI. Z kolei operatorzy systemów AI muszą realizować obowiązki zawarte w AI Act.

Tabela 1. Główne różnice pomiędzy „systemem AI” a „modelem AI”

Przetwarzanie danych osobowych w modelach AI

Zgodnie z podejściem przedstawionym przez EROD w Opinii, o przetwarzaniu danych osobowych w modelach sztucznej inteligencji możemy mówić wtedy, gdy z modelu – przy użyciu środków, które można racjonalnie zastosować – da się uzyskać lub odtworzyć informacje pozwalające na zidentyfikowanie konkretnych osób fizycznych. Rada uważa, iż taka reidentyfikacja osób, których dane dotyczą, jest możliwa, gdy model jest zaprojektowany tak, by bezpośrednio zwracać osobom ich dane osobowe, które wykorzystano na etapie szkolenia modelu, lub gdy można z jego parametrów „wyciągnąć” informacje związane z konkretnymi osobami.

Jednocześnie EROD zauważa, iż choćby jeżeli model AI nie został wprost zaprojektowany do upubliczniania danych osobowych, to w parametrach modelu może pozostać „informacja” o osobach fizycznych, które zostały wykorzystane w trakcie szkolenia modelu, i potencjalnie można tę „informację” odtworzyć dzięki dostępnych środków technicznych i organizacyjnych. Dopiero gdy taka pośrednia lub bezpośrednia identyfikacja nie jest możliwa, a model nie generuje danych osobowych w odpowiedziach, możemy uznać go za niepodlegający pod stosowanie przepisów RODO.

Zdaniem EROD podmiot rozwijający model AI, aby rzetelnie ocenić, czy w danym przypadku przetwarzane są dane osobowe i czy ten model można uznać za anonimowy, powinien przeprowadzić i udokumentować analizę ryzyka identyfikacji osoby fizycznej. W tym celu należy wziąć pod uwagę m.in. cechy modelu, charakter danych treningowych, stan techniki, koszty i czas potrzebny do wyodrębnienia danych osobowych.

Prawnie uzasadniony interes jako podstawa prawna przetwarzania danych osobowych w związku z rozwojem i wdrożeniem modelu AI

Zdaniem EROD oparcie przetwarzania danych osobowych w kontekście rozwoju i wdrażania modelu AI na podstawie prawnie uzasadnionego interesu administratora (art. 6 ust. 1 lit. f RODO) jest możliwe pod warunkiem spełnienia trzech kumulatywnych kroków.

Po pierwsze, interes realizowany przez administratora (lub stronę trzecią) musi być rzeczywisty, konkretny i zgodny z prawem. W praktyce mogą to być na przykład działania mające na celu rozwój usługi wsparcia użytkowników w postaci czatu czy wykrywanie nadużyć lub oszustw.

Po drugie, przetwarzanie danych osobowych musi być konieczne do osiągnięcia tego interesu. Wymaga to wykazania, iż nie istnieje inny, mniej inwazyjny sposób realizacji celu. jeżeli do rozwoju lub wdrożenia modelu AI możliwe jest skuteczne wykorzystanie danych anonimowych bądź syntetycznych, to przetwarzanie danych osobowych nie będzie uzasadnione.

Trzeci krok stanowi przeprowadzenie testu równowagi, w którym należy ocenić, czy interesy, prawa i wolności osób, których dane dotyczą, nie przeważają nad interesami administratora lub strony trzeciej. Szczególne znaczenie mają takie elementy jak: rodzaj danych, kontekst przetwarzania, skala operacji, ryzyka naruszenia prywatności (w tym dyskryminacji, utraty reputacji czy kradzieży tożsamości), a także rozsądne oczekiwania osób, których dane dotyczą. Przykładowo, jeżeli dane były pozyskane z ogólnodostępnych źródeł metodą scrapingu, a osoby te nie miały możliwości realnego sprzeciwu[1] i nie spodziewały się, iż ich informacje zostaną masowo wykorzystane do treningu modeli AI, może to istotnie wpływać na wyniki testu równowagi. Ponadto na wynik testu równowagi mogą też wpływać: środki ograniczające ingerencję w prywatność, takie jak pseudonimizacja, ograniczenie skali gromadzenia danych, wdrożenie kontroli dostępu czy mechanizmy ułatwiające wykonywanie praw osób, których dane dotyczą (np. mechanizmy ułatwiające wniesienie sprzeciwu wobec wykorzystywania danych w celach treningu modelu).

Konsekwencje niezgodnego z prawem przetwarzania w fazie rozwoju AI dla zgodności z prawem późniejszego przetwarzania lub działania modelu AI

Zgodnie z wyrażonym w Opinii stanowiskiem EROD, w sytuacji, gdy w fazie rozwoju modelu sztucznej inteligencji (AI) doszło do niezgodnego z prawem przetwarzania danych osobowych (tj. naruszeniem art. 5 ust. 1 lit. a RODO oraz art. 6 RODO), okoliczność ta może mieć wpływ na zgodność z prawem późniejszego przetwarzania danych lub działania modelu AI.

Po pierwsze, EROD zaznacza, iż niezgodne z prawem przetwarzanie danych osobowych w fazie rozwoju modelu może skutkować naruszeniem również innych przepisów RODO, takich jak obowiązek przejrzystości, zasada privacy by design czy privacy by default. Jednak kwestie te nie są dogłębnie analizowane w omawianym stanowisku.

Po drugie, kluczową rolę odgrywa zasada rozliczalności (art. 5 ust. 2 RODO), co oznacza, iż administratorzy danych muszą być w stanie wykazać, iż każde ich działanie – podejmowane zarówno podczas rozwoju modelu, jak i przy jego dalszym wykorzystywaniu – spełnia wymogi RODO. Przy ocenie zasadności i niezbędności dalszych działań związanych z przetwarzaniem danych w modelu AI istotne jest również prawidłowe ustalenie, kto w danym momencie pełni rolę administratora (bądź współadministratorów).

Zgodnie z Opinią, iż przy ocenie wpływu niezgodnego z prawem przetwarzania w fazie rozwoju na dalsze etapy życia modelu, najważniejsze jest ustalenie, czy konkretne etapy służą odmiennym celom przetwarzania, a także kto w danym momencie przetwarza dane. jeżeli ten sam administrator przetwarza dane osobowe zarówno w fazie rozwoju, jak i wdrożenia, konieczne jest osobne zbadanie podstaw prawnych i zgodności z RODO na każdym etapie.

W przypadku, gdy dane w fazie wdrożenia przetwarza inny podmiot niż pierwotny administrator, organ nadzorczy sprawdzi, czy podmiot ten dopełnił obowiązków rozliczalności, w tym czy zweryfikował, iż model nie powstał z naruszeniem RODO. jeżeli w fazie rozwoju dane zostały przetworzone niezgodnie z prawem, ale przed wdrożeniem skutecznie je zanonimizowano, dalsze korzystanie z modelu (oparte wyłącznie na zanonimizowanych danych) nie podlega już przepisom RODO. Należy jednak pamiętać, iż twierdzenie o anonimizacji wymaga starannej weryfikacji, a jakiekolwiek dalsze przetwarzanie nowych danych osobowych w trakcie wdrożenia musi być w pełni zgodne z RODO.

Podsumowanie

Opinia EROD 28/2024 zwraca uwagę na konieczność dokładnego zbadania, czy przy tworzeniu i wykorzystywaniu modeli AI dochodzi do przetwarzania danych osobowych, a jeżeli tak – jakie podstawy prawne (w szczególności prawnie uzasadniony interes) mogą być stosowane.

EROD podkreśla, iż w tym kontekście dla podmiotów rozwijających lub wdrażających modele AI najważniejsze powinno być zapewnienie rozliczalności przeprowadzonych analiz i ocen. Administrator musi być w stanie wykazać, iż przestrzega przepisów RODO na każdym etapie życia modelu, zwłaszcza gdy różne podmioty odpowiadają za rozwój (szkolenie) i wdrożenie systemu.

Aby wykazać zgodność modelu AI z przepisami RODO, niezbędne jest prowadzenie szczegółowej dokumentacji na każdym etapie przetwarzania danych osobowych w związku z cyklem życia modelu AI – od pozyskania danych i szkolenia rozwiązania aż po jego wdrożenie i utrzymanie.

W praktyce oznacza to, iż podmioty rozwijające i wdrażające modele AI, aby spełnić wymogi prawne, muszą w szczególności:

  • ustalić, czy ich rozwiązanie jest tylko jednym z komponentów systemu AI, czy też spełnia pozostałe kryteria pozwalające uznać go za system AI w rozumieniu AI Act;
  • być w stanie wykazać: skąd pochodzą dane, na jakiej podstawie prawnej są przetwarzane i czy istnieją procedury pozwalające spełnić obowiązki RODO;
  • zweryfikować, czy model AI faktycznie przetwarza dane osobowe, czy też dane są skutecznie zanonimizowane (i w jaki sposób). Należy ocenić, czy używane w tej chwili w organizacji modele sztucznej inteligencji, dotychczas uznawane za anonimowe, spełniają standardy określone w Opinii
  • przeprowadzić i udokumentować test równowagi, o ile chcą uzasadniać przetwarzanie danych osobowych na podstawie prawnie uzasadnionego interesu;
  • wykazać, iż dane osobowe wykorzystane do szkolenia modelu AI, który wdrażają, były przetwarzane zgodnie z wymogami przepisów o ochronie danych osobowych.

[1] Warto pamiętać, iż samo istnienie prawa do sprzeciwu wobec przetwarzania danych (art. 21 RODO) nie wpływa na ocenę, czy przetwarzanie danych jest „niezbędne” dla realizacji prawnie uzasadnionego interesu administratora. Gdyby brać je pod uwagę na tym etapie, sztucznie rozszerzałoby to legalne podstawy przetwarzania poza te wymienione w art. 6 RODO i w rezultacie poziom ochrony zależałby od aktywności osoby wnoszącej sprzeciw, co byłoby sprzeczne z założeniami RODO – za wyrokiem TSUE ws. C-394/23, Mousse i opinią rzecznika generalnego w tej sprawie.

Idź do oryginalnego materiału