Akt prawny w sprawie sztucznej inteligencji (AI ACT) – główne założenia

10 miesięcy temu

Co zawiera rozporządzenie ?

Rozporządzenie Parlamentu Europejskiego i Rady ustanawiające zharmonizowane przepisy dotyczące sztucznej inteligencji (akt w sprawie sztucznej inteligencji) i zmieniające niektóre akty ustawodawcze Unii reguluje ustanawia:

  • zharmonizowane przepisy dotyczące wprowadzania do obrotu, oddawania do użytku oraz wykorzystywania systemów sztucznej inteligencji w Unii;
  • zakazy dotyczące określonych praktyk w zakresie sztucznej inteligencji;
  • szczególne wymogi dotyczące systemów sztucznej inteligencji wysokiego ryzyka oraz obowiązki spoczywające na podmiotach będących operatorami takich systemów;
  • zharmonizowane przepisy dotyczące przejrzystości w przypadku systemów sztucznej inteligencji przeznaczonych do wchodzenia w interakcję z osobami fizycznymi, systemów rozpoznawania emocji oraz systemów kategoryzacji biometrycznej, a także systemów sztucznej inteligencji wykorzystywanych do generowania obrazów, treści dźwiękowych lub treści wideo lub do manipulowania nimi;
  • przepisy dotyczące monitorowania po wprowadzeniu do obrotu i nadzoru rynku.

W poszczególnych tytułach rozporządzenia mowa jest o następujących zagadnieniach tj.:

  • oszczególnych tytułach rozporządzenia mowa jest o następujących zagadnieniach tj.:
  • Zakres i definicje;
  • Zakazane praktyki w zakresie sztucznej inteligencji;
  • Systemy sztucznej inteligencji wysokiego ryzyka;
  • Obowiązki w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji;
  • Środki wspierające innowacyjność;
  • Zarządzanie i wdrażanie;
  • Kodeksy postępowania;
  • Przepisy końcowe.

W motywie (1) wskazano, iż Celem niniejszego rozporządzenia jest poprawa funkcjonowania rynku wewnętrznego poprzez ustanowienie jednolitych ram prawnych, w szczególności w zakresie rozwoju, wprowadzania do obrotu i wykorzystywania sztucznej inteligencji zgodnie z wartościami Unii. Niniejsze rozporządzenie służy realizacji szeregu nadrzędnych celów interesu publicznego, takich jak wysoki poziom ochrony zdrowia, bezpieczeństwa i praw podstawowych, oraz zapewnia swobodny przepływ transgraniczny towarów i usług opartych na sztucznej inteligencji, uniemożliwiając tym samym państwom członkowskim nakładanie ograniczeń w zakresie opracowywania, wprowadzania do obrotu i wykorzystywania systemów sztucznej inteligencji, chyba iż wyraźnie zezwolono na to w niniejszym rozporządzeniu.

Pojęcie sztucznej inteligencji

Sztuczna inteligencja odnosi się do systemów, które wykazują inteligentne zachowanie poprzez analizę swojego otoczenia i podejmowanie działań dla osiągnięcia określonych celów.

Sztuczną inteligencję często można spotkać w życiu codziennym, albowiem jest wykorzystywana jest przykładowo podczas:

  • Wyszukiwarka internetowa;
  • Zakupy i reklamy online;
  • Wirtualni asystenci;
  • Autonomiczne samochody;
  • Smart dom, czyli automatyzacja w domu;
  • Tłumaczenia językowe;
  • Cyberbezpieczeństwo;
  • Automatyczne rozpoznawanie grafik, wideo i obiektów w social mediach.

Główne założenia aktu prawnego w sprawie sztucznej inteligencji

W pierwszej kolejności wskazać należy jak rozporządzenie definiuje system sztucznej inteligencji. Zgodnie z aktem system ten oznacza oprogramowanie opracowane przy użyciu co najmniej jednej spośród technik i podejść, tj.:

  • mechanizmy uczenia maszynowego, w tym uczenie nadzorowane, uczenie się maszyn bez nadzoru i uczenie przez wzmacnianie, z wykorzystaniem szerokiej gamy metod, w tym uczenia głębokiego;
  • metody oparte na logice i wiedzy, w tym reprezentacja wiedzy, indukcyjne programowanie (logiczne), bazy wiedzy, silniki inferencyjne i dedukcyjne, rozumowanie (symboliczne) i systemy ekspertowe;
  • podejścia statystyczne, estymacja bayesowska, metody wyszukiwania i optymalizacji

– które może dla danego zestawu celów określonych przez człowieka generować wyniki, takie jak treści, przewidywania, zalecenia lub decyzje wpływające na środowiska, z którymi wchodzi w interakcję;

Z kolei jeżeli chodzi o podmioty występujące w systemie sztucznej inteligencji, to należy wyróżnić:

  • dostawcę, czyli osobę fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które opracowują system sztucznej inteligencji lub zlecają jego opracowanie w celu wprowadzenia go do obrotu lub oddania go do użytku pod własną nazwą handlową lub własnym znakiem towarowym – odpłatnie lub nieodpłatnie;
  • drobnego dostawcę, czyli dostawcę będącego mikroprzedsiębiorstwem lub małym przedsiębiorstwem w rozumieniu zalecenia Komisji 2003/361/WE 61;
  • użytkownika, czyli osobą fizyczną lub prawną, organ publiczny, agencję lub inny podmiot, które korzystają z systemu sztucznej inteligencji pod swoją kontrolą, z wyjątkiem sytuacji, gdy system sztucznej inteligencji jest wykorzystywany w ramach osobistej działalności pozazawodowej;
  • upoważnionego przedstawiciela, czyli dowolną osobę fizyczną lub prawną mającą siedzibę w Unii, która otrzymała pisemne pełnomocnictwo od dostawcy systemu sztucznej inteligencji do realizacji w jego imieniu obowiązków i procedur ustanowionych w niniejszym rozporządzeniu;
  • importera, czyli dowolną osobę fizyczną lub prawną mającą siedzibę w Unii, która wprowadza do obrotu lub oddaje do użytku system sztucznej inteligencji opatrzony nazwą handlową lub znakiem towarowym osoby fizycznej lub prawnej mającej siedzibę poza granicami Unii;
  • dystrybutora, czyli dowolną osobę fizyczną lub prawną w łańcuchu dostaw, inną niż dostawca lub importer, która udostępnia system sztucznej inteligencji na rynku unijnym bez zmiany jego adekwatności;
  • operatora, czyli dostawcę, użytkownika, upoważnionego przedstawiciela, importera i dystrybutora.

W akcie również uregulowane następujące kwestie, tj.:

  • Kwestie związane z systemem sztucznej inteligencji wysokiego ryzyka dla zdrowia i bezpieczeństwa lub praw podstawowych osób fizycznych
    • sztucznej inteligencji uznaje się za system wysokiego ryzyka, o ile spełnione są oba poniższe warunki:
      • system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II do rozporządzenia lub sam jest takim produktem;
      • produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II do rozporządznia – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.
    • dodatkowo systemy wysokiego ryzyka, to systemy sztucznej inteligencji wymienione w którymkolwiek z poniższych obszarów:
      • identyfikacja i kategoryzacja biometryczna osób fizycznych;
      • zarządzanie infrastrukturą krytyczną i jej eksploatacja;
      • kształcenie i szkolenie zawodowe;
      • zatrudnienie, zarządzanie pracownikami i dostęp do samozatrudnienia;
      • dostęp do podstawowych usług prywatnych oraz usług i świadczeń publicznych, a także korzystanie z nich;
      • ściganie przestępstw;
      • zarządzanie migracją, azylem i kontrolą graniczną;
      • sprawowanie wymiaru sprawiedliwości i procesy demokratyczne
  • Kwestie związane z obowiązkami dostawców i użytkowników systemów sztucznej inteligencji wysokiego ryzyka oraz innych osób
    • przykładowo do obowiązków dostawcy systemów sztucznej inteligencji wysokiego ryzyka należy:
      • zapewnianie zgodności swoich systemów sztucznej inteligencji wysokiego ryzyka z wymogami;
      • posiadanie systemu zarządzania jakością;
      • sporządzanie dokumentacji technicznej systemu sztucznej inteligencji wysokiego ryzyka;
      • przechowywanie rejestrów zdarzeń generowanych automatycznie przez ich systemy sztucznej inteligencji wysokiego ryzyka, o ile znajdują się one pod ich kontrolą;
      • zapewnianie, aby system sztucznej inteligencji wysokiego ryzyka poddano odpowiedniej procedurze oceny zgodności przed wprowadzeniem go do obrotu lub oddaniem go do użytku;
      • wypełnianie obowiązków rejestracyjnych;
      • podejmowanie niezbędnych działań naprawczych, o ile system sztucznej inteligencji wysokiego ryzyka nie spełnia wymogów;
      • informowanie adekwatnych organów krajowychpaństw członkowskich, w których udostępnili lub oddali do użytku system sztucznej inteligencji, oraz, w stosownych przypadkach, jednostkę notyfikowaną o niezgodności z wymogami i o wszelkich podjętych działaniach naprawczych;
      • umieszczanie oznakowań CE w swoich systemach sztucznej inteligencji wysokiego ryzyka na potwierdzenie zgodności z rozporządzeniem;
      • wykazywanie na żądanie adekwatnego organu krajowego, zgodność systemu sztucznej inteligencji wysokiego ryzyka z wymogami.
    • przed wprowadzeniem systemu sztucznej inteligencji wysokiego ryzyka do obrotu importerzy takiego systemu zapewniają, aby:
      • dostawca tego systemu sztucznej inteligencji przeprowadził odpowiednią procedurę oceny zgodności;
      • dostawca sporządził dokumentację techniczną;
      • system opatrzono wymaganym oznakowaniem zgodności oraz dołączono do niego wymaganą dokumentację i instrukcję obsługi.
  • Kwestie związane z obowiązkami w zakresie przejrzystości w odniesieniu do określonych systemów sztucznej inteligencji
    • dostawcy zapewniają, aby systemy sztucznej inteligencji przeznaczone do wchodzenia w interakcję z osobami fizycznymi projektowano i opracowywano w taki sposób, aby osoby fizyczne były informowane o tym, iż prowadzą interakcję z systemem sztucznej inteligencji, chyba iż okoliczności i kontekst korzystania z systemu jednoznacznie na to wskazuj;
    • użytkownicy systemów rozpoznawania emocji lub systemów kategoryzacji biometrycznej informują osoby fizyczne, wobec których systemy te są stosowane, o fakcie ich stosowania;
    • użytkownicy systemu sztucznej inteligencji, który generuje obrazy, treści dźwiękowe lub treści wideo, które łudząco przypominają istniejące osoby, obiekty, miejsca lub inne podmioty lub zdarzenia, lub który tymi obrazami i treściami manipuluje, przez co osoba będąca ich odbiorcą mogłaby niesłusznie uznać je za autentyczne lub prawdziwe („deepfake”), ujawniają, iż dane treści zostały wygenerowane lub zmanipulowane przez system sztucznej inteligencji.
  • Kwestie związane z wprowadzeniem zakazu stosowania praktyk w zakresie sztucznej inteligencji
    • Zakazuje się następujących praktyk w zakresie sztucznej inteligencji:
      • wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który stosuje techniki podprogowe będące poza świadomością danej osoby w celu istotnego zniekształcenia zachowania tej osoby w sposób, który powoduje lub może powodować u niej lub u innej osoby szkodę fizyczną lub psychiczną;
      • wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemu sztucznej inteligencji, który wykorzystuje dowolne słabości określonej grupy osób ze względu na ich wiek, niepełnosprawność ruchową lub zaburzenie psychiczne w celu istotnego zniekształcenia zachowania osoby należącej do tej grupy w sposób, który powoduje lub może powodować u tej osoby lub u innej osoby szkodę fizyczną lub psychiczną;
      • wprowadzania do obrotu, oddawania do użytku lub wykorzystywania systemów sztucznej inteligencji przez organy publiczne lub w ich imieniu na potrzeby oceny lub klasyfikacji wiarygodności osób fizycznych prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych bądź przewidywanych cech osobistych lub cech osobowości, kiedy to punktowa ocena społeczna prowadzi do jednego lub obu z następujących skutków:
        • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup w kontekstach społecznych, które nie są związane z kontekstami, w których pierwotnie wygenerowano lub zgromadzono dane;
        • krzywdzącego lub niekorzystnego traktowania niektórych osób fizycznych lub całych ich grup, które jest nieuzasadnione lub nieproporcjonalne do ich zachowania społecznego lub jego wagi;
      • wykorzystywania systemów zdalnej identyfikacji biometrycznej „w czasie rzeczywistym” w przestrzeni publicznej do celów egzekwowania prawa, chyba iż i w zakresie, w jakim takie wykorzystanie jest absolutnie niezbędne do jednego z następujących celów:
        • ukierunkowanego poszukiwania konkretnych potencjalnych ofiar przestępstw, w tym zaginionych dzieci;
        • zapobiegnięcia konkretnemu, poważnemu i bezpośredniemu zagrożeniu życia lub bezpieczeństwa fizycznego osób fizycznych lub atakowi terrorystycznemu;
        • wykrywania, lokalizowania, identyfikowania lub ścigania sprawcy przestępstwa lub podejrzanego o popełnienie przestępstwa, o którym mowa w art. 2 ust. 2 decyzji ramowej Rady 2002/584/WSiSW 62 i które w danym państwie członkowskim podlega karze więzienia lub środkowi zabezpieczającemu polegającemu na pozbawieniu wolności przez okres, którego górna granica wynosi co najmniej trzy lata,

Sztuczna inteligencja a RODO

W Rozporządzeniu wskazuje się, iż dane osobowe zgromadzone zgodnie z prawem w innych celach przetwarza się na potrzeby opracowywania i testowania określonych innowacyjnych systemów sztucznej inteligencji w ramach piaskownicy na następujących warunkach:

  • innowacyjne systemy sztucznej inteligencji opracowuje się w celu zapewnienia ochrony ważnego interesu publicznego w co najmniej jednym z poniższych obszarów:
    • zapobieganie przestępczości, prowadzenia postępowań przygotowawczych, wykrywania lub ścigania czynów zabronionych lub egzekwowania sankcji karnych, w tym ochrona przed zagrożeniami dla bezpieczeństwa publicznego i zapobieganie takim zagrożeniom pod nadzorem adekwatnych organów i na ich odpowiedzialność. Przetwarzanie prowadzi się w oparciu o prawo państwa członkowskiego lub prawo Unii;
    • wysoki poziom ochrony środowiska i poprawa jego jakości;
  • przetwarzane dane są niezbędne do spełnienia co najmniej jednego z wymogów, o których mowa w tytule III rozdział 2, przy czym wymagań tych nie można skutecznie spełnić, przetwarzając dane zanonimizowane, dane syntetyczne lub innego rodzaju dane nieosobowe;
  • ustanowiono skuteczne mechanizmy monitorowania pozwalające zidentyfikować wszelkie poważne zagrożenia dla praw podstawowych osób, których dane dotyczą, jakie mogą wystąpić w trakcie przeprowadzania eksperymentów w ramach piaskownicy, a także mechanizm reagowania zapewniający możliwość szybkiego zaradzenia tym zagrożeniom oraz – w stosownych przypadkach – wstrzymania przetwarzania;
  • wszelkie dane osobowe, które mają być przetwarzane w kontekście piaskownicy, znajdują się w funkcjonalnie wyodrębnionym, odizolowanym i chronionym środowisku przetwarzania danych podlegającym kontroli uczestników korzystających z piaskownicy, a dostęp do tych danych posiadają wyłącznie upoważnione osoby;
  • wszelkie przetwarzane dane osobowe nie mogą być przenoszone, przekazywane ani w żaden inny sposób udostępniane osobom trzecim;
  • żadne przypadki przetwarzania danych osobowych w kontekście piaskownicy nie mogą prowadzić do wdrożenia środków lub podjęcia decyzji wywierających wpływ na osoby, których dane dotyczą;
  • wszelkie dane osobowe przetwarzane w kontekście piaskownicy usuwa się po zakończeniu uczestnictwa w piaskownicy lub po upływie okresu przechowywania danych osobowych;
  • rejestry ewidencjonujące przetwarzanie danych osobowych w kontekście piaskownicy przechowuje się przez cały czas uczestnictwa w piaskownicy oraz przez jeden rok po jego zakończeniu, wyłącznie w celu wywiązania się z obowiązków w zakresie rozliczalności i dokumentacji ustanowionych w niniejszym artykule lub w innych mających zastosowanie przepisach prawa Unii lub prawa państw członkowskich i wyłącznie przez okres niezbędny do wywiązania się z tych obowiązków;
  • w dokumentacji technicznej, o której mowa w załączniku IV rozporządzenia, zamieszcza się wyczerpujący i szczegółowy opis procesu trenowania, testowania i walidacji systemu sztucznej inteligencji wraz ze stosownym uzasadnieniem oraz wyniki przeprowadzonych testów;
  • krótkie podsumowanie projektu w zakresie sztucznej inteligencji opracowanego w ramach piaskownicy, jego celów i oczekiwanych rezultatów opublikowano na stronie internetowej adekwatnych organów.

Podsumowanie

Zgodnie z przepisami rozporządzenia państwa członkowskie zobowiązane są również przyjąć przepisy dotyczące kar, w tym administracyjnych kar pieniężnych, mających zastosowanie w przypadku naruszeń rozporządzenia i podjęcia wszelkich działań niezbędnych do zapewnienia ich adekwatnego i skutecznego wdrożenia.

A jeżeli chcesz wiedzieć więcej na temat narzędzi AI do tworzenia tekstów marketingowych dla e-commerce, to przejdź tutaj.


Adrianna Glapiak,
Autorka tekstów prawnych na ifirma.pl

Prawnik posiadająca wieloletnie doświadczenie w doradztwie prawnym oraz podatkowym. Na co dzień swoją wiedzę i doświadczenie poszerza dzięki pracy jako specjalista do spraw prawnych, a czas wolny poświęca na podnoszeniu kwalifikacji w zakresie aspektów prawnych w e-commerce i social mediach oraz szeroko pojętym prawie autorskim.

Idź do oryginalnego materiału