Sztuczna inteligencja w firmie – obowiązki przedsiębiorców

kkz.com.pl 1 dzień temu

Regulacja sztucznej inteligencji przestała być tematem przyszłości. Unijny Akt o sztucznej inteligencji (AI Act) obowiązuje i jest stosowany bezpośrednio we wszystkich państwach członkowskich UE.

Choć rozporządzenie będzie stosowane od 2 sierpnia 2026 r., część przepisów już funkcjonuje. Z perspektywy pracodawców ta data jest istotna, gdyż będą zobowiązani do wykonywania obowiązków związanych ze stosowaniem przez nich systemów AI wysokiego ryzyka. Za takie systemy uznano systemy, które występują m.in. w obszarze zatrudnienia (załącznik III do rozporządzenia), tj. systemy AI przeznaczone do wykorzystywania do celów:

  • rekrutacji lub wyboru osób fizycznych, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów;
  • podejmowania decyzji wpływających na warunki stosunków pracy, decyzji o awansie lub rozwiązaniu umownego stosunku pracy, przydzielania zadań w oparciu o indywidualne zachowanie lub cechy osobowości lub charakter lub do monitorowania lub oceny wydajności i zachowania osób pozostających w takich stosunkach.

Przepisy w zakresie pozostałych systemów AI wysokiego ryzyka – niewskazanych w załączniku III – będą stosowane od 2 sierpnia 2027 r.

Dla pracodawcy oznacza to zasadniczą zmianę perspektywy. Wykorzystywanie narzędzi AI nie jest już wyłącznie elementem strategii technologicznej lub optymalizacji kosztów. Staje się obszarem formalnej odpowiedzialności, który wymaga świadomego zarządzania, udokumentowanych procedur i nadzoru.

CO OBOWIĄZUJE JUŻ DZIŚ?

Od lutego 2025 r. stosowane są przepisy ogólne, definicje, wymóg kompetencji w zakresie AI oraz przepisy o zakazanych praktykach, które obejmują m.in.:

  • celowe techniki manipulacyjne lub wprowadzające w błąd,
  • określone formy biometrycznej kategoryzacji,
  • tworzenie baz rozpoznawania twarzy poprzez nieukierunkowane pozyskiwanie wizerunków,
  • wyciąganie wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych (z wyjątkiem względów medycznych lub bezpieczeństwa).

Zakazy dotyczą nie tylko producentów, ale również podmiotów korzystających z systemów.

Równolegle obowiązuje wymóg zapewnienia w celu zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby, wobec których systemy AI mają być wykorzystywane.

Oznacza to, iż pracodawca korzystający z systemów AI musi zapewnić pracownikom odpowiednią wiedzę o zasadach używania i ryzykach prawnych związanych z korzystaniem z narzędzi AI. Mogą to być np. szkolenia czy wdrożenie wewnętrznych zasad dotyczących m.in. ochrony danych i tajemnicy przedsiębiorstwa.

NOWE OBOWIĄZKI PRACODAWCÓW

Pracodawca przede wszystkim będzie musiał ustalić, czy stosowane narzędzia stanowią systemy wysokiego ryzyka. W praktyce dotyczy to w szczególności AI wykorzystywanej do:

  • rekrutacji i selekcji kandydatów,
  • decyzji o awansie lub rozwiązaniu stosunku pracy,
  • oceny wydajności,
  • przydzielania zadań w oparciu o profilowanie.

Rzeczywisty nadzór człowieka

AI nie może podejmować decyzji „samodzielnie” w obszarach istotnych z punktu widzenia praw pracownika. Konieczne będzie zapewnienie realnej możliwości weryfikacji i ingerencji przez człowieka, a także przeprowadzenie analizy wpływu systemu na prawa podstawowe, w szczególności prawo do prywatności i równego traktowania.

Odpowiedzialność za skutki działania systemu będzie spoczywać na pracodawcy jako podmiocie stosującym narzędzia AI.

Pozostałe obowiązki

Dodatkowo, pracodawca będzie musiał m.in.:

  • korzystać z systemów zgodnie z instrukcją obsługi,
  • zapewnić, aby przekazywane do systemu dane były adekwatne,
  • przechowywać rejestry zdarzeń.

Co więcej, przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy pracodawcy będą musieli informować przedstawicieli pracowników i pracowników, których to dotyczy, iż będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Niektórzy pracodawcy będą musieli również przeprowadzić ocenę skutków w zakresie praw podstawowych.

CO GROZI PRZEDSIĘBIORCOM?

Kary administracyjne mogą sięgać:

  • 35 mln euro lub 7% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego – za nieprzestrzeganie przepisów dot. zakazanych praktyk,
  • 15 mln euro lub 3% całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego – za inne naruszenia niż wynikające z przepisów dot. zakazanych praktyk, wskazanych w AI Act. Dotyczy to m.in. obowiązków podmiotów stosujących AI (art. 26).

Co istotne, pełną odpowiedzialność ponosi podmiot korzystający z systemu.

JAK SIĘ PRZYGOTOWAĆ?

Z perspektywy pracodawcy – przed 2 sierpnia 2026 r. – najważniejsze jest:

  • zidentyfikowanie wszystkich narzędzi AI wykorzystywanych w organizacji, w tym rozwiązań używanych nieformalnie przez pracowników,
  • ocena, czy któreś z nich mogą zostać zakwalifikowane jako systemy wysokiego ryzyka,
  • wdrożenie polityki korzystania z AI,
  • przeszkolenie kadry menedżerskiej i działów HR oraz w razie potrzeby – pozostałych pracowników.

Autor: r. pr. Marta Kopeć, Partner Zarządzający

E-mail: [email protected]

tel.: +48 22 501 56 10

Zobacz profil na LinkedIn

Autor: apl. adw. Zuzanna Kosiorowska

E-mail: [email protected]

tel.: +48 22 501 56 10

Zobacz profil na Linkedin

Idź do oryginalnego materiału