Brak przeszkolenia personelu z AI może oznaczać naruszenie prawa – obowiązki kompetencyjne według AI Act

traple.pl 2 tygodni temu

Choć wiele przepisów AI Act zacznie obowiązywać dopiero za jakiś czas, jeden najważniejszy obowiązek już teraz dotyczy wszystkich tworzących i korzystających z systemów AI – niezależnie od poziomu ryzyka, sektora czy rodzaju zastosowania systemu. Mowa o art. 4 AI Act, który wprowadza coś, co dla wielu firm może być zaskoczeniem: obowiązek zapewnienia odpowiedniego poziomu kompetencji w zakresie AI wśród personelu, czyli tzw. AI Literacy.

To jeden z pierwszych przypadków, gdy unijne prawo tak wyraźnie i ogólnie wymaga zapewnienia kompetencji technologicznych wśród personelu jako element zgodności z regulacją.

Czego i od kogo wymaga art. 4?

Zgodnie z treścią przepisu, dostawcy i podmioty stosujące systemy AI muszą podjąć środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród:

  • własnego personelu, oraz
  • osób trzecich, które działają w ich imieniu (czyli np. podwykonawców).

Co ważne, obowiązek ten ma charakter proporcjonalny – a więc zależny od poziomu wiedzy technicznej, doświadczenia i kontekstu działania danej osoby.

Należy zauważyć, iż obowiązek zapewnienia kompetencji został nałożony zarówno na dostawców systemów AI, jak i na podmioty korzystające z systemów AI. Oznacza to, iż każdy przedsiębiorca, który zdecydował się wdrożyć w swojej organizacji system AI ma obowiązek zapewnienia odpowiedniego poziomu kompetencji wśród swojego personelu.

Warto podkreślić, iż przepis nie różnicuje systemów AI ze względu na poziom ryzyka. Oznacza to, iż choćby jeżeli organizacja korzysta wyłącznie z prostego narzędzia typu chatbot, translator lub asystent tekstowy – również jest zobowiązana do spełnienia tego obowiązku.

Jaki poziom kompetencji w zakresie AI jest uznawany za odpowiedni?

AI Act w art. 3 pkt 56 precyzuje, jak należy rozumieć pojęcie „kompetencji w zakresie AI”. Zgodnie z tą definicją są to umiejętności, wiedza oraz zrozumienie, które umożliwiają:

  • przemyślane wdrażanie systemów sztucznej inteligencji,
  • świadomość możliwości i ryzyk związanych z AI,
  • świadomość potencjalnych szkód, jakie AI może wyrządzić.

Oznacza to, iż zgodność z AI Act wymaga od osób pracujących z systemami AI nie tylko umiejętności technicznych, ale również zrozumienia ich wpływu na ludzi, ryzyk oraz potencjalnych konsekwencji.

Poziom oraz zakres wymaganych kompetencji nie są jednolite – zależą od wielu czynników i powinny być proporcjonalne do roli danej osoby oraz kontekstu zastosowania systemu AI. Zgodnie z AI Act, środki podejmowane przez organizację powinny uwzględniać:

  • poziom wiedzy technicznej;
  • doświadczenie;
  • wykształcenie;
  • dotychczasowe przeszkolenie;
  • sposób wykorzystania systemu AI w organizacji;
  • charakter grupy odbiorców, wobec której system AI jest stosowany.

W praktyce oznacza to, iż każdy przedsiębiorca powinien rozpocząć od analizy potrzeb kompetencyjnych w swojej organizacji, a dopiero później dobrać odpowiednie środki.

Jakie działania może podjąć organizacja?

Choć AI Act nie nakłada obowiązku formalnej certyfikacji, to w razie incydentu z udziałem AI, organy nadzoru mogą analizować, czy personel był odpowiednio przygotowany do pracy z danym systemem. Brak dokumentacji szkoleń i polityk może zostać uznany za uchybienie obowiązkom z art. 4 i oznaczać wysokie kary.

W praktyce realizacja obowiązku zapewnienia kompetencji wymaga zatem podjęcia konkretnych, działań, które świadczą o rzeczywistym wdrożeniu tego wymogu, w szczególności:

  1. zidentyfikowania osób w organizacji, które mają kontakt z systemami AI, niezależnie od ich roli technicznej lub nietechnicznej,
  2. oceny aktualnego poziomu wiedzy wśród tych grup – zarówno w kontekście działania samych systemów, jak i konsekwencji prawnych ich stosowania,
  3. opracowania polityki stosowania narzędzi AI w organizacji oraz planu szkoleniowego,
  4. wdrożenia planu szkoleniowego, np. poprzez przeprowadzenie szkoleń wewnętrznych, warsztatów lub wdrożenie procedur operacyjnych,
  5. dokumentowania wszystkich podjętych działań – co może mieć najważniejsze znaczenie w przypadku ewentualnej kontroli ze strony organów.

Repozytorium praktyk

Europejski urząd ds. AI opublikował również repozytorium przykładowych praktyk, które służą zapewnieniu odpowiedniego poziomu kompetencji[1]. Repozytorium to ma być na bieżąco aktualizowane. Dotychczas opublikowane praktyki zostały podzielone alfabetycznie według różnych poziomów ich wdrożenia (w pełni wdrożone, częściowo wdrożone, planowane).

Repozytorium ma charakter informacyjny, tzn. wdrożenie podobnych praktyk w organizacji nie gwarantuje automatycznego uznania, iż obowiązek AI Literacy został spełniony. Może jednak stanowić cenny punkt odniesienia przy projektowaniu wewnętrznych programów.

Podsumowanie

Choć AI Act bywa krytykowany za nadmierną złożoność i ciężar regulacyjny, a w Unii Europejskiej rosną nastroje deregulacyjne, obowiązek zapewnienia kompetencji w zakresie AI trudno uznać za nadmiarowy. W praktyce to czynnik ludzki – sposób wdrażania i korzystania z systemów – najczęściej prowadzi do kosztownych błędów. Należy pamiętać, iż w dobie automatyzacji kompetencje człowieka wciąż pozostają najważniejsze – zwłaszcza gdy to on ponosi odpowiedzialność.

Dlatego warto potraktować rozwijanie wiedzy i świadomości personelu nie tylko jako wymóg formalny, ale jako realny sposób na ograniczenie ryzyka i budowanie przewagi konkurencyjnej.

Nasza Kancelaria wspiera organizacje w praktycznym wdrażaniu wymagań art. 4 AI Act. Pomagamy projektować polityki i procedury dla personelu pracującego z AI, tworzymy odpowiednie klauzule umowne z dostawcami i podwykonawcami, a także prowadzimy ukierunkowane szkolenia – dopasowane do poziomu odpowiedzialności i ryzyka w konkretnej organizacji.

[1] https://digital-strategy.ec.europa.eu/en/library/living-repository-foster-learning-and-exchange-ai-literacy (dostęp: 14.05.2025 r.)

Idź do oryginalnego materiału