Komisja Europejska zachęca do AI literacy

5 godzin temu

Obecnie, zgodnie z art. 4 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Dz.Urz. UE L z 2024 r., s. 1689; dalej: AIAct), dostawcy i podmioty stosujące systemy AI podejmują środki w celu zapewnienia, w możliwie największym stopniu, odpowiedniego poziomu kompetencji w zakresie AI wśród swojego personelu i innych osób zajmujących się działaniem i wykorzystaniem systemów AI w ich imieniu, z uwzględnieniem ich wiedzy technicznej, doświadczenia, wykształcenia i wyszkolenia oraz kontekstu, w którym systemy AI mają być wykorzystywane, a także biorąc pod uwagę osoby lub grupy osób, wobec których systemy AI mają być stosowane.

Komisja Europejska ogłosiła 19.11.2025 r. pakiet Cyfrowy Omnibus, w którym m.in. zaproponowała zmianę art. 4 AIAct. W projekcie rozporządzenia zmieniającego akt w sprawie sztucznej inteligencji początek tego artykułu przybrał brzmienie: Komisja Europejska oraz państwa członkowskie mają zachęcać dostawców i użytkowników systemów sztucznej inteligencji do podejmowania działań mających na celu zapewnienie odpowiedniego poziomu kompetencji w zakresie AI ich personelu oraz innych osób zajmujących się obsługą i wykorzystywaniem systemów sztucznej inteligencji w ich imieniu. Zmiana „podejmują środki” na „mają być zachęcani do podejmowania środków” zmniejsza presję na dostawców i podmioty stosujące systemy AI. KE tłumaczy to tym, iż choć rozwój kompetencji w zakresie AI ma znaczenie korzystających ze sztucznej inteligencji, pozwalając im podejmować świadome i zgodne z prawem decyzje, to uniwersalne rozwiązanie nie jest odpowiednie dla wszystkich. W konsekwencji przepis ten staje się nieskuteczny i nadmiernie obciążający – szczególnie mniejsze przedsiębiorstwa.

Systemy AI wysokiego ryzyka

Ważną zaproponowaną zmianą w AIAct jest także przesuniecie daty wejścia w życie przepisów o systemach wysokiego ryzyka, czyli takich, w przypadku których występuje znaczące ryzyko szkody dla zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych. Należą do nich m.in. systemy stosowane w wymiarze sprawiedliwości, rekrutacji, edukacji, służbie zdrowia czy zarządzaniu infrastrukturą krytyczną. Jest im poświęcony Rozdział III AIAct. Ogłaszając pakiet Cyfrowy Omnibus, KE podkreśliła, że najpierw zamierza potwierdzić dostępność norm i narzędzi wsparcia, a potem wymagać ich stosowania, tak by przedsiębiorcy mieli zapewnione to, co niezbędne do realizacji przewidzianych prawem obowiązków.

W związku z tym, zgodnie z projektem rozporządzenia zmieniającego Rozdział III, Systemy AI wysokiego ryzyka, sekcja 1 (Klasyfikacja systemów AI jako systemów AI wysokiego ryzyka), sekcja 2. (Wymogi dotyczące systemów AI wysokiego ryzyka) oraz sekcja 3. (Obowiązki dostawców i podmiotów stosujących systemy AI wysokiego ryzyka oraz innych osób), ma być stosowany po przyjęciu przez Komisję decyzji potwierdzającej dostępność odpowiednich środków wspierających zgodność z rozdziałem III, od następujących terminów:

  • (i) 6 miesięcy po przyjęciu tej decyzji w odniesieniu do systemów AI sklasyfikowanych jako wysokiego ryzyka zgodnie z art. 6 ust. 2 AIAct i załącznikiem III, oraz
  • (ii) 12 miesięcy po przyjęciu decyzji w odniesieniu do systemów AI sklasyfikowanych jako wysokiego ryzyka zgodnie z art. 6 ust. 1 AIAct i załącznikiem I.

Przy czym przypadku braku przyjęcia decyzji lub gdy poniższe daty są wcześniejsze niż daty następujące po przyjęciu tej decyzji, rozdział III, sekcje 1, 2 i 3 stosuje się:

  • (i) od dnia 2.12.2027 r. w odniesieniu do systemów AI sklasyfikowanych jako wysokiego ryzyka zgodnie z art. 6 ust. 2 AIAct i załącznikiem III, oraz
  • (ii) w dniu 2.6.2028 r. w odniesieniu do systemów sztucznej inteligencji sklasyfikowanych jako systemy wysokiego ryzyka zgodnie z art. 6 ust. 1 AIAct i załącznikiem I.

Relacja art. 4 AIAct do pozostałych obowiązków rozporządzenia

W praktyce proponowane zmiany oznaczają, iż pierwotny obowiązek compliance został złagodzony, choć oczekiwany standard organizacyjny pozostaje wysoki. Formalnie podmioty stosujące AI mają więcej czasu w naukę i wdrożenie obowiązków, ale realnie nie mogą pozostać z tym w tyle, ponieważ brak wiedzy i umiejętności grozi kosztownymi błędami. Czy można korzystać ze skomplikowanych rozwiązań technologicznych bez przeszkolenia? Projekt rozporządzenia zmienia na późniejszy termin obowiązywania art. 26 AIAct, dotyczącego obowiązku szkoleniowego użytkowników systemów wysokiego ryzyka; podobnie jest z obowiązkiem przejrzystości (art. 13 AIAct), zasadami nadzoru (art. 14 AIAct) i zasadami bezpiecznego stosowania systemów wysokiego ryzyka (art. 9–15 AIAct).

Choć akt w sprawie sztucznej inteligencji nie wprowadza obowiązku egzaminowania czy certyfikowania, przedsiębiorca powinien dla własnego dobra zadbać o ogólne rozumienie tego, czym jest AI i jak działają stosowane systemy, określić rolę organizacji, przeanalizować ryzyko w odniesieniu do systemów wykorzystywanych w firmie, zapewnić edukację dostosowaną do potrzeb poszczególnych grup, np. programistów, prawników i kadry zarządzającej. Osoby korzystające z narzędzi generatywnych powinny pamiętać o konieczności sprawdzania uzyskiwanych wyników, m.in. z powodu halucynacji, błędów faktograficznych, naruszeń prawa autorskiego czy możliwości przetwarzania danych osobowych niezgodnie z RODO.

Edukacja cyfrowa

Kompetencje w zakresie AI oznaczają umiejętności, wiedzę oraz zrozumienie, które pozwalają dostawcom, podmiotom stosującym i osobom, na które AI ma wpływ – z uwzględnieniem ich odnośnych praw i obowiązków w kontekście AIAct – w przemyślany sposób wdrażać systemy sztucznej inteligencji oraz mieć świadomość, jakie możliwości i ryzyka wiążą się z AI, oraz jakie potencjalne szkody może ona wyrządzić (definicja AI literacy – art. 3 pkt 56 AIAct).

Choć obowiązek AI literacy ma stać się dla wielu dostawców i użytkowników systemów sztucznej inteligencji tylko możliwością, w ich interesie pozostaje dobre wyszkolenie osób, które korzystają ze sztucznej inteligencji w ich organizacji. W projekcie nowelizacji ciężar odpowiedzialności za edukację został przesunięty z przedsiębiorców na KE i państwa członkowskie, które mają zachęcać do podejmowania działań służących nabywaniu cyfrowych kompetencji, czyli ułatwiać zdobycie niezbędnej wiedzy. Już teraz podejmowane są inicjatywy temu służące. W październiku 2025 r. Komisja Europejska udostępniła platformę Single Information Platform (https://ai-act-service-desk.ec.europa.eu/en) i trzy narzędzia:

  • AI Act Explorer – ma pomóc użytkownikom w intuicyjny sposób przeglądać różne rozdziały, załączniki i motywy AIAct;
  • The AI Act compliance checker – ma pomóc ocenić, czy systemy AI i uniwersalne modele AI spełniają wymagania określone w AIAct;
  • AI Act Service Desk – formularz kontaktowy, w którym można zadać pytania ekspertom, biegłym w tej tematyce.

Nie ma obowiązku, odpowiedzialność zostaje

Nieustające zmiany i poziom skomplikowania zagadnień związanych z AI oraz nadprodukcja danych i problem z ich selekcją sprawiają, iż niezależnie od obowiązków wpisanych do AIAct przedsiębiorcy nie mają wyjścia – jeżeli chcą wdrażać nowoczesne rozwiązania technologiczne muszą szkolić osoby z nich korzystające. Niewłaściwe przeszkolenie pracowników może prowadzić do szkód wynikających z błędów pojawiających się w wyniku stosowania AI (co może skutkować roszczeniami wobec przedsiębiorstwa) albo do nieefektywnego wykorzystywania potencjału nowych technologii. Z tego punktu widzenia AI literacy jest koniecznością – służy zabezpieczeniu organizacji i jej rozwojowi.

Idź do oryginalnego materiału