![](https://www.sobotajachira.pl/wp-content/uploads/2025/02/ai-biznes-001.webp)
Czym jest AI Act?
Akt w sprawie sztucznej inteligencji ma rangę rozporządzenia Parlamentu Europejskiego i Rady, co oznacza, iż obowiązuje bezpośrednio i jednakowo w każdym państwie członkowskim UE. Jego założeniem jest wprowadzenie jednolitych, przejrzystych i bezpiecznych ram prawnych dla systemów sztucznej inteligencji w całej Unii Europejskiej. Podobnie jak RODO określiło standardy w zakresie ochrony danych osobowych, tak nowa regulacja dąży do ustalenia klarownych zasad, standardów i odpowiedzialności dla dostawców, użytkowników i innych podmiotów uczestniczących w tworzeniu oraz wdrażaniu AI.
Kogo dotyczy AI Act?
Regulacja skierowana jest do szerokiego grona podmiotów, w tym:
- dostawców systemów AI, podmiotów tworzących, rozwijających lub wprowadzających do obrotu systemy AI – niezależnie od miejsca ich siedziby w Unii Europejskiej lub w państwie trzecim;
- dystrybutorów i importerów, wprowadzających na rynek UE rozwiązania AI opracowane poza jej granicami;
- użytkowników systemów AI mających siedzibę w UE – przedsiębiorstw i instytucji wykorzystujących sztuczną inteligencję w procesach biznesowych, w produktach lub usługach;
- podmiotów, na które AI ma wpływ i które znajdują się w Unii;
- organizacji nadzorujących i certyfikujących – instytucji odpowiedzialnych za certyfikację, nadzór i egzekwowanie przestrzegania przepisów.
Nowe przepisy dotyczą zarówno systemów wykorzystywanych komercyjnie, jak i bezpłatnych, z wyłączeniem rozwiązań stosowanych w obronności, bezpieczeństwie narodowym oraz badaniach naukowych.
![](https://www.sobotajachira.pl/wp-content/uploads/2025/02/obraz.png)
źródło: Broszura informacyjna Ministerstwa Cyfryzacji
Kategorie ryzyka w AI
Jednym z kluczowych elementów AI Act jest podział systemów sztucznej inteligencji na cztery poziomy ryzyka:
- systemy o niedopuszczalnym ryzyku, których rezultaty mogą być nieetyczne lub niebezpieczne. Ze względu na przyjęty w Unii Europejskiej system wartości są one całkowicie zakazane;
- systemy o wysokim ryzyku – rozwiązania AI stosowane w obszarach o szczególnym znaczeniu, np. w medycynie, transporcie, edukacji czy zatrudnieniu. Te systemy podlegać będą surowym wymogom dotyczącym jakości danych, zarządzania ryzykiem, posiadanej dokumentacji, nadzoru oraz rejestracji;
- systemy o ograniczonym ryzyku – ich stosowanie będzie wymagało spełnienia określonych standardów informacyjnych i etycznych, np. ujawnienia faktu korzystania z AI;
- systemy o minimalnym ryzyku – standardowe rozwiązania AI, takie jak filtry antyspamowe czy chat-boty, które nie będą wymagały szczególnych środków kontrolnych.
Zakazane praktyki w systemach AI
Jak wspomniano, od 2 lutego 2025 r. zabronione jest używanie systemów, stosujących zakazane praktyki. Katalog tych praktyk zawiera art. 5 AI Act, który wymienia systemy:
- stosujące techniki manipulacyjne, podprogowe lub wprowadzające w błąd – skutkujące zniekształceniem podejmowanych decyzji w sposób powodujący u niej lub innych osób istotne szkody;
- wykorzystujące słabości osoby fizycznej lub grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, jeżeli skutkują zniekształceniem podejmowanych decyzji w sposób powodujący u niej lub innych osób istotne szkody;
- z użyciem scoringu społecznego, tj. klasyfikacji osób fizycznych na podstawie ich zachowań społecznych lub cech osobistych, jeżeli prowadzi to do krzywdzącego lub niekorzystnego traktowania;
- profilujące osoby fizyczne pod kątem prawdopodobieństwa popełnienia przestępstwa,
- tworzące lub rozbudowujące bazy danych, służących rozpoznawaniu twarzy poprzez nieukierunkowane pozyskiwanie wizerunków twarzy z Internetu lub nagrań telewizji przemysłowej;
- wyciągające wnioski na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych;
- wykorzystujące kategoryzację biometryczną, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne by wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej
- zdalnej identyfikacji biometrycznej w czasie rzeczywistym w przestrzeni publicznej do ścigania przestępstw.
Sankcją za stosowanie zakazanych praktyk w zakresie AI jest może być nałożenie administracyjnej kary pieniężnej w wysokości do 35 mln EUR lub w przypadku przedsiębiorstwa – w wysokości do 7% jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, w zależności od tego, która z tych kwot jest wyższa.
Jak przygotować się do AI Act?
W związku z wejściem w życie aktu o sztucznej inteligencji, przedsiębiorcy wykorzystujący w swojej działalności AI, od 2 lutego 2025 r. muszą zrezygnować ze stosowania zabronionych systemów. Zgodnie z harmonogramem, już sierpniu 2025 r. zacznie obowiązywać kolejna część przepisów AI Act, zatem już teraz warto wdrożyć dobre praktyki, obejmujące:
- identyfikację systemów AI już stosowanych w firmie oraz określenie ich poziomu ryzyka, zgodnie z katalogiem aktu o sztucznej inteligencji;
- przeprowadzenie audytów oraz wdrożenie wewnętrznych procedur, zatem przygotowanie polityki korzystania z AI w organizacji oraz zaktualizowanie polityki bezpieczeństwa danych;
- szkolenia dla personelu, by zapewnić zespołom IT, działom compliance, kadrze zarządzającej oraz osobom korzystającym z AI w organizacji wiedzę na temat nowych obowiązków i dobrych praktyk, związanych z wykorzystywaniem sztucznej inteligencji.
Podsumowanie
AI Act to pionierska regulacja UE, która wyznacza nowe standardy w zakresie korzystania ze sztucznej inteligencji. Przedsiębiorcy, instytucje oraz podmioty prywatne muszą przystosować się do rygorystycznych przepisów, aby uniknąć wysokich kar finansowych. najważniejsze jest więc podjęcie działań edukacyjnych, przeprowadzenie audytów oraz wdrożenie odpowiednich procedur, które umożliwią bezpieczne, etyczne i zgodne z prawem używanie ze sztucznej inteligencji.
Artykuł autorstwa: adw. Przemysława Sobiesiaka