Gdzie kończy się automatyzacja, a zaczyna sztuczna inteligencja?

traple.pl 9 godzin temu

Definicja sytemu AI według AI Act

W ostatnim czasie rynek technologiczny przeżywa prawdziwy boom na wszystko, co choćby ociera się o sztuczną inteligencję. Wraz z wejściem w życie AI Act etykieta „AI” zyskuje jednak zupełnie nowe znaczenie. To już nie tylko kwestia przekazu marketingowego czy technologii – od tego, czy system spełnia definicję systemu sztucznej inteligencji, zależą konkretne skutki prawne, w tym konieczność realizacji nowych obowiązków, nie tylko przez dostawców, ale również przez użytkowników systemów. Aby ułatwić interpretację przepisów, Komisja Europejska opublikowała wytyczne, które mają pomóc w ustaleniu, które systemy rzeczywiście mieszczą się w definicji systemów AI.

Próby zdefiniowania AI

Mimo iż o sztucznej inteligencji mówi się od dekad, nie istnieje jedna, uniwersalna definicja tego pojęcia, która byłaby adekwatna we wszystkich środowiskach – naukowym, technologicznym czy biznesowym. Dlatego jego ujęcie na gruncie prawnym okazało się szczególnie wymagające – zwłaszcza iż liczba zastosowań AI stale rośnie, a granica między klasycznym oprogramowaniem a systemami wykorzystującymi sztuczną inteligencję często jest nieostra.

W tym kontekście wejście w życie AI Act stanowi istotny przełom – akt ten po raz pierwszy na poziomie unijnym wprowadza konkretną definicję systemu sztucznej inteligencji, która ma służyć jako punkt odniesienia dla obowiązków prawnych. Jednak, jak pokażemy dalej, definicja ta pozostawia pewną przestrzeń do interpretacji, która wymaga starannej analizy.

Czym jest system AI? Definicja według AI Act

AI Act uzależnia zakres obowiązków od kategorii ryzyka przypisanej do danego systemu. Dlatego wielu przedsiębiorców i dostawców technologii, analizując wymagania wynikające z rozporządzenia, zaczyna od razu od ustalania, do której kategorii ryzyka może zostać przypisany tworzony lub wdrażany przez nich system. Tymczasem często pomijany jest krok wcześniejszy – a zarazem absolutnie fundamentalny – czyli ocena tego, czy dany system spełnia definicję systemu AI, a tym samym – czy w ogóle podlega przepisom rozporządzenia.

Definicja systemu AI została zawarta w art. 3 pkt 1) AI Act i składa się z kilku głównych elementów. Zgodnie z nią, aby system został uznany za system AI:

  1. musi być systemem maszynowym;
  1. musi być zaprojektowany do działania z jakimś poziomem autonomii po jego wdrożeniu;
  1. może wykazywać zdolność adaptacji po wdrożeniu;
  1. musi wnioskować, jak generować wyniki (takie jak predykcje, treści, zalecenia lub decyzje) na podstawie otrzymanych danych wejściowych;
  1. wnioskowanie to musi się odbywać na potrzeby wyraźnych lub dorozumianych celów;
  1. ww. wyniki muszą mieć zdolność wpływania na środowisko fizyczne lub wirtualne.

Co istotne, jak podkreślono w wytycznych Komisji, nie wszystkie te elementy muszą występować jednocześnie ani przez cały cykl życia systemu. Mogą pojawiać się na różnych etapach, np. tylko w fazie projektowania lub tylko w fazie użytkowania systemu. Co więcej, nie wszystkie z nich są warunkami koniecznymi – zdolność adaptacji systemu ma charakter fakultatywny.

Choć sama treść przepisu zawiera wiele pojęć nieostrych, pewne wskazówki interpretacyjne można znaleźć w motywach preambuły AI Act, w szczególności w motywie 12. Dodatkowo, Komisja Europejska rozwija te zagadnienia w swoich wytycznych opublikowanych w lutym br. Najważniejsze z nich zostaną przedstawione w dalszej części artykułu.

Warto również zwrócić uwagę na rozróżnienie pomiędzy modelem AI a systemem AI. Jak wskazano w motywie 97 AI Act, aby model AI mógł stać się systemem AI, należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część”. Oznacza to, iż sam model, bez odpowiedniego osadzenia w strukturze systemu, nie podlega regulacjom jako odrębna jednostka – dopiero jego implementacja w ramach konkretnego rozwiązania może skutkować zakwalifikowaniem jako system AI.

Co na to Komisja Europejska?

6 lutego 2025 r. Komisja Europejska opublikowała wytyczne dotyczące interpretacji zawartej w AI Act1 definicji systemów AI. Celem dokumentu jest ułatwienie praktycznej oceny, czy dany system rzeczywiście kwalifikuje się jako system AI w rozumieniu rozporządzenia. Wytyczne szczegółowo omawiają poszczególne elementy definicji z art. 3 pkt 1) AI Act, wyjaśniając ich znaczenie oraz sposób stosowania.

„System maszynowy”

Jednym z podstawowych elementów definicji systemu sztucznej inteligencji w rozumieniu AI Act jest wymóg, aby był to system maszynowy. Choć brzmi to intuicyjnie, w praktyce może budzić wątpliwości – zwłaszcza w odniesieniu do nietypowych lub nowatorskich technologii, takich jak systemy oparte na biologicznych mechanizmach przetwarzania informacji (np. sieci neuronowe z żywych komórek).

Komisja Europejska wyjaśnia, iż termin „maszynowy” odnosi się do tego, iż systemy są projektowane i uruchamiane z wykorzystaniem maszyn. Maszyna w tym kontekście oznacza zarówno komponenty sprzętowe (hardware), jak i programowe (software).

Kluczowe jest to, czy dany system wykonuje operacje o charakterze obliczeniowym – jeżeli tak, może zostać uznany za system maszynowy w rozumieniu AI Act, niezależnie od nietypowej infrastruktury, w ramach której działa. Komisja wprost wskazuje, iż pojęcie „maszynowy” obejmuje zarówno klasyczne komputery, jak i systemy oparte na alternatywnych technologiach obliczeniowych, w tym komputery kwantowe oraz hybrydowe systemy biologiczno-obliczeniowe.

„Zaprojektowany do działania z jakimś poziomem autonomii”

Drugim elementem definicji systemu AI jest warunek, iż system musi być zaprojektowany do działania z jakimś poziomem autonomii.

Zgodnie z motywem 12 AI Act oraz pkt. 15–20 wytycznych Komisji, autonomia oznacza, iż system jest w pewnym stopniu niezależny od zaangażowania ze strony człowieka i zdolny do działania bez jego interwencji. Nie oznacza to jednak całkowitego wyłączenia człowieka z procesu – jego udział może mieć charakter bezpośredni (np. przez manualne sterowanie) lub pośredni (np. przez ustawienie parametrów działania lub nadzór nad systemem). najważniejsze jest jednak to, iż system musi być w stanie samodzielnie przetwarzać dane i generować wyniki bez każdorazowej interwencji człowieka. Autonomia nie musi być pełna – wystarczające jest, aby system działał z pewnym zakresem niezależności, choćby minimalnym.

Ustalenie, czy system działa z „jakimś poziomem autonomii”, nie zawsze będzie zatem oczywiste. AI Act nie wskazuje konkretnego progu, który wystarczy, by system spełniał ten warunek, a w praktyce cechę tę może przejawiać wiele systemów automatyzujących określone procesy. To jednak nie wystarcza, by zakwalifikować je jako systemy AI – fundamentalne znaczenie ma tutaj następny element definicji, czyli zdolność systemu do wnioskowania.

„Wnioskuje, jak generować…”

Trzecią kluczową cechą systemu AI w rozumieniu AI Act jest właśnie zdolność do wnioskowania, czyli określania, w jaki sposób wygenerować dane wyjściowe na podstawie danych wejściowych.

Zgodnie z motywem 12 AI Act oraz wytycznymi Komisji, wnioskowanie to proces wykraczający poza podstawowe przetwarzanie danych. Zakłada, iż system posiada zdolność do uczenia się, rozumowania lub modelowania, a więc elastycznego przekształcania informacji, a nie jedynie mechanicznego wykonywania z góry zapisanych instrukcji.

Wytyczne Komisji oraz motyw 12 AI Act wskazują, iż przypisanie systemom AI zdolności wnioskowania ma zmierzać do odróżnienia systemów AI od tradycyjnych systemów oprogramowania, w szczególności systemów opartych wyłącznie na automatyzacji, czyli na wcześniej zdefiniowanych regułach, ustalonych manualnie, np. przez programistę.

Aby system spełniał ten warunek, musi wykorzystywać techniki sztucznej inteligencji, które umożliwiają mu samodzielne wygenerowanie wyniku. AI Act wyróżnia tutaj dwa główne podejścia:

  1. uczenie maszynowe – czyli nauka na podstawie danych, jak osiągnąć określone cele, przy czym może to być także uczenie nadzorowane (supervised learning) czy też wspomagane (reinforcement learning);
  1. podejścia oparte na logice i wiedzy – czyli wnioskowanie oparte na zakodowanej wiedzy lub symbolicznej reprezentacji problemu – w takim wypadku system korzysta z wcześniej zdefiniowanych reguł, faktów i relacji (np. baz wiedzy, logiki symbolicznej), aby samodzielnie dochodzić do rozwiązania dzięki silników dedukcyjnych lub indukcyjnych.

Choć podejścia oparte na logice i wiedzy korzystają z reguł zdefiniowanych przez człowieka, nie należy ich mylić z prostą automatyzacją. Takie systemy rzeczywiście na pierwszy rzut oka mogą przypominać klasyczną automatyzację, jednak działają zupełnie inaczej. Zamiast odtwarzać sztywno jedną zaprogramowaną ścieżkę, system AI w tym modelu dobiera i łączy reguły dynamicznie, w zależności od danych wejściowych i kontekstu. W efekcie choćby te same dane wejściowe mogą prowadzić do różnych wyników zależnie od tego, jak system zinterpretuje sytuację w oparciu o swoją zakodowaną wiedzę.

Systemem AI nie będzie natomiast np. prosty czatbot, powszechnie spotykany w sklepach internetowych, który jedynie dopasowuje pytania użytkownika do zapisanych w bazie wiedzy odpowiedzi. Choć może sprawiać wrażenie interakcji z „inteligentnym” systemem, w rzeczywistości nie analizuje on kontekstu, nie uczy się, nie rozpoznaje wzorców ani nie modeluje danych – po prostu odtwarza wcześniej zaprogramowane reakcje na określone frazy. Tego rodzaju rozwiązania – mimo iż mogą wydawać się inteligentne – nie mieszczą się w definicji systemu AI i nie powinny podlegać przepisom AI Act.

„Może wykazywać zdolność adaptacji”

Motyw 12 AI Act wyjaśnia, iż adaptacyjność odnosi się do zdolności systemu do uczenia się po wdrożeniu, co może prowadzić do generowania różnych wyników dla tych samych danych wejściowych. Adaptacyjność i autonomia to dwa różne, choć powiązane ze sobą aspekty funkcjonowania systemu AI.

Komisja Europejska potwierdza, iż możliwość wykazania zdolności adaptacji po wdrożeniu nie stanowi przesłanki koniecznej dla uznania systemu za system AI.

Co nie jest systemem AI?

Wytyczne Komisji są szczególnie przydatne tam, gdzie granica między klasycznym oprogramowaniem a systemem AI okazuje się nieostra. Oprócz wyjaśnienia poszczególnych elementów definicji, dokument zawiera również konkretne przykłady systemów, które nie spełniają warunków określonych w art. 3 pkt 1) AI Act, a więc nie podlegają przepisom rozporządzenia.

W wytycznych wprost wskazano m.in. następujące kategorie:

  1. systemy oparte wyłącznie na regułach ustalonych przez człowieka – wykonujące operacje zgodnie ze sztywnym zestawem instrukcji, bez uczenia się, modelowania ani rozumowania („jeśli A, to B”);
  1. systemy do podstawowego przetwarzania danych – działające na z góry określonych parametrach, bez zastosowania technik AI, np. system wyszukujący klientów w bazie danych na podstawie daty zakupu;
  1. systemy wspomagające optymalizację matematyczną – wykorzystujące znane metody obliczeniowe (np. regresję), ale niewykraczające poza podstawowe przetwarzanie danych;
  1. proste systemy predykcyjne – opierające się na zasadach statystycznych, np. przewidywanie popytu na podstawie średniej z poprzednich dni.

Tego rodzaju rozwiązania – mimo iż mogą wyglądać nowocześnie lub być określane jako „inteligentne” w przekazie marketingowym – nie realizują funkcji wnioskowania ani nie działają z wymaganą autonomią. Tym samym nie kwalifikują się jako systemy AI w rozumieniu AI Act.

Podsumowanie i rekomendacje

Zgodnie z wytycznymi Komisji Europejskiej, definicji systemu AI nie należy stosować mechanicznie ani automatycznie Oznacza to, iż nie wystarczy sprawdzić, czy system używa określonej technologii, aby uznać go za system AI. Każdy przypadek wymaga indywidualnej analizy, opartej na rzeczywistym działaniu systemu, jego architekturze oraz etapie cyklu życia. Co istotne, kwalifikacja systemu jako AI nie ma także charakteru stałego. Systemy mogą z czasem ulegać zmianom – rozwijać się, integrować nowe komponenty, zmieniać sposób działania – co może wpłynąć na ich status na gruncie AI Act.

Sama definicja celowo została sformułowana w sposób ogólny i technologicznie neutralny, aby mogła obejmować także przyszłe, rozwijające się rozwiązania. To daje organom potrzebną elastyczność, ale jednocześnie może rodzić wątpliwości interpretacyjne – zwłaszcza w przypadku rozwiązań, które balansują na granicy między klasyczną automatyzacją a inteligentnym przetwarzaniem danych.

Dopiero po ustaleniu, iż dany system rzeczywiście spełnia wszystkie przesłanki zawarte w definicji systemu AI, można przejść do kolejnego etapu analizy, czyli określenia kategorii ryzyka, od której zależy zakres obowiązków regulacyjnych.

Nasza kancelaria wspiera Klientów w całym procesie – od oceny kwalifikacji systemów, przez analizę ryzyka, aż po wdrożenie wymagań zgodności z AI Act. Zapraszamy do kontaktu, jeżeli potrzebujesz praktycznego wsparcia w interpretacji i wdrożeniu przepisów rozporządzenia.

Idź do oryginalnego materiału