Euractive dotarł do nowej wersji tzw. AI Act, prawdopodobnie ostatecznej. Jest w nim kilka zasadniczych, choć nierewolucyjnych zmian względem poprzedniej propozycji. Chyba najważniejsza dotyczy definicji pojęcia „system sztucznej inteligencji”. Dodano warunek, iż systemy takie muszą mieć „możliwość dostosowania się po ich wdrożeniu”.
– To krok w dobrym kierunku, który sprawia, iż AI Act będzie bardziej odporny na zmiany technologiczne – mówi Filip Konopczyński, ekspert Fundacji Kaleckiego. – Ta wersja jest bliska definicji przyjętej pod koniec 2023 r. przez OECD. To daje większą szansę na „promieniowanie” nowej europejskiej regulacji na inne państwa i bloki gospodarcze, tak jak było z RODO – podkreśla.
Eliza Turkiewicz, ekspertka Konferedacji Lewiatan, zwraca jednak uwagę, iż nowe zastrzeżenie jest trudne do zinterpretowania i stwarza niejasności, które jednak mogą być wyjaśnione w preambule lub motywach rozporządzenia.
– Niepewność ta może być istotnym wyzwaniem dla przedsiębiorstw, gdyż brak klarowności – szczególnie w definicjach – może prowadzić do braku efektywności w stosowaniu AI Act i błędów interpretacyjnych – wyjaśnia.
Dobry kompromis
Filip Konopczyński wskazuje, iż w upublicznionej wersji dokumentu w sprawie ochrony praw podstawowych osiągnięto kompromis.
– Parlamentowi udało się zachować obowiązek przeprowadzenia przez operatorów AI wysokiego ryzyka procedury oceny skutków systemu na prawa podstawowe, ale nie wszystkich. Będzie on dotyczył podmiotów publicznych oraz niektórych firm prywatnych. W tych drugich zniesiono taki wymóg np. dla systemów stosowanych w rekrutacji na rynku pracy – tłumaczy ekspert.
W najnowszej wersji dodano także listę przestępstw, przy których ściganiu policja i inne służby będą mogły stosować inwigilację dzięki zdalnego rozpoznawania osób w czasie rzeczywistym (RBI). Co do zasady takie zastosowanie AI ma być w Unii zakazane – z wyjątkiem wskazanych w rozporządzeniu sytuacji.
– w tej chwili lista takich przypadków obejmuje najpoważniejsze przestępstwa, takie jak handel narkotykami, terroryzm czy morderstwo, ale też poszukiwanie ofiar, których życie jest zagrożone. Taki kształt przepisów także należy traktować jako ustępstwo negocjatorów z ramienia Rady wobec oczekiwań PE, który domagał się całkowitego zakazu – mówi Filip Konopczyński.
Mimo iż wprowadzono rozwiązania, które mają poddać ewentualne nadużycia kontroli sądowej i nadzorowi urzędniczemu, rządy będą mogły w określonych sytuacjach używać takich narzędzi.
– Daje to więc podstawę prawną do tego, aby państwa członkowskie takie systemy kupowały i rozwijały. AI Act nie będzie obowiązywał w obszarze bezpieczeństwa narodowego ani obronności – nie będą mu więc podlegać wojsko ani służby specjalnie – podsumowuje Konopczyński.
Krótkie terminy
Co ważne z punktu widzenia wdrażania rozporządzenia, różne jego części będą wchodzić w życie w różnych momentach. Przykładowo wymogi dotyczące praktyk zakazanych wejdą w życie po sześciu miesiącach, a te dla AI ogólnego przeznaczenia – po roku.
Eliza Turkiewicz wskazuje, iż te terminy są zdecydowanie za krótkie.
– AI Act jest pierwszą tak szeroką regulacją sztucznej inteligencji na świecie i wiele nowych obowiązków z niej wynikających będzie wymagało szeroko zakrojonych działań niezbędnych do prawidłowego dostosowania się i zapewnienia zgodności – tłumaczy.
I dodaje, iż rozwiązaniem mogłaby tu być samoregulacja.
– Kodeksy dobrych praktyk mają być przyjęte w dziewięć miesięcy od wejścia w życie AI Act, co też może tworzyć lukę interpretacyjną, w szczególności w kontekście wspomnianych praktyk zakazanych – mówi ekspertka.
Jednak czas wdrożenia systemów wysokiego ryzyka to aż trzy lata.
Michał Nowakowski radca prawny, CEO w GovernedAI
Dokument nie daje absolutnej pewności we wszystkich przepisach, bo w niektórych miejscach brakuje komentarza, jaka wersja została przyjęta. Pewne gorąco dyskutowane przepisy (standardy etyczne dla systemów AI, wymogi dla modeli podstawowych) mogą ostatecznie być sformułowane odmiennie lub choćby w ogóle nie pojawić się w finalnej wersji. Przesądzone wydają się: przepisy przejściowe i zmiany w definicji systemu AI (choć na pozór niewielkie, mogą mieć istotny wpływ na praktykę), zawężenie katalogu podmiotów obowiązanych do oceny skutków dla praw podstawowych czy doprecyzowanie i rozszerzenie katalogu praktyk zakazanych – który przez cały czas budzi pewne wątpliwości w kontekście wyłączeń. Jednym z wyzwań dla państw członkowskich jest szybkie wyznaczenie organów, które będą odpowiadały za egzekwowanie stosowania przepisów.