Wersja publikowana w formacie PDF
- Podkomisja stała do spraw sztucznej inteligencji i przejrzystości algorytmów /nr 9/
- Poseł Paweł Bliźniuk /KO/
- Wykładowca w Centrum Europejskim Uniwersytetu Warszawskiego prof. ucz. dr hab. Marta Grabowska
- Dyrektor Centrum Doskonałości Sztucznej Inteligencji Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie dr hab. inż. Joanna Jaworek-Korjakowska
- Prezes Związku Cyfrowa Polska Michał Kanownik
- Przedstawicielka Stowarzyszenia Absolwentów Elektroniki na Politechnice Warszawskiej @ELKAPW Joanna Karczewska
- Przewodniczący poseł Grzegorz Napieralski /KO/
- Członek prezydium zarządu Polskiego Towarzystwa Informatycznego Marcin Paprzycki
- Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski
- Dyrektorka Forum Cyfrowego Związku Przedsiębiorców i Pracodawców Daniela Werbeniec
- Prawnik w Fundacji Panoptykon Mateusz Wrotny
– informację na temat statusu konsultacji projektu ustawy o systemach sztucznej inteligencji.
W posiedzeniu udział wzięli: Dariusz Standerski sekretarz stanu w Ministerstwie Cyfryzacji wraz ze współpracownikami, Robert Janik ekspert w Departamencie Bezpieczeństwa Urzędu Komunikacji Elektronicznej, prof. ucz. dr hab. Marta Grabowska wykładowca w Centrum Europejskim Uniwersytetu Warszawskiego, dr hab. inż. Joanna Jaworek-Korjakowska dyrektor Centrum Doskonałości Sztucznej Inteligencji Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie, Marcin Paprzycki członek prezydium zarządu Polskiego Towarzystwa Informatycznego, dr Marek Porzeżyński prodziekan ds. studenckich na Wydziale Administracji i Nauk Społecznych Politechniki Warszawskiej, Agnieszka Kasprzak i Eliza Turkiewicz ekspertki Konfederacji Lewiatan, Daniela Werbeniec dyrektorka Forum Cyfrowego Związku Przedsiębiorców i Pracodawców, Michał Kanownik prezes Związku Cyfrowa Polska, Magdalena Bublewicz kierownik ds. regulacyjnych i public affairs w Związku Pracodawców Branży Internetowej IAB Polska wraz ze współpracownikami, Michał Smagowicz wiceprezes THINKTANK, Mateusz Wrotny prawnik w Fundacji Panoptykon oraz Joanna Karczewska przedstawicielka Stowarzyszenia Absolwentów Elektroniki na Politechnice Warszawskiej @ELKAPW.
W posiedzeniu udział wzięli pracownicy Kancelarii Sejmu: Jakub Konecki i Bogdan Wojtów – z sekretariatu Komisji w Biurze Komisji Sejmowych.
Przewodniczący poseł Grzegorz Napieralski (KO):
Dzień dobry. Witam bardzo serdecznie. Przepraszam za małe opóźnienie. Otwieram posiedzenie podkomisji stałej do spraw sztucznej inteligencji i przejrzystości algorytmów. Stwierdzam kworum.Witam bardzo serdecznie posłów członków podkomisji, posłanki oczywiście też. Mam nadzieję, iż niedługo pani poseł dołączy do naszej podkomisji. Będzie nam wtedy troszeczkę raźniej. Witamy bardzo serdecznie.
Przede wszystkim na samym początku chciałbym powitać pana ministra Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji, wraz ze współpracownikami. Witam serdecznie, panie ministrze. Bardzo serdecznie dziękuję, iż przyszliście z panem ministrem – patrzę na wszystkich urzędników, dyrektorów. Panie ministrze, dziękujemy za współpracę i za wsparcie, o ile chodzi o pracę na naszej podkomisji. Witam serdecznie przedstawicieli Urzędu Komunikacji Elektronicznej. Pana prezesa dzisiaj z nami nie ma, ale jest pan Robert Janik, ekspert Departamentu Bezpieczeństwa – witam bardzo serdecznie. Witam również Polskie Towarzystwo Informatyczne, Polską Izbę Teleinformatyki i Telekomunikacji, Związek Pracodawców Branży Internetowej IAB Polska, Związek Cyfrowa Polska, Konfederację Lewiatan, Business… Dużo nas tutaj. Witam wszystkich bardzo serdecznie, bardzo, bardzo serdecznie. Dziękuję, iż przychodzicie. Wybaczcie, będziecie się przedstawiać, więc wszystko będzie w protokole, a zaoszczędzimy trochę czasu, bo przede mną jeszcze cała strona. Witam jeszcze raz bardzo serdecznie.
Porządek dzisiejszego posiedzenia przewiduje wysłuchanie informacji na temat stanu konsultacji projektu ustawy o systemach sztucznej inteligencji. Czy są uwagi do porządku obrad? Nie widzę. Bardzo dziękuję.
Przystępujemy do jego realizacji. Bardzo proszę pana ministra Dariusza Standerskiego, sekretarza stanu w Ministerstwie Cyfryzacji, o przedstawienie tej informacji. Bardzo proszę.
Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski:
Bardzo serdecznie dziękuję, panie przewodniczący.Szanowni państwo, to bardzo dobre zwieńczenie dnia z Komisją Cyfryzacji Innowacyjności i Nowoczesnych Technologii i podkomisją do spraw sztucznej inteligencji. Bardzo dobre zwieńczenie dnia, ponieważ ta dyskusja, ta informacja o stanie konsultacji projektu ustawy o systemach sztucznej inteligencji tak naprawdę jest informacją na temat nowego tekstu projektu ustawy o systemach sztucznej inteligencji, który został opublikowany na stronach BIP Ministerstwa Cyfryzacji – przed godziną dokładnie – w związku z czym jest to oficjalnie dostępne. Zachęcam do zapoznania się, ponieważ w projekcie zaszły dość poważne, acz nie aż tak gruntowne zmiany. W związku z tym możemy oficjalnie uznać pierwszą turę konsultacji społecznych, opiniowania i uzgodnień za zakończoną. W tej chwili jesteśmy przed drugą turą konsultacji, opiniowania i uzgodnień ze względu na nowe elementy w projekcie ustawy i brak niektórych elementów, które były przed pierwszą turą. Oficjalnie pewnie do piątku albo w poniedziałek uruchomimy drugą turę konsultacji – chcielibyśmy, żeby potrwała czternaście dni, żeby jeszcze w lutym pójść na kolejne etapy prac legislacyjnych.
Krótko omawiając zmiany, które zaszły w tym projekcie, a jednocześnie zapowiadając, jakie są nasze – nie oczekiwania, ale nasze nadzieje związane z drugą turą konsultacji, chciałbym państwu przedstawić, iż po pierwsze w rozdziale drugim – Organizacja nadzoru nad sztuczną inteligencją pozostaje oczywiście Komisja Rozwoju i Bezpieczeństwa Sztucznej i Inteligencji. Natomiast dookreślono podmioty, z którymi komisja współpracuje, jak również dookreślono skład komisji.
Ze względu na liczne uwagi chcemy zaproponować, aby skład tej komisji nie był powtórzeniem komitetów rządowych z trzydziestoma ministerstwami i urzędami centralnymi, ale żeby to był skład, który będzie odpowiadał raczej otoczeniu regulacyjnemu i rzecznikowskiemu niż typowo ministerialnemu. Dlatego proponujemy, żeby w skład komisji wszedł przewodniczący komisji, dwóch zastępców oraz siedmiu członków komisji, w tym prezes Urzędu Ochrony Konkurencji i Konsumentów, Komisji Nadzoru Finansowego, rzecznik praw dziecka, przedstawiciel Krajowej Rady Radiofonii i Telewizji, przedstawiciel prezesa Urzędu Komunikacji Elektronicznej, przedstawiciel Państwowej Inspekcji Pracy oraz przedstawiciel prezesa Urzędu Rejestracji Produktów Leczniczych, Wyrobów Medycznych i Produktów Biobójczych. Proponujemy również, żeby dokładnie opisać zadania przewodniczącego oraz samej komisji. Dostawaliśmy wiele bardzo słusznych uwag, iż te zadania nie są określone i trudno określić od razu rolę przewodniczącego oraz komisji, przez co też jest pytanie o to, w jaki sposób odpowiadamy na warunki przepisów unijnych, czyli kto jest tym organem – czy to przewodniczący, czy komisja. Dlatego proponujemy, żeby przewodniczący komisji oprócz kierowania pracami komisji oraz przedstawiania sprawozdania określał również wymogi z art. 70, przekazywał sprawozdania Komisji Europejskiej oraz wydawał zalecenia pokontrolne w trybie przepisów tej ustawy, czyli praca bardziej bieżąca i raczej dotycząca dobrych praktyk oraz tego, jak mają być wykonywane zalecenia pokontrolne komisji. Następnie komisja ma cały pakiet zadań dotyczących głównej działalności, co oznacza, iż organem w tym zakresie pozostaje jak najbardziej komisja.
W zakresie zadania komisji, które wywołało bardzo dużo uwag, mianowicie kwestii w pierwszej wersji projektu interpretacji indywidualnych, również zaszły pewne zmiany, o których za chwilę będę mówił szerzej, ale po pierwsze nie rezygnujemy z tej funkcji komisji, natomiast rezygnujemy z nazwy i trybu, ponieważ pojawił się bardzo silny sojusz ministra ds. europejskich oraz ministra finansów – a takie sojusze trudno lekceważyć – którzy podnieśli… Minister finansów podniósł: ale interpretację wydaje tylko urząd skarbowy, a minister do spraw europejskich mówił: ale interpretację aktu o sztucznej inteligencji może wydawać tylko AI Office w Brukseli, więc nie możecie wydawać interpretacji. Zgodziliśmy się z tym, iż nie możemy wydawać interpretacji indywidualnych, dlatego w art. 11 proponujemy, żeby komisja mogła wydawać opinie indywidualne oraz wyjaśnienia mające istotne znaczenie dla stosowania przepisów w sprawach objętych zakresem działania komisji.
Dookreśliliśmy również kwestie opinii indywidualnej. Jest cała sprawna – mam nadzieję – procedura, to też będzie do państwa oceny. Natomiast co też jest ważne, chcemy, żeby komisja była także łącznikiem pomiędzy tym, co się dzieje w Komisji Europejskiej, oraz tym, co się dzieje na naszym rynku. To znaczy, iż komisja będzie wydawała swoje wyjaśnienia, czyli ogólne wskazania w kierunku rozwoju bezpiecznej sztucznej inteligencji, na podstawie tego, co wydaje Komisja Europejska czy AI Office. To znaczy, iż gdyby dzisiaj istniała Komisja Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, już dzisiaj zgłaszalibyśmy się do tej komisji, żeby wydała wyjaśnienia dotyczące wytycznych Komisji Europejskiej w zakresie zakazanych systemów AI. Firmy też mogłyby zgłaszać się do komisji, czy ich rozwiązanie może zostać uznane za zakazane na podstawie wytycznych Komisji Europejskiej. Działałoby to właśnie tak, mielibyśmy to rozwiązanie już w praktyce, co powoduje, iż to jest rozwiązanie ważne i potrzebne.
W pierwszej wersji projektu proponowaliśmy, żeby przewodniczącego komisji powoływał i odwoływał prezes Rady Ministrów. Natomiast dostaliśmy słuszną, uważamy, uwagę ze strony Kancelarii Prezesa Rady Ministrów, iż może tym organem nadzorującym powinien być minister adekwatny do spraw informatyzacji. Zgadzając się z tym, jednocześnie podnieśliśmy, iż mając pełny szacunek i wielkie nadzieje związane z ministrem adekwatnym do spraw informatyzacji, uważamy, iż należy podkreślić rolę komisji. Dlatego w art. 16 proponujemy, żeby przewodniczącego komisji powoływał i odwoływał Sejm Rzeczypospolitej Polskiej za zgodą Senatu Rzeczypospolitej Polskiej na pięcioletnią kadencję, co wzmocni niezależność tego organu, wymaganą także przez Komisję Europejską. Dodatkowo dookreśliliśmy kwestie wymagań, które należy stawiać przed przewodniczącym komisji, i wskazaliśmy, iż taki kandydat, kandydatka musi wyróżniać się wiedzą i posiadać znaczący dorobek w zakresie sztucznej inteligencji oraz doświadczenie zawodowe uzyskane w zakresie działalności naukowej lub pracy, wykonując działalność w obszarach cyfryzacji.
Dodatkowo dookreślamy przepisy dotyczące biura komisji. Przechodząc już do tego, co wszystkich najbardziej interesuje, w rozdziale trzecim – Kontrola przestrzegania przepisów o sztucznej inteligencji wskazujemy, iż kontrola podmiotu na podstawie tych przepisów jest przeprowadzana na podstawie rozdziału piątego ustawy – Prawo przedsiębiorców, o ile to dotyczy przedsiębiorcy, oraz ustawy o kontroli w administracji rządowej, o ile podmiot nie jest przedsiębiorcą. Komisja wszczyna kontrolę z urzędu na wniosek przewodniczącego komisji, na wniosek organu lub podmiotu, o którym mowa w art. 77 rozporządzenia, czyli na wniosek organu praw podstawowych – którego lista jest już dostępna, czekamy na kolejne zgłoszenia w tym zakresie – lub na wniosek rady społecznej, czyli kontrola może być wszczęta na wniosek tego czynnika społecznego. Kontrolujący przeprowadza kontrolę po doręczeniu upoważnienia do przeprowadzenia kontroli oraz okazaniu legitymacji służbowej.
Natomiast kolejna ważna zmiana w tym zakresie – przyjmujemy wszystkie bardzo ważne uwagi wzywające do ograniczenia zakresu kontroli, do ograniczenia możliwości osób kontrolujących i wprowadzamy znaczne ograniczenia w tym zakresie. Po pierwsze, kontrola Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji domyślnie będzie odbywać się zdalnie, a o ile będzie odbywać się zdalnie, to kończymy ze wszystkimi słusznie krytykowanymi praktykami w zakresie zapewnienia pomieszczenia, pieczętowania, wynoszenia dokumentów. To wszystko w nowej wersji projektu zostaje skreślone. To, co zostaje w uprawnieniach, to udostępnienie związanych z przeprowadzeniem kontroli akt, ksiąg, pism, dokumentów, odpisów, wyciągów, korespondencji, co oznacza, iż tak naprawdę myślę, iż prawie w 100%, o ile nie w 100%, będzie to polegało po prostu na udostępnieniu dokumentów na jakimś nośniku czy w wersji elektronicznej.
Tak samo kontrolujący będzie mógł sporządzać notatki z tego, co otrzyma, będzie miał dostęp do danych niezbędnych do przeprowadzenia kontroli oraz będzie mógł zabezpieczać dokumenty, inne materiały i dane, czyli nie zamykać papierów w sejfie, tylko przechowywać dane na zabezpieczonym nośniku. Tak samo będzie mógł żądać złożenia ustnych lub pisemnych wyjaśnień w sprawach związanych z przedmiotem kontroli – to jest minimum, które należy wprowadzić – oraz sporządzać niezbędne dla kontroli kopie lub wyciągi z dokumentów i materiałów. I to musieliśmy zostawić z tego względu, iż niestety polskie przepisy jeszcze nie są w pełni dostosowane do warunków elektronicznych, w związku z czym jak ktoś komuś wysyła coś mejlem albo e-Doręczeniami, to też traktujemy to jak kopię.
I to pozostało przetwarzanie danych osobowych oraz w uzasadnionych przypadkach utrwalanie przebiegu kontroli, czyli nagrywanie procesu wejścia, o ile będzie jakiś problem, na przykład kwestia niebezpieczeństwa fizycznego, co czasem może się niestety zdarzyć. I to tyle, o ile chodzi o uprawnienia osób kontrolujących w ramach przepisów ustawy o systemach sztucznej inteligencji.
Dodatkowo rozwinęliśmy przepisy dotyczące pozostawienia dokumentów w miejscu czy też niekopiowania dokumentów elektronicznie, o ile zawierają komunikację między kontrolowanym a adwokatem, o ile zostały sporządzone tylko w realizacji prawa do ochrony prawnej. W tym zakresie to zostało rozszerzone.
Dalej pozostawiamy i dookreślamy przepisy dotyczące protokołów. Następnie, w rozdziale czwartym, zaproponowaliśmy nowe, uelastycznione postępowanie przed organem i tutaj też mamy nadzieję, iż w drugiej turze konsultacji zostaną wychwycone ostatnie zaszłości jeszcze ze starych postępowań.
W rozdziale piątym proponujemy nowe rozwiązanie, nieobecne w pierwszej wersji projektu, czyli układ w sprawie warunków nadzwyczajnego złagodzenia sankcji, instytucję znaną z innych przepisów. Natomiast uważamy, iż warto zaproponować przepis, który mówi, iż w toku postępowania komisja może wydać postanowienie o możliwości zawarcia układu, o ile uzna, iż przyczyni się to do przyspieszenia postępowania lub pełniejszej realizacji celów ustawy. W ramach układu komisja może obniżyć wysokość kary pieniężnej, o której mowa w przepisach, może złagodzić dolegliwość innej sankcji, którą planowała nałożyć. Chcemy, żeby właśnie możliwość zawierania takiego układu zmniejszała ewentualną dolegliwość naruszenia tych przepisów. I to jest cały pakiet przepisów w tym zakresie.
Dodatkowo w rozdziale szóstym podtrzymujemy przepisy dotyczące zgłaszania poważnych incydentów. W rozdziale siódmym utrzymujemy przepisy dotyczące procedury notyfikacyjnej. Natomiast dodajemy nowy rozdział, ósmy, o nazwie – Środki wspierające innowacyjność. I w ramach rozdziału ósmego chcemy zaproponować – chyba jako pierwsi w Unii Europejskiej – uregulowanie już teraz, na półtora roku przed obowiązkiem unijnym, piaskownic regulacyjnych sztucznej inteligencji. I dlatego proponujemy, żeby przewodniczący komisji mógł ustanowić piaskownicę regulacyjną i udzielić zgody na odstępstwo od stosowania przepisów w zakresie niezbędnym do przeprowadzenia projektu. Oczywiście kwestią otwartą do dalszej konsultacji jest zakres przedmiotowy piaskownicy regulacyjnej. Wstępnie proponujemy, żeby w tym zakresie piaskownicy regulacyjnej znajdowało się prowadzenie systemu zarządzania jakością, prowadzenie i przechowywanie dokumentacji lub deklaracji zgodności, przechowywanie automatycznie generowanych rejestrów zdarzeń oraz inne obowiązki określone przez komisję zgodnie z aktami wykonawczymi Komisji Europejskiej. Czyli zostawiamy katalog otwarty na podstawie wytycznych i aktów wykonawczych Komisji Europejskiej.
Tutaj zaczyna się pole, które dotychczas choćby w Polsce było słabo uregulowane w innych obszarach. Zwracamy się do państwa o pomoc i wsparcie w tym zakresie z tego względu, iż naszym celem jest zaprojektowanie przepisów o piaskownicy regulacyjnej w taki sposób, żeby z piaskownicy regulacyjnej rzeczywiście mogły korzystać firmy, organizacje pozarządowe, startupy, inne inicjatywy, które rzeczywiście wprowadzają na rynek coś nowego, które rzeczywiście chcą to rozwiązanie przetestować. A o ile chcemy wprowadzić celowaną pomoc w tym zakresie, celowane wsparcie, to wstępnie proponujemy, żeby uczestnictwo podmiotów piaskownicy regulacyjnej trwało nie dłużej niż jeden rok i było jednorazowo przedłużone przez przewodniczącego komisji na okres nie dłuższy niż sześć miesięcy. Proponujemy, żeby uczestnictwo mikro-, małych i średnich przedsiębiorstw w piaskownicy regulacyjnej było nieodpłatne, ale proponujemy, żeby pozostałe przedsiębiorstwa, czyli te duże, płaciły za uczestnictwo w piaskownicy regulacyjnej.
Dodatkowo chcemy zaproponować – ale nie upieramy się przy tym, tylko chcemy znaleźć optymalne rozwiązanie wobec braku dzisiejszych przepisów – żeby ograniczyć limit łącznej liczby użytkowników, na które mogą oddziaływać projekty piaskownicy regulacyjnej. Chcemy wprowadzić w pewien sposób ograniczenie, żeby w piaskownicy regulacyjnej nie było projektów czy też produktów, z których na przykład korzysta w Polsce 15 mln użytkowników. Uważamy, iż to już nie jest piaskownica, więc nie uważamy, iż na przykład najbardziej popularny portal społecznościowy w Polsce powinien korzystać z dobrodziejstw piaskownicy regulacyjnej – z tego względu, iż to jest już za duża odpowiedzialność, o ile co drugi użytkownik internetu w Polsce będzie korzystał z tych rozwiązań od razu.
Dlatego chcemy przetestować rozwiązanie w zakresie limitu ustalanego za każdym razem w związku z charakterem danego projektu i wstępnie szacujemy, żeby ten limit nie był niższy niż 5% i wyższy niż 30% liczby osób zamieszkujących na terytorium Polski. To jest na razie wysokopoziomowe ograniczenie i też chcemy przedyskutować to podczas drugiej tury konsultacji. I teraz powstaje pytanie, co, o ile podmiot w pewnym momencie przekroczy limit z piaskownicy regulacyjnej. Bo może się okazać, iż jest start-up, który wprowadza rozwiązanie do piaskownicy regulacyjnej, pierwszego dnia korzysta z tego rozwiązania 500 osób i wszystko gra, ale to jest na tyle popularne, iż po trzech miesiącach osiąga 10 mln. Wówczas nie chcemy wprowadzać żadnej sankcji, nie chcemy wprowadzić żadnych kar, nie należy karać za sukces. Po prostu w momencie przekroczenia takiego limitu zaczęłoby się odliczanie do końca piaskownicy regulacyjnej. To znaczy, iż byłby wtedy wyznaczony w ustawie czas trzy miesiące, sześć miesięcy, w których po przekroczeniu takiego limitu liczby użytkowników od tego momentu po trzech czy sześciu miesiącach kończy się uczestnictwo tej firmy w piaskownicy regulacyjnej – to znaczy, iż ma te sześć miesięcy, żeby nadrobić inne obowiązki, które wynikają z ustawy.
Mając na względzie to, iż trudno dzisiaj oszacować zainteresowanie piaskownicą regulacyjną – może być duże – proponujemy instytucję konkursu na uczestnictwo w piaskownicy regulacyjnej, Za każdym razem ogłaszałby to przewodniczący komisji, ponieważ trudno w tej chwili ocenić, jaki budżet dla obsługi piaskownicy regulacyjnej oraz możliwości administracyjne komisji mogłyby to udźwignąć. W związku z tym jest transparentna procedura konkursowa, z udziałem niezależnego zespołu.
Następnie planujemy – to jest z poprzednich przepisów, z pierwszej wersji – żeby minister adekwatny do spraw informatyzacji, wykonując zadania, o których mowa w akcie o usługach, nie, w akcie o sztucznej inteligencji (o usługach cyfrowych to myślę, iż będziemy rozmawiać jeszcze wiele tygodni), mógł wykonywać te zadania poprzez wydawanie rekomendacji najlepszych praktyk stosowania systemu sztucznej inteligencji. To, co już ministerstwo wydaje – żeby miało to podstawę ustawową i żeby też przejść od obowiązków i kar do dobrych praktyk, do zachęcenia do samoregulacji, tak żeby był też ten materiał bardzo pozytywny.
To, o czym mówimy już teraz z sukcesami na poziomie prezydencji Polski w Unii Europejskiej, to obowiązek informowania przez ministra cyfryzacji w zakresie wymaganych zasobów obliczeniowych do dalszego rozwoju systemu sztucznej inteligencji i programowanego zużycia energii z tego tytułu. Kontynuujemy ten kierunek, o którym mówiliśmy w pierwszej wersji tego projektu, i już to realizujemy, ponieważ podczas posiedzeń grup roboczych w ramach Rady Unii Europejskiej po raz pierwszy mówiliśmy o energii elektrycznej w zakresie mocy obliczeniowych i sztucznej inteligencji. Dotychczas ten temat nie pojawiał się w tych dyskusjach, a państwa członkowskie zaczęły mieć świadomość, iż chyba trzeba poprawić strategie energetyczne swoich państw, dlatego iż moce obliczeniowe trochę ważą, o ile chodzi o wykorzystanie energii elektrycznej, i trzeba to dobrze zaplanować. Bez tego moim zdaniem jechalibyśmy prosto na ścianę.
Dodatkowo proponujemy – i to też zapisujemy – żeby minister cyfryzacji mógł udzielać pomocy finansowej w zakresie badań naukowych lub prac rozwojowych oraz finansować programy i projekty w tym zakresie ze środków pochodzących z budżetu państwa oraz budżetu Unii Europejskiej.
Dodatkowo chcemy, żeby minister cyfryzacji mógł inicjować i wspierać programy obejmujące finansowanie badań naukowych lub prac rozwojowych. To jest nauka z pierwszej fabryki sztucznej inteligencji w Polsce, ponieważ podejmując decyzję o wsparciu finansowym AGH pod koniec zeszłego roku, musieliśmy dokonać skomplikowanej inżynierii finansowej poprzez przepisanie środków w budżecie państwa z części 27 – Informatyzacja do części 28 – Nauka przez zmianę ustawy budżetowej. Myślę, iż jest to – nie chcę powiedzieć: bezsensowne, ale z pewnością nieoptymalne. Dlatego tutaj ta solidna podstawa prawna, żeby po prostu od podjęcia decyzji o wsparciu do realnego wsparcia było dużo mniej czasu niż od złożenia ustawy budżetowej do podpisu prezydenta.
W rozdziale dziewiątym utrzymujemy przepisy dotyczące administracyjnych kar pieniężnych, ponieważ nie ustalamy ich wysokości, one są ustalane bezpośrednio w rozporządzeniu unijnym, natomiast dzięki nieocenionemu wsparciu Ministerstwa Finansów dookreślamy kwestie egzekucyjne i kwestie proceduralne.
Dodatkowo w rozdziale dziesiątym proponujemy zmiany w przepisach obowiązujących, w tym proponujemy zmianę Kodeksu postępowania cywilnego, żeby ustalić Sąd Ochrony Konkurencji i Konsumentów jako adekwatny w zakresie odwołań od decyzji Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji.
Dodatkowo proponujemy – to są już zmiany wynikające z całego projektu ustawy – zmiany wynikowe w innych ustawach, także określamy finansowanie. W pierwszym roku 8 mln zł, czyli w 2025, który już biegnie, więc to nie jest kwota, która jest maksymalna. Następnie to ok. 31 mln zł .
Podsumowując, od pierwszej prezentacji projektu ustawy o systemach sztucznej inteligencji wiele się wydarzyło. To jest zjawisko, do którego trzeba się przyzwyczaić, iż proces legislacyjny, który zwykle nie nadążał za rzeczywistością, teraz jest kilkusetkrotnie wolniejszy niż ta rzeczywistość. I od pierwszej wersji projektu ustawy o systemach sztucznej inteligencji Stany Zjednoczone zdążyły przyjąć i uchylić przepisy dotyczące sztucznej inteligencji. Zdążyliśmy rozpocząć i dzisiaj mamy ostatni dzień zgłaszania uwag do utworzenia Instytutu Badawczego IDEAS, który będzie ważnym elementem ekosystemu obok tej komisji, którą proponujemy wprowadzić dzięki ustawy. Dostaliśmy ponad 2 tys. uwag w ramach pierwszej tury konsultacji, za które bardzo dziękuję, bo jak państwo widzicie, w znaczny sposób wpłynęły na brzmienie projektu.
Tak jak mówiłem, w piątek lub w poniedziałek zaczynamy drugą turę konsultacji, którą planujemy zakończyć po czternastu dniach. W ramach tej tury w szczególności zachęcamy państwa do przeanalizowania przepisów dotyczących piaskownicy regulacyjnej, która jest absolutną nowością w tym zakresie. I planujemy, żeby do tego momentu 2 sierpnia, czyli obowiązku unijnego, w miarę wyrobić się z legislację. Bardzo serdecznie dziękuję, panie przewodniczący.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję, panie ministrze. Dziękuję w dwóch aspektach. Po pierwsze, dziękuję, iż dzisiaj na podkomisji możemy o tym dyskutować jako pierwsi i mamy zaszczyt o tym rozmawiać. Dziękuję bardzo, iż stajemy się jako kraj liderem w Europie. o ile chodzi o przygotowanie tych przepisów, to w kontekście tego, o czym rozmawialiśmy dzisiaj na stałej Komisji – to bardzo ważne, żebyśmy pokazali, iż jesteśmy liderami.I jedna kwestia, odnosząc się już do samego projektu, panie ministrze. Bo czytam sobie ten art. 6, w skład komisji wchodzą: przewodniczący, dwóch zastępców i są wylistowani przedstawiciele tej komisji. Ja jeszcze zgłosiłbym dwie grupy osób. Po pierwsze zastanowiłbym się nad Agencją Badań Medycznych. I powiem dlaczego. Dlatego iż oni już dziś w ustawie mają wpisane zadania dotyczące tak naprawdę przetwarzania czy przeglądania danych dotyczących spraw medycznych. A wiemy dokładnie – a przynajmniej widzimy dokładnie choćby w dyskusji to, co się dzieje – iż tak naprawdę jedną z podstawowych kwestii, które będą ważne, o ile chodzi o budowanie modeli sztucznej inteligencji, to będzie system ochrony zdrowia. On jest na tyle istotny i na tyle też wrażliwy, iż myślę, iż byłoby to zasadne, o ile mielibyśmy w tym miejscu kogoś z takiego obszaru.
I druga uwaga czy druga prośba, czy propozycja. Zacznę może od tego, iż za udział w pracach komisji nie przysługuje wynagrodzenie. Od tego zacznę i teraz będzie moje zgłoszenie, żeby sobie nikt nie myślał. Mój pomysł jest taki, czy nie warto byłoby, żeby był przedstawiciel Sejmu i Senatu. Panie ministrze, pan powiedział na samym początku, iż to ciało, ta komisja ma też mieć trochę charakter regulacyjny czy okołoregulacyjny, o ile dobrze zapamiętałem słowa. Mamy podkomisje, mamy komisje w Sejmie i w Senacie. Zajmujemy się tym na co dzień. Więc myślę, iż przedstawiciel… Przy Państwowej Inspekcji Pracy jest chyba rada pracy – tam też są parlamentarzyści, do KRS też odsyłamy parlamentarzystów. Znaczy my wysyłamy parlamentarzystów w różne miejsca do takich ciał i myślę, iż znaleźlibyśmy posła, posłankę, senatora, senatorkę, którzy spełnialiby te wymogi, o ile chodzi o kwalifikacje. A na pewno też podniosłoby to tę rangę i być może pomogłoby, bo o ile byłaby szybka potrzeba na przykład jakiejś interwencji przy zmianie ustawy, bo coś się nagle… Tak jak pan powiedział, panie ministrze, życie będzie tak dynamiczne, a szczególnie o ile chodzi o sztuczną inteligencję, algorytmy, iż my tu czasami będziemy się spotykać raz na trzy miesiące, żeby coś poprawić. I to nie jest przytyk, bo życie nam pokaże, iż po prostu trzeba coś zbudować inaczej. Zresztą sam pan mówił, ile zmian zaszło od pierwszej ustawy do dziś, więc przyjmujemy to jako pewnik, iż będziemy nad tym pracować i to zmieniać. Pojawienie się tam dwóch parlamentarzystów, parlamentarzystek moim zdaniem po prostu poprawiłoby tę komunikację. Dziękuję bardzo.
Proszę bardzo, czy są jeszcze głosy, pytania, sugestie? Bardzo proszę. Pan minister wszystko powiedział i jest cisza. Pani Joanna, tak? Bardzo proszę, zacznę od pani, a później tam na samym końcu. Bardzo proszę.
Przedstawicielka Stowarzyszenia Absolwentów Elektroniki na Politechnice Warszawskiej @ELKAPW Joanna Karczewska:
Nazywam się Joanna Karczewska. Jestem absolwentką Wydziału Elektroniki Politechniki Warszawskiej. Na co dzień zajmuję się cyberbezpieczeństwem, bezpieczeństwem informacji i ochroną danych osobowych.Sprawdzałam na stronie Ministerstwa Cyfryzacji – jeszcze nie ma projektu. Nie wiem, gdzie został opublikowany.
Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski:
W biuletynie informacji publicznej, zgodnie z ustawą.Przedstawicielka Stowarzyszenia Absolwentów Elektroniki na Politechnice Warszawskiej @ELKAPW Joanna Karczewska:
A to też sprawdzałam, też nie znalazłam, więc gdzieś jest jakieś takie tam…Przewodniczący poseł Grzegorz Napieralski (KO):
Jest jest, bo przed chwilą mi wydrukowali.Przedstawicielka Stowarzyszenia Absolwentów Elektroniki na Politechnice Warszawskiej @ELKAPW Joanna Karczewska:
Nie, nie, OK, no właśnie, ale to mówię, to już jest do dogrania.Natomiast ja chciałam zwrócić uwagę na kwestię, która była wielokrotnie wymieniona na ostatniej konferencji dotyczącej danych osobowych. Jest Europejski Dzień Ochrony Danych Osobowych, to było parę dni temu. I tam wszyscy podkreślali jedno, to była konferencja unijna, zaznaczam, i tam wszyscy podkreślali jedną kwestię, iż przepisy o ochronie danych osobowych, czyli słynne RODO, już nie będą poprawiane, nie będą na razie zmieniane. Jest problem z ich egzekwowaniem. Obawiam się, iż tutaj będzie to samo. Czyli zrobimy jedną radę, jedną komisję, urząd itd., natomiast później, jak przyjdzie do egzekwowania, to okaże się, iż system będzie równie niewydolny jak w przypadku ochrony danych osobowych.
Ja sama w tej chwili ćwiczę sprawę, którą już też przedstawiałam na Komisji i na podkomisji. Sprawa jest właśnie z zakresu sztucznej inteligencji, automatyzacji przepływu danych. Ponad rok temu złożyłam skargę. Cztery miesiące temu dostałam informację z urzędu, iż oni są już gotowi podjąć decyzję. To było cztery miesiące temu. Jak dzwonię, to nigdy nie odbiera osoba, która prowadzi sprawę, to taka ciekawostka. Natomiast mówią mi, iż mam czekać cierpliwie, iż to zajmie jeszcze miesiąc, dwa. Więc o ile będą osoby poszkodowane przez sztuczną inteligencję, tak jak ja, a sprawa jest wręcz po obu stronach oceanu, więc jeszcze wchodzi w grę państwo, które dzisiaj rano było wielokrotnie wymienione, to adekwatnie znowu będziemy w sytuacji cierpliwego bądź też niecierpliwego czekania.
Zanim powstanie urząd – bo jest przewidziane powstanie urzędu – zanim powstanie komisja rozwoju bezpieczeństwa i co tam jeszcze, to minie co najmniej rok, o ile osiągną wreszcie zdolność operacyjną. A później my, szeregowi obywatele Rzeczypospolitej, staniemy wobec tego samego problemu, jaki mamy z ochroną danych osobowych, paroma innymi sprawami. Chyba sprawniejsza jest ochrona konsumentów, bo tutaj bardzo interesujące spotkania były na Komisji. Widziałam, iż pracuje przy tym mnóstwo bardzo zaangażowanych osób, szczególnie w stosunku do gigantów chińskich. Ale mnie to cały czas martwi, co się stanie z osobami poszkodowanymi i czy ktoś się pochyli, czy znowu będą odsyłani, tak jak ja jestem odsyłana, od jednego urzędu do drugiego, do trzeciego. W końcu złożyłam skargę do Urzędu Ochrony Danych Osobowych. Na tym się nie skończy. Czekam, jaka będzie decyzja, ale będę podejmować dalsze kroki. To może potrwać jeszcze ze dwa lata. Ja akurat jestem nie tyle cierpliwa, co wytrwała.
Niemniej tu będą naprawdę bardzo poważne sprawy. Wręcz w samym rozporządzeniu jest kwestia krzywdy, do śmierci włącznie. Czy tak samo będzie z terminami chociażby rozpatrywania skarg? Czy w nowej ustawie, w projekcie ustawy jest przynajmniej podany jakiś termin rozpatrzenia skargi, czy też trzeba będzie czekać właśnie jeden rok, dwa lata, trzy lata. Bardzo uważnie śledzę kary nakładane przez Urząd Ochrony Danych Osobowych, czytam uzasadnienia. To nie jest łatwa lektura. I widzę też, jakie terminy są przy naruszeniach. Tutaj też mogą być naruszenia. choćby będą na pewno. I to wszystko trwa, trwa, trwa. A w międzyczasie gdzieś właśnie coś się komuś stanie. Oby to nie była śmierć. Ale mogą być bardzo drastyczne sytuacje. I wtedy co? Państwo znowu powiedzą: no nie, to nie my, to kolega, to tam osoba jeszcze inna, a my nie znamy sprawy, musimy się z nią zapoznać itd., itd.
Obecnie rozważam założenie inicjatywy poszkodowani przez sztuczną inteligencją. To będzie inicjatywa społeczna, ruch oddolny, społeczeństwo informacyjne. Właśnie po to, żeby przynajmniej wspierać się nawzajem. Może nie pójdę do Facebooka czy Twittera, bo wiadomo, iż tam jest w tej chwili… Jedni mówią, iż nie ma cenzury, drudzy mówią, iż jest cenzura. Ale to naprawdę będą krzywdy ludzkie. Czy jest pan w stanie chociażby powiedzieć, czy zostanie określony termin rozpatrywania skarg? Dziękuję.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.Przenosimy się na koniec. Bardzo proszę, oddaję panu głos. Bardzo proszę o przedstawienie się.
Członek prezydium zarządu Polskiego Towarzystwa Informatycznego Marcin Paprzycki:
Dzień dobry państwu. Marcin Paprzycki, Instytut Badań Systemowych Polskiej Akademii Nauk. Reprezentuję również Polskie Towarzystwo Informatyczne.Pan minister wspomniał o tworzeniu instytutu IDEAS. Akurat wczoraj miałem przyjemność prowadzić przyjacielską rozmowę z jednym z przedstawicieli władz Politechniki Warszawskiej, która była przed chwilą wspomniana. I zdaję sobie sprawę, jak bardzo Politechnika Warszawska ustami swojej władzy naczelnej – jednego z przedstawicieli – jest przeciwna tworzeniu tego instytutu, traktując to jako wyjątkowo zły ruch, jeżeli chodzi o perspektywę rozwoju sztucznej inteligencji, bo to jest dzielenie środowiska i tworzenie bytu, który w zasadzie nie wiadomo, po co powstaje. Ale to jest dla mnie tylko, iż tak powiem, wstęp do tego, o czym chcę opowiedzieć.
Usłyszeliśmy przed chwilą, iż będą fundusze na naukę, które będą w gestii Ministerstwa Cyfryzacji. I proszę państwa, to jest bardzo problematyczne, dlatego iż okazuje się, iż mamy wprawdzie ministerstwo nauki, które nazywa się Ministerstwem Nauki i Szkolnictwa Wyższego, ale pieniądze na naukę zaczynają wyciekać i pojawiać się w różnych innych miejscach. I nagle niespodziewanie ministerstwo nauki traci kontrolę i teraz dla nas, naukowców, zaczyna się zabawa. Kogo my mamy? Czy o ile jestem naukowcem z uczelni X i znam ministra rolnictwa, to być może będę mógł tworzyć sztuczną inteligencję dla rolnictwa, mając pieniądze z ministerstwa rolnictwa, badania naukowe. o ile zajmuję się ochroną pracy, to będę brał pieniądze na naukę przez Centralny Instytut Ochrony Pracy – Państwowy Instytut Badawczy, bo mam przyjaciela ministra pracy.
Proszę państwa, robienie czegoś takiego, iż pieniądze na jeden cel, który ma swojego ministra, pojawiają się w różnych agendach państwowych, nie jest dobrym pomysłem, ponieważ tracimy kontrolę nad tym, jakie pieniądze idą na naukę, na jaką naukę i dlaczego. Dziękuję.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.Prezes Kanownik. I potem przechodzimy do pani, a potem przechodzimy na tę stronę.
Prezes Związku Cyfrowa Polska Michał Kanownik:
Dziękuję bardzo. Michał Kanownik, Związek Cyfrowa Polska.Bardzo krótko. Panie ministrze, bardzo dziękujemy za te zmiany. One są bardzo istotne i chyba faktycznie idą w bardzo dobrym kierunku. Szczególnie dopisanie rozdziału o piaskownicach – to jest chyba najważniejszy element.
Pewnie będzie tu więcej uwag z naszej strony, ale pozwolę sobie poczekać na dokładne przeczytanie całości nowego projektu. Myślę, iż nasze główne rozważania będą pewnie dotyczyły czasu trwania tej piaskownicy, tego pojęcia wielkości firmy, bo tu będą może niewielkie różnice. Postaramy się oprzeć nasze uwagi przede wszystkim na doświadczeniach Hiszpanów, bo w tej chwili chyba oni mają wyrobione największe doświadczenie w zakresie piaskownic, więc pozwolimy sobie zweryfikować ich praktykę, co wyszło, co nie działa w piaskownicach, żebyśmy w Polsce potrafili faktycznie wypracować optymalne rozwiązanie.
Jednocześnie dziękuję za konsekwentne trwanie przy tym oddzielnym organie w zakresie AI, bo to chyba jest bardzo istotne. Ale mówię, najbardziej wdzięczni jesteśmy za wsłuchanie się w głos, jeżeli chodzi o piaskownice, bo to wydaje nam się najważniejsze dla rozwoju polskich projektów w tym zakresie. Nie przedłużam, bo mówię, trudno na razie odnosić się do szczegółów, ale dziękujemy i niezwłocznie przystępujemy do analizy tych zmienionych przepisów.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.I przechodzimy na drugą stronę. Bardzo proszę, oddaję pani głos.
Dyrektorka Forum Cyfrowego Związku Przedsiębiorców i Pracodawców Daniela Werbeniec:
Dzień dobry, Daniela Werbeniec, Związek Przedsiębiorców i Pracodawców.Dziękuję za to obszerne opowiedzenie o nowych zmianach – są bardzo obiecujące. Mam pytanie o spójność tych nowych założeń. Pan minister mówił ostatnio, po pobycie w Davos, iż widzimy defragmentaryzację tego, jak różne państwa implementują te przepisy. Co będziemy robić, żeby polskie podejście może było promowane podczas prezydencji Polski w Radzie Unii Europejskiej? Bo myślę, iż mamy do tego absolutną prerogatywę, żeby to zrobić. I pytanie, jakie państwo mają na to pomysły. Dziękuję.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.I przejdziemy teraz może tak: na samym końcu i później do pani profesor, dobrze?
Prawnik w Fundacji Panoptykon Mateusz Wrotny:
Dzień dobry, Wrotny Mateusz, Fundacja Panoptykon.Ja jeszcze też nie dotarłem do projektu, natomiast myślę, iż jak go sobie otworzę i odczytam, to rozwieje wiele moich wątpliwości. Nie wiem, czy dobrze wyłapałem…
Głos z sali:
Jest, jest.Prawnik w Fundacji Panoptykon Mateusz Wrotny:
Jest? Tak?Przewodniczący poseł Grzegorz Napieralski (KO):
Mi choćby wydrukowali, słuchajcie.Prawnik w Fundacji Panoptykon Mateusz Wrotny:
To na pewno uda mi się dotrzeć.Nie wiem, czy dobrze wyłapałem, w skład komisji nie będzie wchodził przedstawiciel rzecznika praw obywatelskich, natomiast będzie wchodził przedstawiciel UODO. Nie wiem, czy dobrze wyłapałem, natomiast pamiętam, iż rzeczywiście rzecznik praw obywatelskich na etapie konsultacji miał wątpliwości prawne dotyczące jego uczestnictwa w pracach komisji i członkostwa w komisji. UODO miał bardzo podobne i zastanawiam się, czy była zatem jakaś większa filozofia, żeby to zmienić.
Dalej, chciałbym wzmocnić jeden z poprzednich głosów. Czy dokonały się jakiekolwiek zmiany w zakresie możliwości składania skarg przez obywateli i obywatelki? Mianowicie mamy taką sytuację, iż AI Act dopuszcza jedynie do tego, iż obywatel, obywatelka może zgłosić takie naruszenie, natomiast na tym się kończy. Zastanawiamy się, czy ministerstwo nie chciałoby trochę wyjść poza ten standard, proponując na przykład terminy – jak zostały przez panią wspomniane – albo chociażby możliwość poinformowania tej osoby zgłaszającej o tym, jaki był wynik postępowania sprawdzającego.
I ostatnie pytanie. W AI Act jest przepis, który nakłada na prezesa… To adekwatnie nie jest prezes UODO, ale adekwatny DPA w państwie członkowskim, który mówi o tym, iż DPA powinien być tym organem sprawdzającym w zakresie niektórych systemów high riskowych. Natomiast to, co było potrzebne, to jego wdrożenie. To był bodajże art. 75 ust. 4 AI Act. Prezes UODO zwraca uwagę, iż w tej ustawie nie ma tego powtórzenia, które powinno się wydarzyć, żeby mógł korzystać z tego uprawnienia. Czy w tym zakresie coś się zmieniło?
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.I pani profesor. I pan poseł. o ile pan poseł ustąpi, tak? Bardzo proszę i oddajemy głos panu ministrowi.
Wykładowca w Centrum Europejskim Uniwersytetu Warszawskiego prof. ucz. dr hab. Marta Grabowska:
Marta Grabowska, Centrum Europejskie Uniwersytetu Warszawskiego.Przede wszystkim poparłabym stanowisko mojego szanownego przedmówcy, jeżeli chodzi o te środki, którymi powinno zarządzać ministerstwo nauki. Co do Ministerstwa Cyfryzacji, my mamy takie doświadczenia, iż to jest takie trochę zjawisko efemeryczne, bo to ministerstwo raz jest, raz go nie ma. My pamiętamy, iż to ministerstwo w ostatnich kadencjach bardzo różnie się lokowało, więc na przykład przekazywanie tutaj środków, szczególnie z nauki, może po prostu gdzieś utknąć i w ogóle wyparować, krótko mówiąc. To jest pierwsza sprawa.
Druga. jeżeli chodzi o tę komisję, może raczej mniej bym widziała tam reprezentantów Sejmu i Senatu, natomiast na przykład mnie brakowałoby jakiegoś specjalisty w zakresie transportu, ponieważ mamy tu kwestie związane z różnymi bezzałogowymi pojazdami itd. To też byłoby chyba tutaj potrzebne.
Chciałabym jeszcze zapytać o taką rzecz. Otóż w oryginalnym akcie, mniej więcej, o ile dobrze pamiętam, w art. 50–53, mowa jest właśnie o tzw. algorytmach sztucznej inteligencji ogólnego zastosowania. Takich wielkich systemach, które same w sobie… adekwatnie to nie są systemy, to są algorytmy, które dopiero po dołączeniu interfejsu itd. stają się niezwykle niebezpieczne. To są te najbardziej niebezpieczne, jeżeli chodzi o zakres działania. I tam proponuje się coś takiego, mianowicie taki kodeks. Komisja Europejska wzywa do tego, żeby kraje włączyły się do tworzenia kodeksów, które stawiałyby wymagania tym właśnie systemom, adekwatnie nie systemom, tylko algorytmom sztucznej inteligencji ogólnego zastosowania. Chciałabym zapytać, na ile Ministerstwo Cyfryzacji włączyło się w to i na jakim to jest etapie. Na razie to chyba tyle. Dziękuję.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.Pan poseł, bardzo proszę.
Poseł Paweł Bliźniuk (KO):
Dziękuję.Na wstępie chciałem podziękować za tak obszerną prezentację tego nowego projektu ustawy. Rozumiem, iż po konsultacjach dużo uwag zostało uwzględnionych. Cieszy to niezmiernie, iż głos strony społecznej jest na tyle doniosły i strona rządowa jest na tyle otwarta, iż te uwagi są uwzględniane na bieżąco.
Ja mam pytanie do pana ministra, może retoryczne. Rozumiem, iż ta komisja, o której teraz tak dużo rozmawiamy, ma dość istotne znaczenie z punktu widzenia całego systemu, który konstruujemy, wprowadzając te regulacje ustawowe. Rozmawiamy na temat jej składu osobowego. Jak przyglądamy się tej ustawie, to są pewne obowiązki ciążące na członkach tej komisji. Mamy specjalne wymagania wobec członków, którzy mieliby zasiadać w tej komisji. Ja mam pytanie, jakie jest uzasadnienie tego, iż o ile mamy tak istotny organ, w skład którego mają wchodzić osoby o dość znaczących kwalifikacjach, unikatowych, też patrząc na nasz rynek i realia rynkowe, to dlaczego tak istotny organ składający się z takich osób ma pracować społecznie? My tu tworzymy pewne instytucjonalne rozwiązania, rozmawiamy o suwerenności państwa polskiego, o odporności państwa polskiego, a kiedy wprowadzamy pewne regulacje istotne z punktu widzenia naszej przyszłości, to tworzymy organ najważniejszy w tym systemie, który ma pracować społecznie. Być może jest jakieś uzasadnienie, chciałbym się z nim zapoznać.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję, panie pośle.Panie ministrze, oddaję głos.
Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski:
Bardzo serdecznie dziękuję za wszystkie pytania. Bardzo dziękuję za deklarację pana prezesa Kanownika, o ile chodzi o wsparcie w zakresie piaskownicy regulacyjnej. Gorąco na to liczymy, żeby po prostu zrobić to w taki sposób, żeby jak najlepiej oddało potrzeby rynkowe, bo to jest ten fragment ustawy, którego poszukujemy od początku, czyli przyspieszanie rozwoju i wzmacnianie innowacyjności. Ważne jest, żeby ten fragment ustawy, akurat on się rozrastał, zamiast się zmniejszać. Więc gorąco zachęcam do zgłoszenia uwag w tym zakresie.Odnosząc się do pytania pani Danieli Werbeniec z ZPP – w połowie marca, między 10 marca a 15 marca, odbędzie się posiedzenie AI Board, któremu będę przewodniczyć, i podczas tego posiedzenia to nasz projekt ustawy, nasze wdrożenie zostanie przedstawione właśnie jako propozycja dobrej praktyki, punkt wyjścia do ewentualnych wspólnych prac nad wdrożeniem tych przepisów. Dlatego tak wcześnie zaczęliśmy i dlatego przeprowadziliśmy konsultacje dość szybko, żeby pokazać też innym państwom członkowskim, iż mamy pełną regulację, propozycję regulacji w tym zakresie.
W kontekście uwag dotyczących Instytutu Badawczego IDEAS pozwolę sobie nie odnosić się do anonimów – nigdy tego nie robię, natomiast rozmawiałem z panem rektorem, profesorem Zarembą, przy uczestnictwie pana profesora Sankowskiego. Nie prezentował takiego stanowiska. Natomiast o ile chodzi o uwagi dotyczące części budżetowych, to mam nadzieję, iż jest to pańska prywatna uwaga, a nie uwaga instytucji, które pan reprezentuje, ponieważ to musiałoby doprowadzić do likwidacji NASK – Państwowy Instytut Badawczy, a tego chyba nikt w tej sali by nie chciał, skoro tam są badania, a jest finansowany z Ministerstwa Cyfryzacji – to należałoby to zlikwidować, ale to przecież byłoby nierozsądne. Dlatego w ramach rządu jesteśmy zwolennikami tego, żeby zasypywać silosy i żeby wspierać rozwój tam, gdzie to jest możliwe, a nie oglądać się, czy to jest część budżetowa akurat ministerstwa nauki. Gdybym się na to oglądał, to nie byłoby pieniędzy na Fabrykę Sztucznej Inteligencji w AGH, bo powiedziałbym, iż to jest ministerstwa nauki i nie dam ani złotówki z budżetu Ministerstwa Cyfryzacji. Więc właśnie o tym jest zasypywanie silosów.
Jeżeli chodzi o pytanie przedstawiciela Fundacji Panoptykon o uczestnictwo rzecznika praw obywatelskich oraz prezesa Urzędu Ochrony Danych Osobowych, prezes Urzędu Ochrony Danych Osobowych ma tutaj jasne stanowisko i jasną wizję swojego uczestnictwa. Jest to organ praw podstawowych z art. 77 aktu o sztucznej inteligencji i prezes Urzędu Ochrony Danych Osobowych wskazał nam, iż byłoby niezręcznie, gdyby był członkiem Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, jednocześnie będąc organem z art. 77. Jednocześnie dość słusznie i rozsądnie zwrócił uwagę: a co, o ile doszłoby – mam nadzieję, iż nigdy nie dojdzie, ale co, jeżeliby doszło – do naruszenia przepisów RODO przez komisję, a prezes UODO byłby członkiem tej komisji. Dlatego stwierdził, zachowując ostrożność procesową, iż lepiej być w tym miejscu z art. 77. Natomiast rzecznik praw obywatelskich nie chce uczestniczyć w Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, nie chce być organem ochrony praw podstawowych. My na tym etapie nie będziemy go zmuszać do uczestnictwa w tym ekosystemie. Mamy nadzieję i trzymamy kciuki, iż rzecznik praw obywatelskich dołączy do tego ekosystemu, ale szanujemy niezależność tego organu i musimy uszanować jego decyzję w tym zakresie.
Kwestia uczestnictwa osoby fizycznej, o ile chodzi o skargę – w nowym art. 50 przewidujemy możliwość złożenia skargi i pełną procedurę skargową po złożeniu jej przez osobę fizyczną. Okres rozpoznania sprawy: nie dłużej niż sześć miesięcy. To co było wskazywane, również zostało uwzględnione.
Natomiast o ile chodzi o kwestię systemu wysokiego ryzyka, to tutaj – zgodnie też z sugestią Komisji Europejskiej, Komisja Europejska wskazuje, iż źródłem przepisów dotyczących systemu wysokiego ryzyka powinno być samo rozporządzenie oraz wytyczne w zakresie linii podziału pomiędzy systemami zakazanymi a wysokiego ryzyka – nie wprowadzamy tego podziału na systemy wysokiego ryzyka i systemy zakazane w ustawie, bo to jest w wytycznych Komisji Europejskiej. W pozostałym zakresie oczywiście też uwzględniliśmy te uwagi, o których pan mówił.
Jeżeli chodzi o uwagi pani profesor, systemy ogólnego przeznaczenia w ramach projektu ustawy, o ile ustawa nie stanowi inaczej, są traktowane tak jak pozostałe systemy, czyli też podlegają kontroli, zwłaszcza w tym momencie, który podkreśliła pani profesor, czyli w momencie ich zastosowania, kiedy one nagle przestają być ogólnego przeznaczenia, tylko stają się wysokiego ryzyka. To ten punkt projektu ustawy obejmuje, żeby był nadzór.
Pani profesor mówiła też o kodeksie w zakresie modeli ogólnego przeznaczenia. Według obecnego harmonogramu prac prace nad tym realizowane są w ramach AI Office w Brukseli. Kodeks ma być opublikowany w maju.
Pan przewodniczący Bliźniuk podjął bardzo istotny temat nieodpłatnego uczestnictwa. Wychodząc naprzeciw oczekiwaniom pana przewodniczącego, jakie jest źródło tego przepisu – tym źródłem jest Ministerstwo Finansów. Proponujemy wyjście z modelu takiego, jak jest na przykład w Komisji Nadzoru Finansowego czy w podobnych tego typu instytucjach, iż ciężar finansowania pracy przedstawiciela leży po stronie instytucji. Zgadzam się, jest to rozwiązanie nieperfekcyjne i o ile tutaj uzyskamy wsparcie Wysokiej Komisji, to chętnie będziemy dalej nad tym pracować, żeby to było przedmiotem prac.
Przewodniczący poseł Grzegorz Napieralski (KO):
Panie ministrze, przepraszam. o ile tak jest, w tej kwestii zgadzam z panem posłem Bliźniukiem, bo faktycznie jak budowaliśmy różne instytucje, na przykład przy Państwowej Inspekcji Pracy są też parlamentarzyści, są różni przedstawiciele, tam jest… To się chyba nazywa dieta, jakaś opłata. Pan poseł zwrócił uwagę na to, iż będziemy budowali pewne ciało, gdzie będą musieli być ludzie z pewnymi kwalifikacjami, i ja myślę, że… Za pracę trzeba płacić, to po pierwsze. Ale OK, bo być może warto spojrzeć na takie rozwiązanie. o ile ciężar ma ponosić pracodawca, to może zróbmy tak, jak zrobiliśmy na przykład w ustawie o cyberbezpieczeństwie, w tych dodatkach na urzędników, którzy zajmują się cyberbezpieczeństwem. Po prostu niech taki przedstawiciel danego organu, danej instytucji państwa ma dodatek do pensji, załóżmy 25%, za to, iż zasiada w takiej komisji. My nie płacimy dodatkowo, natomiast urząd X, Y, Z czy instytucja X, Y, Z podnosi pensję o 20–25%, do ustalenia oczywiście. Ale wiecie, rozumiem, iż szukamy najlepszych ludzi na rynku, to będzie jednak bardzo ważne. Tak mi się wydaje, panie ministrze. Z tego co pan mówi, to bardzo ważne miejsce, nie tylko dyskusji, ale też kontroli. I byłoby źle, żeby potem prezes na przykład jednego z tych urzędów, które są tu wymienione, na siłę szukał kogoś chętnego. Bo kto będzie chciał pracować po kilka godzin, najczęściej jeszcze po pracy – i za darmo. I potem będzie tak, iż zamiast mieć tam naprawdę wykwalifikowanych ludzi z tych instytucji, to każdy będzie po prostu chciał od tego uciec. Rozumiemy, iż tak powiem, twarde negocjacje z Ministerstwem Finansów, ale my tu możemy być pomocni, panie ministrze, żeby trochę zmodyfikować ten projekt.Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski:
Bardzo serdecznie dziękuję. Odnotowaliśmy to stanowisko i jesteśmy jak najbardziej otwarci już w ramach drugiej tury konsultacji.Przewodniczący poseł Grzegorz Napieralski (KO):
Czy są jeszcze pytania, bądź głosy? Bardzo proszę.Dyrektor Centrum Doskonałości Sztucznej Inteligencji Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie dr hab. inż. Joanna Jaworek-Korjakowska:
Ja chciałam zapytać, czy istnieje możliwość dołączenia do członków takiej komisji również środowiska naukowego i przedstawiciela ze środowiska naukowego właśnie, powiedzmy z wiedzą specjalistyczną z tego obszaru. To jest moje pierwsze pytanie.A drugie pytanie, zastanawiam się nad kontrolą takich rozwiązań, już tak od strony czysto informatycznej. Przedstawiałam się na poprzednim posiedzeniu, ale może jeszcze raz. Jestem dyrektorem Centrum Doskonałości Sztucznej Inteligencji AGH. Powiem szczerze, jestem sobie to w stanie wyobrazić w wielu obszarach, ale nie jest to takie trywialne. Akurat certyfikowałam różne rozwiązania oparte na AI dla medycyny i zdaję sobie sprawę, iż kontrola takich rzeczy wymaga bardzo dużej wiedzy. Powiem szczerze, iż działam trochę na styku w tej chwili cybersecurity AI i znakowania danych, analizy danych. Po drugie przyznanie się, iż pracowało się tylko na tych danych, a nie danych dodatkowych, czyli tak naprawdę stworzenie pewnego systemu do weryfikacji tego, co ktoś nam mówi, bo wiadomo, iż można wszystko powiedzieć, a niekoniecznie tak działać… Poprawna anonimizacja danych, przeszukanie tych danych – to nie jest rzecz, którą jesteśmy w stanie zrobić poprzez rozmowę, bo rozmowę można odpowiednio prowadzić. Oczywiście nie mówimy tutaj o Facebookach, o dużych systemach, ale choćby o takich naszych lokalnych.
Powiem szczerze o takim bardzo prostym przykładzie. Tworzymy rozwiązania dla radiologii, które możemy de facto stosować na dowolnych systemach, z których pochodzą zdjęcia. A baza danych zawierała zdjęcia jedynie z jednego systemu. Tego w tej chwili nikt nie weryfikuje. Więc taka moja, nie wiem, może sugestia, prośba – możemy to nazwać dowolnie – o dołączenie też naszego środowiska do takich prac komisji, a przede wszystkim do wsparcia w tworzeniu pewnych standardów kontroli tych rozwiązań, bo my od wewnętrza wiemy, jak można tym działać, jak można to tworzyć. Dziękuję bardzo.
Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękujemy za ten głos. Mam takie wrażenie, iż pani dała argumenty do wypowiedzi pana posła Bliźniuka, o ile chodzi o tę bezpłatną pracę. My uważamy, iż to będzie miejsce, gdzie będzie potrzeba ludzi tak naprawdę bardzo dobrze wykwalifikowanych, z dużą wiedzą, z dużym doświadczeniem i umiejętnościami.Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Ja powiem, jeżeli mogę wejść od razu w słowo, jedno zdanie więcej. To nie będzie jedynie praca tych osób, bo to będzie tworzenie pewnej wiedzy. Tej wiedzy w tej chwili choćby nie ma na rynku, czyli jak walidować pewne rozwiązania od strony wewnętrznej.Przewodniczący poseł Grzegorz Napieralski (KO):
Chciałem to potwierdzić. My byliśmy w listopadzie jako podkomisja w Stanach Zjednoczonych i mieliśmy okazję spotkać się z kongresmenami, którzy tworzą komisję do spraw sztucznej inteligencji – i część z nich była naprawdę wysokiej klasy naukowcami. Jeden z kongresmenów pokazywał nam, jak on budował tak naprawdę dużą… To była elektrownia atomowa? Już nie pamiętam, co to było. Mówiąc o tym, chcę tylko powiedzieć, z jakim typem polityków rozmawialiśmy.Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Tak.Przewodniczący poseł Grzegorz Napieralski (KO):
I oni tak naprawdę przy takiej wiedzy, doświadczeniu i takiej mocy życiowej, którą mieli, mieli problemy z pewnymi decyzjami na poziomie komisji. Na przykład nie wypuszczali niektórych aktów, bo bali się, iż one jeszcze nie są, iż tak powiem, dokładne jako akty kongresu.Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Pełna zgoda.Przewodniczący poseł Grzegorz Napieralski (KO):
I oni też nam tłumaczyli, tam nie było problemu, iż jest większość taka czy taka, bo tam było równo pół na pół – pół demokratów, pół republikanów, więc jakby nie ma problemu, iż jedna czy druga partia była przegłosowana. Problem był tak naprawdę wewnętrzny, taki merytoryczny.I stąd ja też rozumiem uwagę pana posła do tego, iż o ile faktycznie chcemy tam kogoś delegować, to już musimy z tych zbiorów, które są wypisane, wybrać tych najlepszych z najlepszych. I tak to jest.
Moja ostatnia uwaga. Może będę wyręczał pana ministra. Musimy też zastanowić się, jak to zrobić, żeby to nie był taki zespół, iż będziemy spotykać się na sali kolumnowej, bo wtedy to już… Musimy zastanowić się, jak dobrać tych przedstawicieli, żeby ten zespół był jednak taki jak najbardziej pracujący, bo czym więcej dołożymy… Jak dołożymy naukowców, to za chwilę dołączy się ktoś jeszcze. Pani Joanna albo pani profesor powiedziały o transportowcach, a ktoś jeszcze powie, a może jeszcze ktoś z...
Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Mi w ogóle nie chodzi o rozgraniczenie branż. Mi chodzi po prostu o czystych algorytmików, którzy są w stanie wskazać choćby procesy weryfikowania tych rozwiązań.Przewodniczący poseł Grzegorz Napieralski (KO):
Prezes Agencji Badań Medycznych jest absolutnym naukowcem, pracuje na przykład nad systemem sztucznej inteligencji i pracuje dzisiaj w ogóle nad stworzeniem systemu, o ile chodzi o ocenę i budowanie baz, o ile chodzi o zdrowie. Więc on mógłby, bo jest też profesorem…Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
My się dobrze znamy, bo właśnie ten projekt realizujemy razem – i my odpowiadamy za część algorytmiczną. Więc jak najbardziej z panem profesorem Wojtkiem…Przewodniczący poseł Grzegorz Napieralski (KO):
To można by wtedy połączyć…Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Jest świetną osobą. Uniwersytet w Łodzi tworzy właśnie to regionalne centrum medycyny cyfrowej, a my robimy dla nich algorytmikę.Przewodniczący poseł Grzegorz Napieralski (KO):
Jasne.Dyrektor Centrum Doskonałości Sztucznej Inteligencji AGH dr hab. inż. Joanna Jaworek-Korjakowska:
Dobrze, dziękuję.Przewodniczący poseł Grzegorz Napieralski (KO):
Pan poseł Bliźniuk, bardzo proszę.Poseł Paweł Bliźniuk (KO):
Rekapitulując już ten wątek, pragnę tylko zwrócić uwagę ministerstwu, żeby jednak wypracować rozwiązanie, które dostarczy nam kompetencji do tej rady, takich, jakich oczekujemy z punktu widzenia systemu, który tworzymy, wprowadzając tego typu ustawę. Bo o ile uznamy, iż w takiej komisji, radzie można pracować społecznie, i o ile nie będziemy płacić za pracę, to wydaje mi się, iż będzie duży problem, żeby pozyskać odpowiednie osoby do pracy w takim ciele. A choćby o ile ktoś się zgłosi, to też może być problem później długoterminowo z motywacją. Kadencja jest pięcioletnia, przynajmniej przewodniczącego, więc też warto zwrócić uwagę na to, iż to powinno być jednak ciało, w skład którego wchodzą osoby wykwalifikowane, ale też mające odpowiednią motywację do działania w takim organie. Nie tylko motywację patriotyczną, ale też naturalną, o ile mówimy o rynku pracy. Myślę, iż to jest konieczne, choćby patrząc na zakres obowiązków, jakie członkowie tej komisji będą na sobie mieli. W związku z czym wydaje się, iż takie rozwiązanie powinno zostać wdrożone. My jako podkomisja i pewnie Komisja Cyfryzacji, Innowacyjności i Nowoczesnych Technologii będziemy służyć wsparciem, bo próbujemy – i myślę, iż to jest nasz wspólny cel – tworzyć taką odporność i suwerenność cyfrową państwa polskiego, a myślę, iż poprzez rozwiązania uspołecznionej pracy raczej może nam to nie wyjść.Przewodniczący poseł Grzegorz Napieralski (KO):
Bardzo dziękuję.Panie ministrze, oddaję głos.
Sekretarz stanu w Ministerstwie Cyfryzacji Dariusz Standerski:
Mogę powiedzieć tylko, iż odnotowałem i bardzo serdecznie dziękuję za te uwagi i przychylam się także nie tylko do kwestii finansowych, ale również do kwestii pewnego jednak ograniczenia liczebności komisji, bo pewnie zawiodłem wielu moich kolegów i wiele koleżanek z rządu, ponieważ w ramach uzgodnień dostaliśmy od większości ministerstw zgłoszenie, iż ich przedstawiciel też powinien być w Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, co skończyłoby się tym, iż mielibyśmy taki mały Stały Komitet Rady Ministrów za każdym posiedzeniem komisji, od Ministerstwa Cyfryzacji do ministerstwa po drugiej stronie stołu podczas Rady Ministrów. Dlatego uznaliśmy, iż powinniśmy pójść jednak bardziej w stronę urzędów specjalizujących się w danych dziedzinach. Więc też mam nadzieję, iż w toku ponownych konsultacji nie zaburzymy tego ograniczonego zakresu kadrowego, o ile chodzi o skład osobowy komisji. Dziękuję.Przewodniczący poseł Grzegorz Napieralski (KO):
Dziękuję.Jeżeli pan minister pozwoli, moje dwie takie uwagi, może bardziej przemyślenia. Po pierwsze, kwestia dotycząca… Bo padło też takie zaniepokojenie, czy minister cyfryzacji powinien nadzorować, wyznaczać. Ja myślę, iż dobrze stało się w tym nowym otwarciu po 15 października, iż w końcu minister cyfryzacji jako osobny minister został wyniesiony do rangi wicepremiera, co tak naprawdę daje Ministerstwu Cyfryzacji bardzo dużą i bardzo poważną pozycję i też wzmocniło tematy cyfryzacyjne, nie tylko o ile chodzi o kwestie dotyczące naszego skoku do przodu – o ile mogę tak to nazwać – w tych kwestiach.
Druga sprawa. Panie ministrze, bo pan jeszcze wspomniał o tym instytucie dotyczącym sztucznej inteligencji. Odniesiemy się też do naszych doświadczeń w Stanach Zjednoczonych, tam też nad tym myślą, to jest trochę porozdzielane. Ale o ile mógłbym coś zasugerować, to o ile pracujecie i dzisiaj jest ten dzień ostatnich konsultacji, to jako głos w konsultacjach – ja bym ten instytut nazwał inaczej, niż pan powiedział. To po pierwsze. Bo różnie to się odbywa, natomiast czym prostsza, łatwiejsza nazwa i jasno mówi o co chodzi, tym bardziej prosto. W Stanach Zjednoczonych oni to rozdzielili na dwie części. Jest instytucja państwowa, która zajmuje się wdrożeniem nowych technologii i ona tym zarządza i patrzy na to – i to jest część administracyjna. A druga rzecz, którą stworzyli, to na oddziale Uniwersytetu Georgetown została stworzona specjalna grupa czy specjalny wydział, komórka, która zajmuje się tylko i wyłącznie sztuczną inteligencją i na potrzeby państwa Stany Zjednoczone, a dokładnie administracji, dokonuje analizy i oceny tego, co tak naprawdę dzieje się z tą sztuczną inteligencją. Więc jeżeli, jak rozumiem, powstaje taki instytut, który po części będzie miał kompetencje takiego nadzoru, kompetencje doradcze, to warto go prosto nazwać. To jest instytut do spraw sztucznej inteligencji, koniec kropka. I tyle. Dziękuję bardzo.
Jeszcze jakieś głosy? Nie widzę. Szanowni państwo, bardzo dziękuję panu ministrowi, całemu zespołowi. Wyczerpaliśmy porządek obrad.
Zamykam posiedzenie podkomisji. Do zobaczenia, do widzenia.
« Powrótdo poprzedniej strony