Przez kilka ostatnich lat Polska zwlekała z wdrożeniem przepisów unijnych dyrektyw prawnoautorskich, których termin implementacji dawno upłynął. Gdy wreszcie się na to zdecydowaliśmy, a procedura legislacyjna ruszyła i polski świat prawniczy wstrzymał oddech, zaraz się okazało, iż projekt nie uwzględnia rozwiązań dotyczących generatywnej sztucznej inteligencji. Tak było aż do czwartku 14.3.2024 r. – wtedy to opublikowana została nowa wersja projektu ustawy zmieniającej ustawę o prawie autorskim, podchodząca poważnie do AI i nietraktująca jej już jak ubogiego krewnego.
Mniej ograniczeń
Zmiana, którą zaproponowało w projekcie Ministerstwo Kultury, z pozoru nie należy do największych. Według nowego projektu art. 263 ustawy o prawie autorskim będzie przewidywał, iż „wolno zwielokrotniać rozpowszechnione utwory w celu eksploracji tekstów i danych, chyba iż uprawniony zastrzegł inaczej”. Jeszcze do niedawna przepis ten kończył się jednak sformułowaniem: „z wyłączeniem tworzenia generatywnych modeli sztucznej inteligencji”. Skąd w ogóle pomysł na takie ograniczenie swobody w „uczeniu” AI? I dlaczego od niego ostatecznie odstąpiono?
Odpowiedź na pierwsze pytanie nie jest do końca jasna. Uzasadnienie projektu wskazywało, iż przed laty – gdy tworzone były przepisy wspomnianych dyrektyw – nie była znana skala możliwości algorytmów generatywnej sztucznej inteligencji. Doprowadziło to twórców projektu do wniosku, iż rozwiązania z dyrektywy nie były tworzone z myślą o AI w znanym nam dziś kształcie oraz iż konieczne jest ograniczenie jej zapędów.
Argumentacja ta upada jednak, gdy spojrzymy na wydarzenia następujące po przyjęciu dyrektywy przez pozostałe państwa europejskie. Nie dość, iż w żadnym z nich nie zdecydowano się na wprowadzenie późniejszych ograniczeń dla AI, to jeszcze najnowsze rozporządzenie Parlamentu Europejskiego adekwatnie potwierdza poparcie państw UE dla tych uregulowań. Chodzi oczywiście o tzw. AI Act, zwany aktem o sztucznej inteligencji, który odwołuje się do norm m.in. aktualnie wdrażanej dyrektywy DSM.
Co do drugiego pytania, to legislator zdecydował się odstąpić od wykluczenia AI pod presją opinii przedstawionych w konsultacjach publicznych. Rozwiązanie to poddano krytyce, wytknięto m.in. niezgodność z prawem unijnym. I faktycznie, wdrożenie przepisów w poprzednim kształcie doprowadziłoby do niepełnej transpozycji prawa UE.
Pogrom twórców?
Najwięcej obaw generatywna sztuczna inteligencja wzbudzała i wzbudza jednak w środowiskach twórczych. Branża kreatywna obawia się, iż łatwość dostępu do wytworów AI zdecydowanie pogorszy ich i tak ciężką już sytuację na rynku – zostanie on zasypany milionami tekstów, grafik i utworów muzycznych naśladujących coraz lepiej pracę twórczą człowieka. Sprzeciw artystów budzi też korzystanie przez algorytmy z ich utworów w ramach „uczenia się”.
Rozwiązanie drugiego z problemów przewiduje wdrażane właśnie prawo. Pozwala ono, zgodnie z tzw. modelem opt-out, by twórca wedle uznania nie zezwalał algorytmowi na eksplorację jego utworów (tzw. text-and-data mining) i wykorzystanie ich do generowania treści. Z kolei co do pierwszej z obaw, to niestety nie zostały jeszcze wdrożone żadne zabezpieczenia – pozostaje tylko wierzyć, iż rynek zweryfikuje treści i odbiorcy postawią na jakościowe, tworzone przez ludzi dzieła.
Etap legislacyjny: konsultacje
Michał Markiewicz, specjalista z dziedziny prawa autorskiego, Kancelaria Markiewicz Sroczyński Mioduszewski
Pomysł na taką regulację, tj. wyłączenie wyjątku text-and-data mining na potrzeby nauki generatywnych systemów sztucznej inteligencji, i to na tak późnym etapie prac (ponad 2,5 roku po terminie implementacji), był zaskakujący. Nie tylko dlatego, iż żaden kraj Unii Europejskiej nie skierował się w tę stronę, implementując dyrektywę, ale przede wszystkim z tego powodu, iż przepis ten ma właśnie służyć legalizacji tego, co wprost chciano w Polsce wyłączyć. Wskazują na to także kolejne, projektowane akty prawa unijnego. Regulacja, z której zrezygnowano, nie miałaby dużego znaczenia dla międzynarodowego rozwoju sztucznej inteligencji. Wszystkie duże modele AI są bowiem „trenowane” poza terytorium Polski, zatem krajowe przepisy i tak nie mają względem tych działań zastosowania. Gotowe modele mogą być natomiast wykorzystywane w Polsce, również niezależnie od komentowanej regulacji. Główny problem polegał na tym, iż przyjęcie tej regulacji doprowadziłoby do zmniejszenia polskiej konkurencyjności na rynku AI. Zarówno organizacje badawcze, jak i start-upy zmuszone byłyby do rozwijania swoich narzędzi poza terytorium Polski. Dobrze się stało, iż ministerstwo wycofało się z tego pomysłu.