Wykorzystywanie narzędzi Sztucznej Inteligencji do bardzo różnych celów jest powszechne na rynku. Jednym z obszarów zastosowania jest generowanie treści. W artykule odpowiemy na pytanie jak korzystać z AI, żeby nie naruszać praw. Oczywiście przyjmiemy perspektywę prawa własności intelektualnej (pozostałe obszary zostaną tylko zasygnalizowane).
Ryzyka prawne i wymogi zgodności
Korzystanie z narzędzi AI, w zależności od zakresu i kontekstu wymaga uwzględnienia ryzyk i zapewnienia zgodności zwłaszcza w następujących obszarach:
- Poufność;
- Cyberbezpieczeństwo;
- Ochrona danych osobowych;
- Prawo własności intelektualnej.
Na poziomie unijnym szczegółowe wymogi, skierowane również do podmiotów stosujących systemy AI wprowadza Akt w sprawie Sztucznej Inteligencji[1] (AI Act). Odnotujmy tylko, iż w znacznej większości AI Act dotyczy tzw. systemów wysokiego ryzyka oraz zakazanych praktyk w zakresie AI (którymi w tym artykule nie będziemy się zajmować). Różne przepisy sektorowe mogą również wprowadzać szczegółowe wymagania.
Ważne znaczenie dla zapewnienia bezpieczeństwa prawnego mają wiedza i kompetencje w ramach organizacji. Z tego względu wykorzystywanie narzędzi AI powinno zostać poprzedzone odpowiednim przygotowaniem i przeszkoleniem personelu w zakresie zasad korzystania z narzędzi AI. Wskazane jest posiadanie aktualizowanej polityki korzystania z narzędzi AI.
Akt w sprawie Sztucznej Inteligencji wymaga, zarówno od dostawców, jak i stosujących systemy AI zapewnienia odpowiedniego poziomu kompetencji dot. AI wśród swojego personelu. Komisja Europejska opublikowała zestaw pytań i odpowiedzi na temat tego obowiązku[2].
Kluczowe elementy polityki korzystania z narzędzi AI w organizacji
Polityka korzystania z narzędzi AI w organizacji powinna określać w szczególności:
- jakie narzędzia AI zostały dopuszczone w organizacji do wykorzystania;
- obowiązki personelu korzystającego z narzędzi AI w zakresie:
- udziału w organizowanych w firmie szkoleniach dot. AI;
- zapoznania się z dokumentacją dotyczącą narzędzia AI (taką jak: materiały szkoleniowe i regulamin);
- przestrzegania obowiązujących w organizacji zasad dotyczących korzystania z AI;
- przestrzegania regulaminu danego narzędzia AI;
- jakie dane i dokumenty mogą być wprowadzane do narzędzia AI, a jakie nie;
- przypadki, gdy korzystanie z narzędzi AI może zostać ograniczone lub wykluczone (np. ze względu na wymogi wskazane w umowie na realizację danego zlecenia/ dzieła);
- obowiązki personelu w zakresie weryfikacji (w takim zakresie w jakim jest to możliwe) czy generowane rezultaty nie zawierają błędów i nieprawidłowości;
- obowiązki personelu w zakresie weryfikacji (w takim zakresie w jakim jest to możliwe) czy wygenerowana treść nie została skopiowana z cudzego utworu.
Należy też pamiętać, iż niektóre zastosowania AI są zakazane przez AI Act (np. wnioskowanie na temat emocji w miejscu pracy lub instytucjach edukacyjnych – zob. art. 5 AI Act), a w przypadku tzw. systemów AI wysokiego ryzyka, na korzystającym ciążą dodatkowe obowiązki (zob. art. 26 AI Act).
Ocena narzędzia AI
Decydując, czy korzystanie z danego narzędzia AI powinno być w organizacji dopuszczalne, wskazane jest zwłaszcza:
- zapoznanie się z treścią regulaminu korzystania z narzędzia pod katem sprawdzenia na jakich zasadach dane narzędzie jest udostępniane. Powinny interesować nas m.in. postanowienia informujące, czy dane wprowadzane przez korzystającego są wykorzystywane do trenowania modeli AI lub udostępniane podmiotom trzecim; czy wprowadzane są szczególne zasady korzystania z outputu; jak kształtują się zasady odpowiedzialności za nieprawidłowości w działaniu narzędzi;
- zapoznanie się z innymi dokumentami, o ile są dostępne (przykładowo Akt w sprawie Sztucznej Inteligencji wymaga od dostawców modeli AI ogólnego przeznaczenia[3] podania do wiadomości publicznej streszczenia na temat treści wykorzystanych do trenowania modelu oraz polityki służącej zapewnieniu zgodności z prawem UE dotyczącym prawa autorskiego i praw pokrewnych),
- zwrócenie uwagi na ewentualne różnice w zasadach korzystania z narzędzia AI w wersji dedykowanej dla użytkowników indywidualnych oraz dla przedsiębiorstw.
AI a prawo autorskie – najważniejsze ryzyka prawne
Patrząc z punktu widzenia prawa autorskiego ryzykowne i niewskazane jest wprowadzanie do narzędzia AI utworów, do których nie posiadamy majątkowych praw autorskich (lub licencji uprawniającej do takiego działania).
Z drugiej strony, należy też pamiętać, iż wykorzystywanie narzędzi AI przy tworzeniu dzieła generuje ryzyko, iż powstały materiał nie będzie utworem, a tym samym nie będzie chroniony prawem autorskim. Dla powstania utworu niezbędny jest twórczy wkład człowieka w jego powstanie. Sam fakt zaangażowania AI w powstanie treści nie wyklucza oczywiście powstania utworu. Im mniejszy jest jednak ten wkład człowieka (np. gdy rola człowieka ogranicza się tylko do napisania promptu) tym większe prawdopodobieństwo, iż rezultat nie będzie utworem. Wówczas prawa autorskie w ogóle nie powstaną i zasadniczo dopuszczalne będzie kopiowanie i wykorzystywanie takich materiałów przez osoby trzecie.
AI a ryzyko powielania utworów
Jeżeli zatem zlecamy wykonanie dzieła kontrahentowi (np. grafiki; programu komputerowego; projektu architektonicznego; ekspertyzy) warto określić w umowie czy i w jakim zakresie twórca może korzystać z narzędzi AI. Zwłaszcza, o ile dla zamawiającego istotne jest nabycie majątkowych praw autorskich, a tym samym uzyskanie wyłączności na korzystanie (gdyż chodzi np. o duży projekt), warto zapewnić, obok postanowień o przeniesieniu majątkowych praw autorskich, aby narzędzia AI były wykorzystywane w procesie twórczym jako wspierające, ale nie zastępujące twórcze działania człowieka.
Również z drugiej strony – o ile to my realizujemy zamówienie stworzenia dzieła i zobowiązujemy się do przeniesienia majątkowych praw autorskich do niego, powinniśmy unikać sytuacji, w której rola narzędzia AI będzie dominująca, gdyż z dużym prawdopodobieństwem nie powstanie wówczas utwór. W takiej sytuacji nie będziemy mogli wykonać zobowiązania do przeniesienia majątkowych praw autorskich, gdyż w ogóle nie powstanie utwór. Narażamy się w tej sytuacji na odpowiedzialność kontraktową.
Korzystanie z treści wygenerowanych przez AI może prowadzić do naruszenia praw autorskich do istniejących wcześniej utworów innych osób. o ile wygenerowana przez AI treść będzie taka sama (lub bardzo podobna) jak utwór, który został wykorzystany do trenowania tego narzędzia AI, istnieje ryzyko naruszenia. Dlatego weryfikując narzędzia AI, które mają znaleźć zastosowanie w organizacji należy zwrócić szczególną uwagę na informacje dotyczące:
- stosowania przez narzędzie zabezpieczeń technicznych (takich jak np. tzw. filtry outputu), zapobiegające generowaniu przez narzędzie treści, które powielają utwory wykorzystane w procesie treningu;
- źródeł danych wykorzystywanych w treningu AI.
Z tego względu, w umowach z kontrahentem wskazane jest, o ile strony dozwalają na korzystanie z narzędzi AI, zobowiązanie do korzystania z takich narzędzi, które minimalizują ryzyko naruszenia.
Weryfikacja nazwy, logo i identyfikacji wizualnej wygenerowanej przez AI
Niedbałe korzystanie z narzędzi AI generuje również ryzyka naruszenia innych praw własności intelektualnej, takich jak prawo ochronne do znaku towarowego. o ile narzędzie AI wygeneruje np. nazwę czy też logo, identyczny lub podobny do oznaczenia już chronionego znakiem towarowym, używając tych materiałów, korzystający naraża się na odpowiedzialność z tytułu naruszenia. Z tego względu wskazana jest weryfikacja przed wykorzystaniem takich materiałów, zwłaszcza o ile mają one posłużyć jako identyfikacja wizualna w organizacji.
AI a ochrona wizerunku i dóbr osobistych
Generowanie i korzystanie z materiałów wykorzystujących wizerunek istniejących osób, czy też ich głosu, wymaga uzyskania od nich zgody. Korzystanie w braku takiej zgody naraża tym samym na odpowiedzialność z tytułu naruszenia dóbr osobistych, w tym prawa do wizerunku. Co prawda prawo przewiduje wyjątki, gdy uzyskanie zgody na wykorzystanie wizerunku nie jest konieczne (przypadek korzystania z wizerunku osoby powszechnie znanej, który został utrwalony w związku z pełnieniem przez nią funkcji publicznych), ale choćby wówczas nie jest dopuszczalne wykorzystanie w celach komercyjnych (np. w reklamie), bez zgody tej osoby. Tym samym rekomendowana jest weryfikacja każdorazowej sytuacji, w celu uzyskania możliwości wykorzystania wizerunku w planowanym zakresie.
Oznaczanie deepfake’ów
Akt w sprawie Sztucznej Inteligencji wprowadza obowiązek oznaczania deepfake’ów. Deepfake w AI Act ma znaczenie neutralne i oznacza[4]:
- wygenerowane przez AI lub zmienione przez AI
- obrazy, treści dźwiękowe lub treści wideo
- które przypominają istniejące osoby, przedmioty, miejsca, podmioty lub zdarzenia, które odbiorca mógłby niesłusznie uznać za autentyczne lub prawdziwe.
Choć obowiązek będzie stosowany od 2 sierpnia 2026 r. i nie obejmuje wszystkich treści generowanych przez AI[5], przedsiębiorcy już teraz powinni oznaczać materiały wygenerowane przez AI, aby nie narazić się na zarzuty wprowadzania w błąd i ew. roszczenia w zakresie nieuczciwej konkurencji lub odpowiedzialność na podstawie ustawy o przeciwdziałaniu nieuczciwym praktykom rynkowym.
Wiele platform internetowych wprowadziło ponadto regulaminowy obowiązek oznacza treści AI przez wszystkich użytkowników[6], najczęściej poprzez opcje zaimplementowane w interfejsie użytkownika.
Zgodnie z AI Act, oznaczenie treści generowanych przez AI ma być:
- jasne;
- wyraźne;
- następować najpóźniej w momencie pierwszej interakcji lub pierwszego stosowania.
Jednocześnie sposób oznaczenia prac o wyraźnie artystycznym, satyrycznym oraz fikcyjnym charakterze nie powinien utrudniać wyświetlania lub korzystania z utworu.
Jak oznaczać treści generowane przez AI? Projekt Kodeksu Praktyk KE w praktyce
Z opublikowanego niedawno przez Komisję Europejską projektu Code of Practice on Transparency of AI-Generated Content[7] wynika, iż sposób oznaczenia powinien pozwalać na odróżnienie dwóch przypadków:
| Treści wygenerowane w całości przez AI | Treści wspomagane przez AI (AI-assisted content) |
| Np. grafika, audio, video wygenerowane w całości przez AI na podstawie promptu. | Treści, przy których tworzeniu wykorzystano AI (brak obowiązku oznaczenia, o ile „wkład” AI nie wpływa na znaczenie, dokładność faktów, ton emocjonalny lub inne elementy, które mogą fałszywie wydawać się autentyczne lub prawdziwe). Jako przykłady podano: usuwanie obiektów; zastępowanie lub modyfikacja twarzy/głosu; dodawanie tekstu wygenerowanego przez AI do istniejącego tekstu autorstwa człowieka; znaczne zmiany wizualne lub dźwiękowe, w tym filtry upiększające, które zmieniają postrzegany wiek i/lub ton emocjonalny; zmiany w opisie wydarzeń, argumentów lub interpretacji wspomagane przez AI; pozornie drobne zmiany wprowadzane przez AI, które zmieniają jednak kontekst treści (np. usuwanie szumów, które sprawia, iż osoba udzielająca wywiadu wydaje się znajdować w innym miejscu), edycja zmieniająca informacje w tle lub korekty kolorów, które zmieniają znaczenie kontekstowe (np. odcień skóry). |
Dokładny sposób oznaczenia może różnić się w zależności od rodzaju treści: obraz, audio, wideo. Przykładowo, prawidłowym oznaczeniem grafiki będzie umieszczenie w dolnym rogu widocznego akronimu „AI”. Ostatecznie ma zostać przyjęty wzór unijnej ikony oznaczenia, aktualnie w ww. projekcie Kodeksu Praktyk zawarto przykładową ikonę:
*str. 31
Oferujemy wsparcie w zakresie aspektów prawnych dotyczących tworzenia i korzystania z narzędzi AI, w tym ocenę ryzyk, przygotowanie dokumentacji oraz dostosowanie umów do wykorzystania narzędzi AI. Zapraszamy do kontaktu.
[1] Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji.
[2] https://digital-strategy.ec.europa.eu/en/faqs/ai-literacy-questions-answers
[3] Np. duże modele językowe (LLMs) takie jak GPT-5 od OpenAI.
[4] Art. 3 pkt 60 AI Act.
[5] Poza deepfake’ami w przytoczonym w AI Act rozumieniu, obowiązek oznaczania dotyczy również tekstów, ale w bardzo wąskim zakresie – tylko tych publikowanych w celu informowania społeczeństwa o sprawach leżących w interesie publicznym (np. alerty pogodowe) i wyłącznie, gdy tekst nie został poddany weryfikacji przez człowieka lub kontroli redakcyjnej (lub gdy za publikację treści odpowiedzialności redakcyjnej nie ponosi człowiek).
[6] Zob. np. Informowanie o wykorzystywaniu treści zmienionych i wygenerowanych syntetycznie w serwisie YouTube – https://support.google.com/youtube/answer/14328491?hl=pl_ALL&co=GENIE.Platform%3DAndroid
[7] Projekt z 17 grudnia 2025 r. https://digital-strategy.ec.europa.eu/en/library/first-draft-code-practice-transparency-ai-generated-content






