PEKIN – W odpowiedzi na dynamiczny rozwój sztucznej inteligencji i rosnące zagrożenia związane z dezinformacją, chiński rząd ogłosił nowe przepisy, które mają na celu zwiększenie przejrzystości w cyfrowym świecie. Dokument 《人工智能生成合成内容标识办法》 („Metody oznaczania treści generowanych przez sztuczną inteligencję”), opublikowany przez Administrację Cyberprzestrzeni Chin (ang. Cyberspace Administration of China – CAC), wprowadza obowiązek wyraźnego oznaczania materiałów stworzonych lub zmodyfikowanych przez AI. To kolejny krok Chin w kierunku ściślejszej kontroli nad technologią, która może zarówno przynieść korzyści, jak i zagrożenia dla społeczeństwa.
Nowe przepisy – najważniejsze założenia
1. Obowiązek znakowania treści AI
Zgodnie z nowymi zasadami, wszystkie treści wygenerowane lub znacząco zmienione przez AI – w tym teksty, obrazy, filmy, nagrania głosowe i deepfake’i – muszą być wyraźnie oznaczone. Oznaczenie może przyjąć formę:
- tekstu (np. „Wygenerowane przez sztuczną inteligencję”),
- znaku graficznego,
- metadanych osadzonych w pliku.
2. Kogo dotyczą nowe przepisy?
- Dostawcy usług AI (np. twórcy chatbotów, generatorów obrazów takich jak MidJourney czy Stable Diffusion).
- Platformy internetowe (w tym media społecznościowe, serwisy informacyjne, strony z treścią wideo).
- Reklamodawcy i twórcy treści (np. agencje marketingowe wykorzystujące AI do tworzenia reklam).
3. Bezpieczeństwo i odpowiedzialność
- Zabronione jest wykorzystywanie AI do:
- rozpowszechniania fałszywych informacji,
- oszustw (np. wyłudzeń głosowych),
- tworzenia treści zagrażających bezpieczeństwu narodowemu.
- Platformy muszą usuwać nieoznakowane treści AI i weryfikować źródła.
4. Kary za brak zgodności
Naruszenie przepisów może skutkować:
- grzywnami finansowymi,
- czasowym lub trwałym zablokowaniem usługi,
- w skrajnych przypadkach – odpowiedzialnością karną.
Dlaczego Chiny wprowadzają te regulacje?
Rząd wskazuje na trzy główne powody:
- Walka z dezinformacją – rosnąca liczba deepfake’ów i fałszywych wiadomości stanowi zagrożenie dla społeczeństwa.
- Ochrona użytkowników – konsumenci powinni wiedzieć, czy mają do czynienia z prawdziwymi ludźmi czy algorytmami.
- Kontrola rozwoju AI – Chiny chcą uniknąć niekontrolowanego rozprzestrzeniania się niebezpiecznych technologii.
Kiedy przepisy wejdą w życie?
- Od 1 września 2025 r. – obowiązek oznaczania treści AI.
- Do końca 2025 r. – platformy muszą wdrożyć systemy weryfikacji.
Reakcje ekspertów i branży
- Zwolennicy (m.in. eksperci ds. cyberbezpieczeństwa) chwalą regulację za zwiększenie transparentności.
- Krytycy (przedstawiciele firm technologicznych) obawiają się, iż nowe przepisy spowolnią rozwój chińskiej branży AI, dając przewagę konkurentom z USA i Europy.
Porównanie z Europą: Czy Zachód pójdzie w ślady Chin?
Podczas gdy Chiny zdecydowanie wdrażają system obowiązkowego oznaczania treści AI, Unia Europejska i USA podchodzą do tematu bardziej ostrożnie:
- UE pracuje nad AI Act, który również może wprowadzić wymóg oznaczania treści generowanych przez AI, ale na razie nie ma jeszcze tak restrykcyjnych przepisów.
- USA pozostawia sprawę w rękach firm technologicznych (np. OpenAI i Google same decydują o oznaczaniu treści).
Kluczowa różnica:
- Chiny – nakazują oznaczanie AI odgórnie, pod groźbą kar.
- Zachód – opiera się na samoregulacji branży, co może prowadzić do niespójności.
Czy to początek globalnego trendu?
Chiny, jako jeden z liderów w rozwoju AI, wyznaczają nowy standard w cyfrowej regulacji. Ich podejście może wpłynąć na globalne rozwiązania – zwłaszcza jeżeli okaże się skuteczne w walce z dezinformacją. Czy Europa i USA pójdą w ich ślady? To zależy od tego, czy wolą wolność innowacji czy kontrolę nad technologią.
Źródła:
- gov.cn – 人工智能生成合成内容标识办法
- South China Morning Post – China’s new AI labeling rules
- Reuters – EU AI Act vs. China’s regulations
Leszek B. Ślazyk
e-mail: [email protected]
© www.chiny24.com