Ministerstwo Cyfryzacji analizuje konieczność wprowadzenia dodatkowych mechanizmów ochrony małoletnich, mając na uwadze ich szczególną podatność na wpływ technologii AI. O zapewnienie ich apelowała Rzeczniczka Praw Dziecka.
– Wskazywane przez Panią Rzecznik ryzyka związane z tzw. „sztuczną intymnością”, a także z obserwowanym w wielu krajach zjawiskiem powierzania systemom AI tematów wrażliwych, są nam znane i stanowią przedmiot prac analitycznych prowadzonych zarówno w kraju, jak i na poziomie międzynarodowym – odpowiedziało Ministerstwo Cyfryzacji w piśmie z 20 lutego 2026 r.
Apel Rzeczniczki Praw Dziecka
Rzeczniczka Praw Dziecka z prośbą o podjęcie pilnych działań legislacyjnych, których celem będzie zapewnienie ochrony młodych osób w kontakcie ze sztuczną inteligencją zwróciła się 8 stycznia 2026 r. do Ministry Zdrowia i Ministra Cyfryzacji. Zadeklarowała też pełne wsparcie Biura RPD na każdym etapie prac.
– W dzisiejszych czasach młode osoby spędzają co najmniej kilka godzin dziennie w środowiskach cyfrowych, a media społecznościowe i gry online stały się popularnymi miejscami kontaktów rówieśniczych. Dodatkowo w świecie, w którym wielu młodych ludzi doświadcza braku uwagi dorosłych i napiętych relacji rodzinnych, poczucia osamotnienia oraz presji w szkole, coraz więcej traktuje AI jako kogoś, kto zawsze jest i zawsze ich zrozumie – wskazała Monika Horna-Cieślak w piśmie z 8 stycznia 2026 r.
Rozwój AI i jego wpływ na młodych. RPD apeluje o działania legislacyjne
Negatywne konsekwencje
Monika Horna-Cieślak zwróciła uwagę, iż u dzieci i młodzieży z wielu względów symulowana relacja może być odbierana jako prawdziwa, dodatkowo jako niezwykle głęboka i satysfakcjonująca, ponieważ technologie reagują empatycznym językiem, słuchają bez oceniania i są zawsze dostępne.
Odpowiedź resortu cyfryzacji
W odpowiedzi na apel RPD MC wskazało, iż obowiązujące regulacje Unii Europejskiej – w szczególności Rozporządzenie Parlamentu Europejskiego i Rady w sprawie sztucznej inteligencji (AI Act) wprowadzają zakaz wykorzystywania podatności określonych grup użytkowników, w tym ze względu na wiek, do wpływania na ich zachowanie w sposób mogący wyrządzić im szkodę. Ponadto AI Act przewiduje obowiązki dotyczące transparentności oraz oznaczania treści generowanych przez systemy sztucznej inteligencji, co ma służyć zwiększeniu świadomości użytkowników oraz ograniczaniu ryzyk wynikających z mylenia treści syntetycznych z autentycznymi.
Obowiązki te ujęto w art. 50 AI Act, który w tej chwili pozostaje w uzgodnieniach między państwami członkowskimi w ramach proponowanych uproszczeń (Digital Omnibus). Polska zabiega o to, aby przepis ten wszedł w życie bez opóźnień, co jest najważniejsze dla zapewnienia wysokiej jakości i bezstronności systemów AI wykorzystywanych na rynku europejskim. Resort wyraził prośbę, by Pani Rzeczniczka mogła wesprzeć to stanowisko podczas rozmów z innymi instytucjami Unii Europejskiej.
Prace nad dodatkową ochroną
MC przekazało, iż w resorcie realizowane są prace nad projektem ustawy wdrażającej wymienione regulacje do prawa krajowego. Prace te obejmują również analizę konieczności wprowadzenia dodatkowych mechanizmów ochrony małoletnich, mając na uwadze ich szczególną podatność na wpływ technologii, w tym technologii o charakterze interaktywnym.
Resort podzielił opinię Rzeczniczki, iż temat wymaga dalszej analizy oraz wypracowania odpowiednich rozwiązań systemowych – w szczególności dotyczących interakcji małoletnich z narzędziami AI o charakterze konwersacyjnym i symulującym relacje emocjonalne.

1 tydzień temu

