Media społecznościowe pod presją prawa

14 godzin temu

Dziś trudno wyobrazić sobie codzienne funkcjonowanie bez platform takich jak Facebook, Instagram, YouTube czy TikTok. To stamtąd użytkownicy czerpią wiadomości, tam budują relacje, promują swoją działalność gospodarczą, a często także kształtują poglądy.

Równolegle zmienia się sposób myślenia o tych platformach. Coraz wyraźniej dostrzegamy, iż nie są one neutralnym narzędziem, ale środowiskiem zaprojektowanym tak, by zwiększać zaangażowanie użytkowników, co sprzyja uzależnieniom i negatywnie wpływa na zdrowie psychiczne dzieci i młodzieży.

W odpowiedzi na te zagrożenia państwa podejmują działania regulacyjne. Francja rozważa wprowadzenie zakazu dostępu do mediów społecznościowych dla dzieci poniżej 15. roku życia. Kilka miesięcy temu taki zakaz (do 16. roku życia) wprowadziła już Australia, ale w tej chwili mierzy się z jego egzekwowaniem. Australijski regulator odpowiedzialny za bezpieczeństwo w internecie zapowiedział możliwość podjęcia działań prawnych wobec największych platform społecznościowych, ponieważ nie wdrażają wystarczających środków służących do weryfikacji wieku. Niedawno zakaz korzystania z platform społecznościowych przed ukończeniem 16. roku życia wprowadziła Indonezja. Podobne kierunki pojawiają się w Polsce zarówno w dyskursie społecznym, jak i w działaniach regulacyjnych. Ministerstwo edukacji skierowało do konsultacji publicznych projekt ustawy o zakazie korzystania z telefonów w publicznych szkołach podstawowych.

Procesy w USA

Pod koniec marca w Stanach Zjednoczonych zapadły dwa ważne wyroki. Pierwszy w sprawie Kaley, 20-letniej Kalifornijki. Ława przysięgłych w Los Angeles uznała odpowiedzialność Meta i Google za uzależniający charakter ich platform. Kobieta twierdziła, iż przeglądanie mediów społecznościowych rozpoczęła już jako sześciolatka. Jej zdaniem wpłynęło to negatywnie na jej zdrowie psychiczne, postrzeganie własnego ciała, wywołało stany lękowe, a choćby myśli samobójcze. Rozstrzygnięcie przesunęło punkt ciężkości – z analizy treści publikowanych przez użytkowników na sposób zaprojektowania platformy. Sąd potwierdził, iż mechanizmy stosowane przez Instagram, Facebook i YouTube, takie jak przewijanie czy systemy rekomendacyjne, mogą prowadzić do uzależnienia i stanowić podstawę odpowiedzialności cywilnej. Powódka otrzymała odszkodowanie w wysokości 3 mln dolarów. Zasądzona kwota została podzielona w proporcjach: 70 proc. od Meta, a 30 proc. od YouTube.

Ten precedensowy wyrok może okazać się znacznie bardziej kosztowny dla firm technologicznych. Setki użytkowników wniosły już podobne pozwy, a fala roszczeń może doprowadzić do zmian w mechanizmach stosowanych przez platformy. Przypomnijmy, w 2021 r. była pracownica Facebooka sygnalistka Frances Haugen ujawniła, iż platforma stosowała algorytmy, które wyżej oceniały polaryzacyjne i nienawistne przekazy.

W podobnym czasie zapadł również istotny wyrok w stanie Nowy Meksyk. Ława przysięgłych uznała, iż Meta świadomie bagatelizowała ryzyka dotyczące wykorzystywania dzieci i nie zapobiegła przestępstwom na tle seksualnym. W efekcie zasądzono karę w wysokości ok. 375 mln dolarów, jedną z najwyższych w tego typu sprawach przeciwko Big Tech.

Europa stawia na regulację

Unia Europejska obrała inną drogę. Zamiast czekać na rozwój sporów sądowych, stworzyła ramy regulacyjne dla rynku cyfrowego. Najważniejsze przepisy chroniące użytkowników i konkurencję zostały wpisane do:

  • rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/2065 z 19.10.2022 r. w sprawie jednolitego rynku usług cyfrowych oraz zmiany dyrektywy 2000/31/WE (akt o usługach cyfrowych) (Dz.Urz. UE L z 2022 r. Nr 277, s. 1; dalej: DSA);
  • rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/1925 z 14.9.2022 r. w sprawie kontestowalnych i uczciwych rynków w sektorze cyfrowym oraz zmiany dyrektyw (UE) 2019/1937 i (UE) 2020/1828 (akt o rynkach cyfrowych – Digital Markets Act) (Dz.Urz. UE L z 2022 r. Nr 265, s. 1);
  • rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z 27.4.2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych) (Dz.Urz. UE L z 2016 r. Nr 119, s. 1).

To właśnie wokół tych aktów koncentrują się w tej chwili najważniejsze spory z Komisją Europejską. Pod koniec 2025 r. KE nałożyła karę 120 mln euro na platformę X za naruszenia obowiązków transparentności wynikających z DSA. Rozstrzygnięcie dotyczyło art. 25 ust. 1 DSA, zakazującego projektowania, organizowania lub obsługi interfejsów internetowych w sposób wprowadzający odbiorców w błąd, manipulujący ich zachowaniami lub w inny istotny sposób ograniczający zdolność do podejmowania wolnych i świadomych decyzji; art. 39 DSA, dotyczącego obowiązku prowadzenia publicznego repozytorium reklam, oraz art. 40 ust. 12 DSA, zobowiązującego VLOP (Very Large Online Platforms, czyli bardzo duże platformy internetowe) do zapewnienia naukowcom dostępu do danych publicznych na potrzeby badań nad ryzykami systemowymi.

O problemach z realizacją art. 40 ust. 12 DSA KE informowała również w odniesieniu do działalności Meta i TikToka. Zwróciła uwagę na to, iż korzystający z Facebooka czy Instagrama nie mają zapewnionego łatwego dostępu do mechanizmu Notice and Action (zawiadomienie i działanie) umożliwiającego użytkownikom oznaczanie nielegalnych treści, na przykład materiałów ukazujących seksualne wykorzystywanie dzieci oraz treści związanych z działalnością terrorystyczną.

W lutym 2026 r. KE wstępnie stwierdziła, iż funkcje TikToka, takie jak nieustanne przewijanie, automatyczne odtwarzanie, spersonalizowany system rekomendacji i powiadomienia push, sprawiają, iż jego system został zaprojektowany w sposób uzależniający, co narusza DSA. Zwróciła uwagę, iż firma nie stosuje skutecznych zabezpieczeń, by ograniczyć ryzyko uzależnienia użytkowników.

Unijne podejście ma charakter systemowy – jego celem jest nie tylko sankcjonowanie naruszeń, ale także kształtowanie modelu funkcjonowania serwisów społecznościowych. W centrum znajdują się takie wartości jak ochrona użytkowników, przejrzystość działania algorytmów oraz zapewnienie uczciwej konkurencji. Takie działania UE znajdują poparcie wśród organizacji pozarządowych, spotykają się jednak ze zdecydowanym sprzeciwem ze strony Białego Domu. Kolejnym problemem jest zapewnienie konkurencyjności europejskich firm. Europejscy przedsiębiorcy z branży cyfrowej postulują ograniczenie obowiązków wynikających z relacji z podmiotami korzystającymi z ich usług. Obawiają się nadmiernego obciążenia w stosunku do firm spoza UE, a co za tym idzie ograniczenia innowacyjności i rozwoju europejskich nowych technologii. Dlatego zaproponowane w Cyfrowym Omnibusie regulacje przewidują m.in. złagodzenie rozwiązań zawartych w rozporządzeniu Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13.6.2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (akt w sprawie sztucznej inteligencji) (Dz.Urz. UE L z 2024 r. Nr 131, s. 1689).

Polska: między wolnością słowa a ochroną użytkowników

Na poziomie krajowym istotnym wyzwaniem pozostaje implementacja DSA. W dyskursie społeczno-politycznym pojawia się napięcie pomiędzy ochroną użytkowników a wolnością wypowiedzi (art. 54 Konstytucji RP). Potrzebne jest wyznaczenie granicy między ochroną młodych użytkowników przed treściami negatywnie wpływającymi na ich zdrowie psychiczne a nadmierną ingerencją w debatę publiczną. Użytkownicy postulują również, by ograniczyć prawo platform do arbitralnego kasowania ich kont. Równolegle trwa dyskusja dotycząca możliwego nadużycia pozycji dominującej, m.in. w kontekście relacji gigantów cyfrowych z wydawcami prasy.

W lutym 2026 r. Prezes UOKiK zwrócił uwagę na problem uzyskania szybkiego i bezpośredniego kontaktu użytkowników Facebooka czy Instagrama z obsługą klienta, na przykład gdy dojdzie do przejęcia konta, sporu o płatność lub utraty dostępu do usługi. Stosowane przez Metę formularze elektroniczne utrudniają skuteczną komunikację, co dotyka podstawowych praw wynikających z ustawy z 30.5.2014 r. o prawach konsumenta (t.j. Dz.U. z 2024 r. poz. 1796). „Jeśli przedsiębiorca zarabia na użytkownikach platformy – czy to przez wyświetlane reklamy, czy przez płatną wersję bez reklam – to ma obowiązek zapewnienia im realnej możliwości kontaktu” – uznał Prezes UOKiK. Spółce grozi kara do 10% rocznego obrotu.

Idź do oryginalnego materiału