W ostatnich latach w przestrzeni cyfrowej pojawia się coraz więcej stwierdzeń, iż UE „narzuca cyfrową kontrolę” obywatelom i – pod pozorem bezpieczeństwa – ogranicza wolność w sieci. Warto zatem przeanalizować ile w tych zarzutach jest przesady, manipulacji lub braku wiedzy, a ile realnych ryzyk?
Jednym z najczęstszych zarzutów jest, iż UE wprowadzi obowiązek monitorowania wszystkich czatów, by „patrzeć w nasze telefony”. Zwolennicy tego poglądu powołują się na projekt tzw. „Chat Control” – regulacji mającej umożliwić skanowanie treści przesyłanych w komunikatorach w celu wykrywania materiałów seksualnych związanych z wykorzystywaniem dzieci (CSAM). Faktycznie, Unia planuje propozycję regulacji, która może obejmować skanowanie po stronie klienta (client-side scanning) i naruszenie pełnej prywatności komunikacji. Krytycy ostrzegają, iż takie rozwiązania mogą w praktyce osłabić szyfrowanie end-to-end i stać się furtką do nadzoru ogólnego, nie tylko w kontekście CSAM. Jednakże projekt nie przeszedł jeszcze finalnego etapu prawodawczego i zawiera wiele mechanizmów kontroli i ograniczeń przewidzianych w systemie prawa UE.
To prawda, iż część komunikatorów albo dostawców infrastruktury może zostać zobowiązana do współpracy, ale nie ma aktów prawnych (na dziś) nakazujących masowe „skanowanie” wszystkich treści użytkowników bez sądu czy kontroli niezależnych organów.
Inny często powtarzany mit głosi, iż UE reguluje tak rygorystycznie, iż platformy muszą usuwać wszystko, co urzędnik uzna za niewygodne – a więc wolność słowa zostaje stępiona. Często przywołuje się tu Digital Services Act (DSA) jako narzędzie cenzury globalnej.
Rzeczywiście, DSA przewiduje, iż platformy o dużym zasięgu będą musiały przeprowadzać analizę „systemowego ryzyka” (artykuł 34) – czyli oceniać, czy legalne treści mogą mieć negatywny wpływ na debatę publiczną czy procesy wyborcze. Ale tu leży klucz: mowa o legalnych treściach potencjalnie ryzykownych, nie o tym, iż organ UE wskazuje, co dokładnie ma być usunięte. Krytycy ostrzegają, iż to narzędzie może być interpretowane nadmiernie restrykcyjnie, ale samo w sobie nie stanowi automatycznej „cenzury” bez procedur odwoławczych.
Cenzura światowa
W praktyce wiele platform już globalnie dostosowuje politykę moderacji do wymagań europejskich, by uniknąć kar. Ten efekt globalnej autoprezentacji – platformy stosują normy UE choćby poza granicami – bywa interpretowany jako „cenzura światowa”, choć wynika raczej z nacisków rynkowych niż bezpośredniego nakazu UE.
Niektórzy krytycy utrzymują, iż UE manipuluje algorytmami i decyduje, co użytkownik ma oglądać, a co nie – czyli iż obywatele tracą autonomię w internecie. Jest to pośrednio związane z obawami dotyczącymi rekomendacji, profilowania, „czarnych skrzynek” (black boxes). W konsultacjach dotyczących DSA obywatele i organizacje zgłaszali negatywne opinie o systemach rekomendacyjnych, postrzeganych jako naruszające prywatność i mających negatywny wpływ na debatę publiczną.
Jednak UE przyjmuje zasady, które mają przeciwdziałać nadmiernej personalizacji i tajności algorytmów, przewidując wymogi przejrzystości (explainability), prawo do sprzeciwu wobec profilowania, oraz mechanizmy audytu zewnętrznego – choć wiele z tych przepisów dopiero będzie wprowadzane.
Realne polityki UE: między ochroną a ryzykiem
Unia Europejska formalizuje podejście do cyfrowych praw i regulacji także poprzez deklaracje i akty prawne, które – przynajmniej na papierze – stawiają obywatela i jego wolności w centrum. Przykładowo, Europejska Deklaracja Praw i Zasad Cyfrowych została przyjęta, by promować transformację cyfrową opartą na wartościach Unii – obejmuje wolność wyrażania się, prawo do prywatności, ochronę danych i prawo do informacji.
W prawie unijnym kluczową rolę odgrywa DSA oraz Rozporządzenie o Rynkach Cyfrowych (DMA). Wspólnie mają zwiększyć zaufanie do platform, wymusić większą przejrzystość reklam, ograniczyć dominację „strażników dostępu” (gatekeepers) i zapewnić mechanizmy skargi i odwołania.
W kontekście danych osobowych obowiązuje Ogólne Rozporządzenie o Ochronie Danych (RODO). Chociaż wielu krytyków twierdzi, iż to narzędzie kontroli, to w istocie ogranicza m.in. profilowanie bez zgody i daje obywatelom prawa do wglądu, sprostowania i usunięcia danych.
Suwerenność cyfrowa UE
Ponadto istotne znaczenia ma także AI Act – akt regulacyjny, który klasyfikuje systemy sztucznej inteligencji według ryzyka i zakazuje lub ogranicza stosowanie najbardziej kontrowersyjnych rozwiązań. Organizacje zajmujące się prawami cyfrowymi apelują, by ten akt był wdrażany zgodnie z terminem i z zapewnieniem mechanizmów ochronnych.
Jednym z najbardziej kontrowersyjnych projektów była propozycja zmiany aktu eIDAS, która mogła przyznać państwom możliwość wystawiania certyfikatów (trusted CA) bez przejrzystych audytów – co według ekspertów stwarzało ryzyko ataków typu man-in-the-middle.
W przestrzeni publicznej pojawia się zastrzeżenie, iż retoryka „suwerenności cyfrowej UE” może być używana jako uzasadnienie kontrolnych narzędzi w imię dobra publicznego, z akceptacją dla centralizacji decyzji. Przykład: decyzje, co jest „ryzykowną treścią”, mogą być przesuwane od platform do regulatorów i instytucji UE, co rodzi pytania o transparentność i akceptację społeczną. Kontrola treści w imię „suwerenności cyfrowej” staje się centralnym aspektem retoryki UE, ale jej realne narzędzia sięgają często wyłącznie do regulacji platform i wymagań technicznych: moderacji, audytów, dostępu do danych.
Trudne pytania i dylematy
Każdy akt regulacyjny stanowi kompromis między bezpieczeństwem, zwalczaniem nadużyć a wolnością. Gdy prawodawcy zakreślają granice legalności treści i wymagają audytów platform, rodzi się pytanie: kto decyduje, co jest „legalne, ale ryzykowne” oraz jak zapewnić, by mechanizmy kontroli nie prowadziły do cenzury?
Jednym z ryzyk z tym związanych jest zjawisko over-compliance, czyli sytuacja, w której platformy – by uniknąć potencjalnych kar – mogą same stosować nadmierną cenzurę, np. usunąć treści. W ten sposób proces moderacji zautomatyzowanej może stawać się przesadnie ostrożny.
Innym problemem jest kwestia wyznaczania organów odpowiedzialnych za egzekwowanie rozwiązań regulacyjnych. O ile UE deklaruje, iż chce być homocentryczna, w praktyce coraz więcej decyzji przesuwa się do komisji, regulatorów technicznych i ciał eksperckich. W konsekwencji pojawiają się obawy o technokratyzm, czyli sytuację, w której decyzje o tym, co dozwolone, będą podejmowane przez wąskie gremia, bez udziału obywateli czy transparentnej debaty.
Podczas gdy wiele zarzutów o istniejącą już „cyfrową tyranię UE” opiera się na przesadzie, niewiedzy lub manipulacji, prawdziwe wyzwania są realne. UE stara się regulować ogromny, gwałtownie zmieniający się ekosystem platform online, algorytmów i przetwarzania danych – i musi to robić z poszanowaniem wolności i praw jednostki, co nie jest wcale prostym zadaniem.