
Decyzja Mety o odmowie podpisania unijnego AI Code of Practice to sygnał alarmowy dla użytkowników w Unii Europejskiej. Korporacja, która już nieraz łamała granice prywatności, tym razem kwestionuje prawa konsumentów do przejrzystości i ochrony danych.
Apelując do największych graczy na rynku AI Unia Europejska przygotowała Code of Practice for general-purpose AI models – dobrowolny zestaw zasad mający wspomóc wdrożenie wymagań wynikających z nadchodzącej AI Act. Zapisy kodeksu obejmują m.in.:
- Regularne udostępnianie dokumentacji opisującej działanie modeli oraz stosowane dane.
- Zakaz trenowania na materiałach pozyskanych nielegalnie (np. pirackie treści).
- Szybką realizację żądań właścicieli praw autorskich w zakresie wycofania ich utworów z zestawów treningowych.
Ma to zapewnić transparentność, odpowiedzialność i poszanowanie własności intelektualnej – czyli fundamenty ochrony użytkowników, w tym również Polaków.
Jednak już na starcie pojawiły się głosy dużych firm, iż to posunięcie idzie za daleko. W obozie krytyków znalazły się m.in. Meta, Microsoft, Google czy Anthropic. Pierwsi z nich postawili ultimatum: Podpiszemy, jak nam się spodoba – czyli adekwatnie wcale.
Nadmierne wymogi czy usprawiedliwiony sprzeciw?
Joel Kaplan, dyrektor ds. globalnych spraw w Meta, skrytykował kodyfikację w ostrych słowach: Europa zmierza w złym kierunku, wprowadzając prawne niejasności i wymogi wykraczające poza zakres AI Act. W uproszczeniu: Meta staje w opozycji do przepisów, które – w jej opinii – dławią rozwój i wdrażanie nowoczesnych modeli AI w Europie oraz hamują lokalne innowacje. To zarzut o tyle zrozumiały, iż w grę wchodzą miliardy dolarów zainwestowane w rozwój dużych modeli językowych czy systemów rozpoznawania obrazów.
Meta jawi się nadętym dyktatorem, który brzydzi się audytem własnych algorytmów. Dla obywateli UE, w tym Polaków, oznacza to mniejsze gwarancje dotyczące:
- Pełnej informacji o tym, jakie dane trenują modele.
- Sposobu wykorzystywania treści tworzonych przez użytkowników.
- Prawa do skargi w przypadku naruszenia prywatności czy własności intelektualnej.
Meta argumentuje, iż dobrowolny Kodeks zbyt często nakłada obowiązki niezwiązane z finalnym AI Act, powodując prawne niepewności. Bez udziału Mety dokument może być martwy. A to oznacza, iż miliardy użytkowników Facebooka, Instagrama czy WhatsAppa wciąż będą poruszać się po terenie półprzeźroczystej strefy, gdzie granice między ochroną praw a komercyjnym wykorzystywaniem danych są zbyt rozmyte.
Krytycy – w tym sama Meta – twierdzą, iż wystarczy surowy AI Act w wersji ustawowej, bez dodatkowego Kodeksu. Formalnie to prawda: od 2 sierpnia wszystkie modele AI ogólnego przeznaczenia i wysokiego ryzyka muszą spełniać rozporządzenie UE, niezależnie od dalszych porozumień.
Meta straciła okazję, by pokazać, iż wielka korporacja potrafi wziąć odpowiedzialność za wpływ swojego AI na obywateli UE
Zamiast tego wybiera retorykę walki z i przenosi ciężar zapewnień o bezpieczeństwie z własnych barków na legislatorów. Dla użytkowników w Polsce to lekcja jednoznaczna: prawdziwa ochrona prywatności i własności intelektualnej nie przyjdzie od Mety, ale wyłącznie dzięki zdecydowanej postawie regulatorów i aktywności społeczeństwa. Warto pytać, domagać się jawności i rozliczać – zanim znów zostaniemy pionkami w kolejnym projekcie giganta.