Rozbieżne podejścia Google i Mety ws. kodeksu AI

1 miesiąc temu

Podejścia Google i Mety ws. kodeksu AI pokazują dwa skrajne stanowiska wobec unijnych regulacji. Podczas gdy Google, wraz z innymi firmami takimi jak OpenAI, zgadza się podpisać dobrowolny kodeks postępowania w zakresie AI, wyrażając jednocześnie obawy o potencjalne spowolnienie rozwoju, Meta stanowczo odmawia, argumentując, iż kodeks ten może ograniczyć innowacje i wykracza poza zakres głównego aktu prawnego, AI Act. Mimo iż kodeks jest dobrowolny, firmy, które go podpiszą (np. Google, OpenAI, Mistral, Anthropic):

zobowiązują się do:

  • transparentnego dokumentowania modeli AI;
  • nieużywania treści pozyskanych niezgodnie z przepisami;
  • respektowania żądań właścicieli treści;

zyskują:

  • zmniejszone obowiązki administracyjne w przyszłości;
  • uproszczoną ścieżkę wdrażania przyszłych obowiązkowych regulacji;
  • ułatwioną procedurę wykazania zgodności z przepisami unijnymi.

Podpisanie kodeksu działa na korzyść reputacyjną – jest sygnałem dobrej woli wobec unijnego Urzędu ds. Sztucznej Inteligencji. Dla firm takich jak Google to również element strategii PR i budowania zaufania. Podejścia Google i Mety ws. kodeksu AI wyraźnie się tu różnią – podczas gdy Google wykorzystuje kodeks jako narzędzie budowania pozytywnego wizerunku, Meta odcina się od tego rozwiązania, narażając się na krytykę.

Z drugiej strony firmy, które nie podpiszą kodeksu (np. Meta, Alibaba, Baidu), uznając przepisy za:

  • „przesadzone”,
  • „zagrożenie dla innowacyjności”,
  • wykraczające poza ramy AI Act,

nadal będą zobowiązane do pełnej zgodności z Aktem o AI. Dodatkowo muszą się liczyć z:

  • większą kontrolą i nadzorem ze strony UE,
  • trudniejszym procesem wykazywania zgodności z regulacjami.

Decyzja Mety może pogłębić jej wizerunek jako „niesfornego dziecka w klasie”.

Co na to nasz Adwokat Patryk Bikowski?

Google i Meta kto ma rację w sprawie kodeksu AI?

Chęć podpisanie kodeksu przez Google to sygnał. Firma chce współpracować z UE i pokazać, iż stawia na odpowiedzialny rozwój AI. Pod względem marketingowym to ruch bezpieczny wizerunkowo, ale Google słusznie ostrzega, iż nadmiar obowiązków ujawniania danych treningowych czy dokumentacji może prowadzić do naruszenia tajemnic handlowych i osłabienia przewagi konkurencyjnej.

Meta obrała inną drogę i kodeksu nie podpisze. Argument? Zbyt duża niepewność prawna i ryzyko, iż dobrowolne zobowiązania staną się w praktyce kolejnym obowiązkiem. Nastąpi zwiększenie biurokracji ponad AI Act. To realna obawa zwłaszcza w branży, gdzie czas wdrożenia nowej technologii bywa kluczowy.

Z prawnego punktu widzenia widać tu klasyczny dylemat regulacyjny: jak połączyć transparentność i bezpieczeństwo z ochroną innowacji? jeżeli przepisy będą zbyt restrykcyjne, firmy mogą zacząć inwestować w rozwój AI gdzie indziej. A Europa zamiast liderem stanie się obserwatorem globalnego wyścigu.

Czytaj więcej o AI – Kto odpowie, gdy AI źle wykona zadanie?

Dzięki wieloletniemu doświadczeniu w doradztwie w transakcjach M&A, zapewniamy skuteczne rozwiązania prawne. jeżeli potrzebują Państwo profesjonalnego wsparcia w tym lub innym zakresie, zapraszamy do zapoznania się z naszą ofertą.

Idź do oryginalnego materiału