Microsoft zapłaci za działania AI

7 miesięcy temu

Microsoft zapowiedział, iż gdy jego usługi Copilot – a w szczególności wygenerowane przez nią wyniki – naruszą cudze prawa autorskie, zwolni z odpowiedzialności za to swoich użytkowników. W praktyce zatem pokryje koszty sądowe i zapłaci ewentualne odszkodowanie.

Jak zauważa dr Gabriela Bar, radczyni prawna z Kancelarii Szostek_Bar i Partnerzy, samo rozwiązanie nowe nie jest. Zmienia się jednak jego kontekst, bo zastosowanie AI wiąże się z prawną niepewnością. Jak to będzie wyglądało, czas pokaże, ale specjalistka przewiduje, iż zależy to od konkretnych postanowień zawartych w umowach oferowanych przez Microsoft jego klientom.

– Niemniej ta inicjatywa jest ważna, bo w generatywnej AI nie ma jednoznacznych odpowiedzi co do praw autorskich i ich naruszeń – zauważa. Podkreśla, iż „sami twórcy takich narzędzi AI nie wiedzą, w jaki sposób dochodzi do wytworzenia konkretnego wyniku, a one same – oparte na głębokich sieciach neuronowych – stanowią swoiste czarne skrzynki.

Bezpieczniki warunkiem pomocy

To nie pierwsze w tej sferze działania technologicznych gigantów, które pracują m.in. nad oznaczeniami w postaci „znaków wodnych” mających odróżnić wytwory AI od tego, co wyszło spod ręki człowieka.

– W kontekście odpowiedzialności większe znaczenie mają jednak oznaczenia zakazujące korzystania z materiałów chronionych na potrzeby uczenia systemów generatywnej AI – dodaje mec. Bar. I ocenia, iż jako użytkownicy nie jesteśmy w stanie ocenić, jakie dane AI przetworzyła, by wygenerować konkretny wynik i czy mogła skorzystać z nich zgodnie z prawem.

Ekspertka wskazuje, iż zapowiedź Microsoftu jest jak najbardziej możliwa do wdrożenia w polskim systemie prawnym.

– Z pewnością w każdym konkretnym przypadku doprecyzowania będzie wymagała kwestia, czy to zwolnienie dotyczyć będzie także dalszych użytkowników, np. innych podmiotów z grupy kapitałowej lub użytkowników końcowych – tłumaczy Gabriela Bar. Zastrzega przy tym, iż zwolnienie użytkownika z odpowiedzialności uzależnione jest od korzystania przez niego z filtrów, stworzonych celem ograniczenia ryzyka naruszenia praw autorskich. – jeżeli użytkownik je wyłączy, ochrona nie będzie mu przysługiwała – wyjaśnia ekspertka od prawa nowych technologii. I dodaje, iż to samo dotyczy klienta, który celowo spróbuje wygenerować treści naruszające prawo lub wykorzystać materiały, do których prawa autorskie albo licencje mu nie przysługują.

Co z treningiem AI

Na bufory bezpieczeństwa zwraca uwagę również radczyni prawna Monika Kamińska.

– W przypadku, w którym klient wyłączy te zabezpieczenia, Microsoft nie przyjmie odpowiedzialności odszkodowawczej. Podobnie, o ile klient będzie wykorzystywać materiały, mając świadomość, iż naruszają one prawa autorskie – precyzuje. Specjalistka również zaznacza, iż klauzule odszkodowawcze są standardowo stosowane w tego rodzaju umowach i stanowią jedno z najważniejszych postanowień w nich zawieranych.

– W tym przypadku na uwagę zasługuje przyjęcie rozszerzonej odpowiedzialności Microsoftu, która obejmuje również dane wyjściowe wykorzystywane przez klienta – zauważa założycielka start-upu Truesty.

W jej opinii źródłem ewentualnych problemów klientów mogą być de facto dane wykorzystane do wytrenowania modelu AI. Podkreśla, iż Microsoft chce rozwijać technologię i przekonać do korzystania z Copilot pomimo istniejących ryzyk. Rozszerzenie swojej odpowiedzialności odszkodowawczej jest zatem – jej zdaniem – biznesowo uzasadnione.

Na czym polega trenowanie?

Trenowanie sztucznej inteligencji, jak tłumaczył w „Rzeczpospolitej” radca prawny Michał Markiewicz, polega na wgrywaniu utworu do programu, który ma go przetworzyć, a następnie – na jego podstawie – stworzyć schematy, wzorce i sposoby rozumowania. To, co w ten sposób się narodzi, jest zwykle od razu usuwane, ale algorytm i tak otrzymuje potrzebne mu do „nauki” informacje. Taki sposób działania budzi obiekcje samych autorów. Proces twórcy ChatGPT wytoczyła już kanadyjska pisarka Mona Awad i jej amerykański kolega po fachu Paul Tremblay. W złożonym do sądu federalnego w San Francisco pozwie zarzucili, iż przedsiębiorstwo OpenAI złamało prawa autorskie, bo do „trenowania” technologii wykorzystało treści ich książek. Analogiczny pozew do tego samego sądu trafił niedawno za sprawą m.in. zdobywcy nagrody Pulitzera Michaela Chabona.

Idź do oryginalnego materiału