Spór autorów z Anthropic o trenowanie AI na książkach zakończył się przełomowym wyrokiem. Sąd uznał, iż takie wykorzystanie jest dozwolone, o ile odbywa się na posiadanych przez firmę egzemplarzach.
Sprawa zaczęła się w sierpniu 2024 roku, gdy autorzy tacy jak Andrea Bartz, Charles Graeber i Kirk Wallace Johnson pozwali firmę Anthropic. Zarzucili jej, iż do trenowania swojego modelu AI Claude wykorzystuje miliony książek bez zgody ich twórców, w tym także nielegalnie pobrane kopie z internetu. Autorzy określili działania firmy jako „masową kradzież” i domagali się odszkodowania za naruszenie praw autorskich.
W poniedziałek sędzia federalny William Alsup z San Francisco wydał jednak przełomowy wyrok: uznał, iż trenowanie AI na zeskanowanych, legalnie zakupionych książkach mieści się w granicach dozwolonego użytku i jest „wysoce transformacyjne”. Zdaniem sądu, AI nie kopiuje stylu ani treści autorów, ale uczy się na ich podstawie generować własne teksty, podobnie jak czytelnik inspiruje się przeczytaną książką, by napisać coś nowego. To pierwsza taka decyzja w Stanach Zjednoczonych, która może stać się punktem odniesienia dla innych spraw dotyczących trenowania AI na chronionych treściach.

Dla użytkowników oznacza to, iż narzędzia AI – w tym chatboty, tłumacze czy asystenci – będą trenowane na bogatszych, bardziej wartościowych danych, co przełoży się na wyższą jakość i trafność odpowiedzi. Użytkownicy mogą spodziewać się bardziej zaawansowanych i wszechstronnych narzędzi, które lepiej rozumieją kontekst i są skuteczniejsze w codziennych zadaniach.
Wyrok nie zamyka jednak wszystkich wątków. Sędzia Alsup nakazał Anthropic stawić się na procesie dotyczącym dotychczasowego przechowywania i wykorzystywania pirackich kopii książek w centralnej bibliotece firmy – ten aspekt nie został uznany za dozwolony użytek i może skutkować wysokimi odszkodowaniami. Sprawa ta ma trafić na wokandę pod koniec tego roku.