Meta zaczyna szkolenie AI na zdjęciach z Facebooka i Instagrama

5 miesięcy temu
Zdjęcie: Meta Llama 2


Meta, właściciel Facebooka i Instagrama, rozpoczyna szkolenie swoich modeli sztucznej inteligencji na postach użytkowników tych platform. Nowa polityka spotkała się z krytyką, zwłaszcza iż nie wszyscy użytkownicy będą mogli łatwo zrezygnować z tego procesu. W Unii Europejskiej i Wielkiej Brytanii proces na razie nie ruszy, bo częściowo spowolniły go urzędy odpowiedzialne za ochronę danych osobowych.

Meta wykorzysta publiczne posty, zdjęcia i podpisy z Facebooka i Instagrama, a także dane z usług zewnętrznych oraz rozmowy z chatbotami AI do szkolenia swoich modeli sztucznej inteligencji. Firma podkreśla, iż nie będzie używać prywatnych wiadomości ani postów oznaczonych jako niepubliczne. Co ważne, użytkownicy z Unii Europejskiej i Wielkiej Brytanii mają możliwość zgłoszenia sprzeciwu wobec wykorzystywania ich postów i zdjęć, co jest wymagane przez prawo ochrony danych osobowych GDPR (RODO). Proces ten nie jest jednak prosty i wymaga wypełnienia formularza, a firma zastrzega sobie możliwość odrzucenia takiego sprzeciwu.

Jeśli sprzeciw zostanie odrzucony, użytkownicy mogą złożyć skargę do odpowiednich organów, które mogą przeprowadzić dochodzenie w sprawie praktyk Meta i nałożyć ewentualne sankcje. Alternatywnie, mogą również rozważyć podjęcie kroków prawnych, choć jest to bardziej kosztowna i skomplikowana droga.

Meta jeszcze przez kilka miesięcy będzie w procesie szkolenia AI omijać dane z UK i UE

Na razie mieszkańcy państw EU i Wielkiej Brytanii mają chwilę oddechu, bo władze zatrzymały na moment cały proces. Niestety tylko na kilka miesięcy, a sprawa wróci zaraz po wakacjach.

Meta powołuje się na tzw. „uzasadniony interes” jako podstawę prawną do przetwarzania danych użytkowników bez ich wyraźnej zgody. Firma twierdzi, iż użycie tych informacji jest niezbędne do zapobiegania oszustwom i poprawy usług. Mimo to użytkownicy wyrażają swoje obawy dotyczące braku kontroli nad wykorzystaniem ich danych do szkolenia AI, zwłaszcza w kontekście potencjalnych nieprzewidzianych konsekwencji czy niewłaściwego wykorzystania danych w przyszłości.

Źródło: CNN, The Standard

Idź do oryginalnego materiału