Ochrona prawna przed deepfake’ami – jak chronić swoje dobra osobiste w erze AI?

kkz.com.pl 1 dzień temu

W dobie gwałtownego rozwoju sztucznej inteligencji, szczególnie technologii generatywnej AI, stajemy przed bezprecedensowymi wyzwaniami prawnymi. Technologie deepfake, pozwalające na tworzenie realistycznych, ale nieprawdziwych treści audio i wideo, stanowią poważne zagrożenie dla dóbr osobistych. Wizerunek, głos czy reputacja – fundamentalne składniki naszej tożsamości – mogą zostać naruszone dzięki kilku kliknięć.

Naruszenia dóbr osobistych dzięki technologii AI przybierają coraz bardziej wyrafinowane formy, stawiając przed systemem prawnym nowe wyzwania. Dotychczasowe środki ochrony prawnej muszą zostać dostosowane do cyfrowej rzeczywistości, w której granica między prawdą a manipulacją staje się coraz bardziej rozmyta. Dla osób dotkniętych tym problemem najważniejsze staje się pytanie: jakie narzędzia prawne są dostępne, by skutecznie chronić swoje dobra osobiste przed zagrożeniami, które niesie ze sobą generatywna sztuczna inteligencja?

Czym dokładnie są deepfake’i i jak działają technologie generatywnej AI?

Deepfake to termin określający syntetyczne media tworzone przy użyciu zaawansowanych algorytmów uczenia maszynowego, które pozwalają manipulować lub generować treści audiowizualne przedstawiające osoby mówiące lub robiące rzeczy, których w rzeczywistości nigdy nie powiedziały ani nie zrobiły. Technologia ta wykorzystuje tzw. sieci neuronowe typu GAN (Generative Adversarial Networks), które „uczą się” na podstawie istniejących materiałów, a następnie generują nowe, często trudne do odróżnienia od autentycznych.

Generatywna sztuczna inteligencja wykracza jednak poza same deepfake’i. Obejmuje ona szerszy zakres narzędzi zdolnych do tworzenia tekstów, obrazów, muzyki czy wideo na podstawie ogromnych zbiorów danych. Platformy takie jak DALL-E, Midjourney czy GPT-4 potrafią generować realistyczne treści na podstawie prostych poleceń tekstowych, co stwarza zarówno ogromne możliwości kreatywne, jak i potencjał do nadużyć.

Szczególnie niepokojące jest tempo rozwoju tych technologii – jeszcze kilka lat temu deepfake’i były łatwe do zidentyfikowania przez przeciętnego odbiorcę. Dziś wymagają często specjalistycznej analizy, by odróżnić je od autentycznych nagrań, co stanowi bezpośrednie zagrożenie dla ochrony wizerunku i innych dóbr osobistych.

Jakie dobra osobiste są najczęściej naruszane przez technologie deepfake?

W kontekście nadużyć związanych z technologiami deepfake i generatywnej AI, najczęściej naruszanymi dobrami osobistymi są wizerunek, cześć (dobre imię), prywatność oraz godność. Wizerunek jest szczególnie narażony, gdyż technologie te pozwalają na umieszczenie twarzy osoby w dowolnym kontekście, często kompromitującym lub fałszywym.

Cześć i dobre imię mogą zostać naruszone, gdy wygenerowane treści przedstawiają daną osobę w nieprawdziwym świetle, przypisując jej wypowiedzi lub działania, których nigdy nie podjęła. Jest to szczególnie groźne w przypadku osób publicznych, których reputacja stanowi istotny aspekt działalności zawodowej.

Prywatność również pada ofiarą technologii deepfake, gdy algorytmy AI tworzą treści sugerujące istnienie prywatnych materiałów (np. intymnych nagrań), których w rzeczywistości nie ma. Taki rodzaj naruszeń może prowadzić do poważnych konsekwencji emocjonalnych i społecznych dla ofiar.

Podstawy prawne ochrony dóbr osobistych w polskim systemie prawnym

Polski system prawny zapewnia kompleksową ochronę dóbr osobistych, która może być wykorzystana również w kontekście naruszeń związanych z AI. Fundamentem tej ochrony jest art. 23 Kodeksu cywilnego, który wymienia przykładowy katalog dóbr osobistych podlegających ochronie, w tym zdrowie, wolność, cześć, swobodę sumienia, nazwisko, pseudonim, wizerunek i tajemnicę korespondencji.

Art. 24 Kodeksu cywilnego stanowi natomiast podstawę do dochodzenia roszczeń w przypadku naruszenia dóbr osobistych. Przepis ten przewiduje możliwość żądania zaniechania działania zagrażającego dobrom osobistym, dopełnienia czynności potrzebnych do usunięcia skutków naruszenia oraz zadośćuczynienia pieniężnego lub zapłaty odpowiedniej sumy na wskazany cel społeczny.

Warto również wspomnieć o ochronie wynikającej z przepisów o prawie autorskim (w zakresie wizerunku) oraz o ochronie danych osobowych (RODO), które stanowią dodatkowe narzędzia prawne w walce z nadużyciami technologii AI.

Jakie konkretne środki ochrony prawnej można zastosować wobec deepfake’ów?

W przypadku naruszenia dóbr osobistych przez treści typu deepfake, poszkodowany może skorzystać z kilku ścieżek prawnych. Pierwszą z nich jest powództwo cywilne o ochronę dóbr osobistych, które może obejmować:

  • Żądanie zaniechania dalszego rozpowszechniania szkodliwych treści
  • Żądanie usunięcia skutków naruszenia, np. poprzez publikację sprostowania
  • Żądanie zadośćuczynienia za doznaną krzywdę
  • Żądanie odszkodowania, jeżeli naruszenie spowodowało wymierną szkodę majątkową

Drugą ścieżką jest postępowanie karne, gdyż niektóre formy deepfake’ów mogą wypełniać znamiona przestępstw takich jak zniesławienie (art. 212 k.k.), zniewaga (art. 216 k.k.) czy stalking (art. 190a k.k.). W przypadku treści o charakterze pornograficznym, wykorzystanie czyjejś podobizny bez zgody może być kwalifikowane jako przestępstwo przeciwko wolności seksualnej.

Czy można uzyskać zabezpieczenie roszczeń przed rozstrzygnięciem sprawy?

W sprawach dotyczących naruszeń dóbr osobistych przez deepfake’i kluczowa jest szybkość reakcji. Polski system prawny przewiduje możliwość uzyskania zabezpieczenia roszczeń jeszcze przed wytoczeniem powództwa głównego. Zgodnie z art. 730 i następnymi Kodeksu postępowania cywilnego, sąd może wydać postanowienie o zabezpieczeniu, jeżeli uprawdopodobniono roszczenie oraz interes prawny w udzieleniu zabezpieczenia.

W kontekście deepfake’ów zabezpieczenie może polegać na nakazie natychmiastowego usunięcia lub zablokowania dostępu do spornych treści. Jest to szczególnie istotne, gdyż w środowisku internetowym szkodliwe materiały mogą rozprzestrzeniać się błyskawicznie, powodując nieodwracalne szkody dla reputacji poszkodowanego.

Uzyskanie takiego zabezpieczenia wymaga profesjonalnego przygotowania wniosku i przedstawienia przekonujących dowodów. Kancelaria Kopeć Zaborowski Adwokaci i Radcowie Prawni specjalizuje się w sprawach dotyczących ochrony dóbr osobistych w środowisku cyfrowym i oferuje kompleksowe wsparcie w zakresie szybkiego reagowania na naruszenia związane z technologiami AI.

W jaki sposób dokumentować naruszenia dóbr osobistych przez deepfake’i?

Właściwa dokumentacja naruszeń jest kluczowym elementem skutecznego dochodzenia roszczeń. W przypadku deepfake’ów i innych treści generowanych przez AI warto:

  1. Wykonać zrzuty ekranu lub nagrania ekranowe pokazujące sporną treść w kontekście (np. na danej stronie internetowej)
  2. Zabezpieczyć oryginalne pliki, jeżeli to możliwe
  3. Udokumentować źródło pochodzenia materiału (adres URL, data publikacji, dane administratora strony)
  4. Zachować wszystkie informacje o osobach zaangażowanych w tworzenie lub rozpowszechnianie treści
  5. Uzyskać poświadczenie notarialne zabezpieczonych dowodów

W niektórych przypadkach pomocna może być również analiza biegłego, który potwierdzi, iż dana treść została wygenerowana przez AI, a nie jest autentycznym materiałem. Takie ekspertyzy zyskują na znaczeniu, gdy sprawca twierdzi, iż opublikowany materiał jest prawdziwy.

Odpowiedzialność platform internetowych za deepfake’i – czy hostingodawcy ponoszą odpowiedzialność?

Kwestia odpowiedzialności pośredników internetowych, takich jak platformy społecznościowe czy serwisy hostingowe, za treści typu deepfake jest złożona. Zgodnie z ustawą o świadczeniu usług drogą elektroniczną, która implementuje dyrektywę o handlu elektronicznym, dostawcy usług hostingowych nie ponoszą odpowiedzialności za przechowywane dane, jeżeli nie wiedzą o bezprawnym charakterze tych danych.

Jednakże, po otrzymaniu wiarygodnej wiadomości o bezprawnym charakterze treści (tzw. notice and takedown), usługodawca ma obowiązek niezwłocznie uniemożliwić do nich dostęp. Niepodporządkowanie się temu obowiązkowi może skutkować odpowiedzialnością odszkodowawczą platformy.

W praktyce oznacza to, iż w przypadku wykrycia deepfake’a naruszającego dobra osobiste, pierwszym krokiem powinno być formalne zawiadomienie administratora platformy. Prawidłowo sformułowane zawiadomienie zwiększa szanse na szybkie usunięcie szkodliwych treści i może stanowić dowód w ewentualnym postępowaniu przeciwko platformie.

Transgraniczny charakter naruszeń – przed sądem którego kraju dochodzić roszczeń?

Internet nie zna granic, co sprawia, iż naruszenia dóbr osobistych przez deepfake’i często mają charakter transgraniczny. Powstaje więc pytanie o adekwatność sądu i prawo adekwatne dla takich spraw. Zgodnie z rozporządzeniem Bruksela I bis (nr 1215/2012), osoba poszkodowana może wytoczyć powództwo:

  • W kraju, gdzie pozwany ma miejsce zamieszkania lub siedzibę
  • W kraju, gdzie nastąpiło zdarzenie wywołujące szkodę
  • W kraju, gdzie szkoda się ujawniła

W kontekście naruszeń internetowych, Trybunał Sprawiedliwości UE przyjął, iż miejscem ujawnienia się szkody może być każdy kraj, w którym treści są dostępne, pod warunkiem, iż dobra osobiste poszkodowanego są tam chronione. Jednakże w takim przypadku można dochodzić jedynie odszkodowania za szkodę powstałą na terytorium tego państwa.

Dla pełnej ochrony warto więc rozważyć postępowanie w kraju, gdzie naruszyciel ma siedzibę lub gdzie serwer hostingowy jest zlokalizowany.

Czy można zapobiegać naruszeniom dóbr osobistych przez deepfake’i?

Ochrona prewencyjna przed naruszeniami związanymi z deepfake’ami jest trudniejsza niż reagowanie na już istniejące naruszenia, ale istnieją pewne strategie, które mogą pomóc:

Regularne monitorowanie internetu pod kątem własnego wizerunku poprzez usługi alertów i monitoringu mediów pozwala na wczesne wykrywanie potencjalnych naruszeń. Osoby publiczne oraz firmy mogą rozważyć inwestycję w profesjonalne narzędzia do monitoringu reputacji online.

Warto również zainwestować w edukację społeczeństwa i budowanie świadomości na temat zjawiska deepfake’ów. Rozpoznawanie sygnałów ostrzegawczych może pomóc w ograniczeniu rozprzestrzeniania się szkodliwych treści i zmniejszeniu ich wpływu.

Dla firm i osób szczególnie narażonych na tego typu ataki zaleca się opracowanie planu kryzysowego na wypadek pojawienia się fałszywych treści. Szybka i zdecydowana reakcja może znacząco ograniczyć potencjalne szkody wizerunkowe.

Najnowsze orzecznictwo dotyczące ochrony przed deepfake’ami w Polsce i UE

Orzecznictwo dotyczące deepfake’ów jest dopiero w fazie rozwoju, ale już teraz można zaobserwować pewne tendencje. Sądy europejskie coraz częściej uznają, iż manipulacja wizerunkiem dzięki AI stanowi poważne naruszenie dóbr osobistych, zasługujące na szczególną ochronę prawną.

Interesującym przykładem jest orzeczenie niemieckiego sądu w Berlinie z 2021 roku, który przyznał znaczne zadośćuczynienie osobie, której wizerunek został wykorzystany w deepfake’u o charakterze pornograficznym. Sąd podkreślił szczególną szkodliwość takich naruszeń ze względu na ich realistyczny charakter i trudność w przeciwdziałaniu ich rozprzestrzenianiu.

Na poziomie Unii Europejskiej realizowane są prace nad Aktem o usługach cyfrowych (Digital Services Act), który ma wprowadzić bardziej rygorystyczne zasady odpowiedzialności platform internetowych za szkodliwe treści, w tym deepfake’i. Nowe regulacje prawdopodobnie znacząco wzmocnią pozycję osób poszkodowanych.

Podsumowanie: skuteczna strategia ochrony dóbr osobistych w erze generatywnej AI

W obliczu rosnącego zagrożenia ze strony deepfake’ów i innych treści generowanych przez AI, skuteczna ochrona dóbr osobistych wymaga kompleksowego podejścia. najważniejsze elementy strategii obejmują:

  • Szybkie reagowanie na naruszenia poprzez formalne wezwania do usunięcia treści
  • Profesjonalne zabezpieczanie dowodów naruszenia
  • Korzystanie z dostępnych środków prawnych, zarówno cywilnych, jak i karnych
  • Wnioskowanie o zabezpieczenie roszczeń w pilnych przypadkach
  • Prewencyjne monitorowanie internetu pod kątem potencjalnych naruszeń

Ochrona przed zagrożeniami związanymi z generatywną AI staje się coraz ważniejszym aspektem prawa cywilnego. W obliczu tych wyzwań, profesjonalne wsparcie prawne jest nieocenione. Kancelaria Kopeć Zaborowski Adwokaci i Radcowie Prawni oferuje kompleksową pomoc w zakresie ochrony dóbr osobistych przed naruszeniami związanymi z nowymi technologiami, łącząc tradycyjną wiedzę prawniczą z rozumieniem specyfiki cyfrowego środowiska.

Postęp technologiczny nie powinien oznaczać rezygnacji z ochrony fundamentalnych praw człowieka, w tym prawa do ochrony wizerunku i godności. Skuteczne egzekwowanie tych praw w cyfrowej rzeczywistości wymaga jednak specjalistycznej wiedzy i doświadczenia, zwłaszcza w tak dynamicznie rozwijającej się dziedzinie jak prawo nowych technologii.

Bibliografia:

  • Ustawa z dnia 23 kwietnia 1964 r. – Kodeks cywilny (Dz.U. 1964 nr 16 poz. 93 z późn. zm.)
  • Ustawa z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczną (Dz.U. 2002 nr 144 poz. 1204 z późn. zm.)
  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) nr 1215/2012 z dnia 12 grudnia 2012 r. w sprawie jurysdykcji i uznawania orzeczeń sądowych oraz ich wykonywania w sprawach cywilnych i handlowych
  • Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych (RODO)
  • Projekt rozporządzenia Parlamentu Europejskiego i Rady w sprawie sztucznej inteligencji (Artificial Intelligence Act)
  • Orzecznictwo Trybunału Sprawiedliwości Unii Europejskiej w sprawach C-509/09 i C-161/10 (eDate Advertising) dotyczące jurysdykcji w sprawach o naruszenie dóbr osobistych w internecie

Autor: adw. Aleksandra Pyrak-Pankiewicz, Szef Działu Prawa Mediów i IP

E-mail: [email protected]

tel.: +48 22 501 56 10

Zobacz profil na LinkedIn

Idź do oryginalnego materiału