Zarządzanie ryzykiem HR a zastosowanie sztucznej inteligencji, czyli compliance w firmie

10 miesięcy temu

Zgodność, czyli czym jest compliance w firmach

W procesach biznesowych wielu organizacji coraz częściej wykorzystywane są narzędzia powstałe na bazie generatywnej sztucznej inteligencji. Z punktu widzenia bezpieczeństwa prawnego najważniejsze jest, by zastosowanie AI w firmach odbywało się w sposób kontrolowany i świadomy.

Compliance to: zastosowanie się, stosowanie się, podporzadkowanie się.

W środowisku biznesowym, na płaszczyźnie firmy, przedsiębiorstwa, compliance to zbiór przepisów, uregulowań, procedur i rozwiązań zapewniających funkcjonowanie podmiotu zgodnie z przepisami prawa. Wynikać mogę one z kodeksu cywilnego, prawa pracy, prawa podatkowego. Compliance to także identyfikacja ryzyk i przeciwdziałanie nim oraz raportowanie potencjalnych zagrożeń.

Czym zajmuje się specjalista compliance?

Rolą samodzielnego specjalisty lub działu ds. zapewnienia zgodności jest:

  • minimalizowanie ryzyka związanego z prowadzeniem działalności firmy
  • identyfikacja ryzyk i zapobieganie naruszeniom
  • wyeliminowanie i przeciwdziałanie procesom zachodzącym w organizacji, które są niezgodne z obowiązującymi przepisami prawa oraz regulacjami wewnętrznymi – również na płaszczyźnie norm etycznych i społecznych.

Czy sztuczna inteligencja to nowa maszyna parowa?

Z pomocą może przyjść zastosowanie generatywnej sztucznej inteligencji w procesach biznesowych związanych z compliance. De facto, w swojej najprostszej formie, AI funkcjonuje w firmach od wielu lat w postaci np. automatyzacji, wykonywania cyklicznych i powtarzalnych obliczeń/zapytań w systemach informatycznych, czy też w robotach przemysłowych.

Wraz z postępem technologicznym, rozwój AI wszedł na wyższy poziom. Ostatnie miesiące to już kolejne, bardziej zaawansowane rozwiązania w postaci m.in. Chat GPT 3.5 i 4.0, a już mówi się o 4.5 czy choćby 5.0. Dziś AI może m.in:

  • poprowadzić rozmowę,
  • prowadzić pojazdy,
  • tworzyć treści,
  • tworzyć melodie,
  • tworzyć obrazy,
  • diagnozować i wspomagać leczenie (ChatGPD).

AI Act: Nowe ramy prawne dla sztucznej inteligencji w Europie

Korzystanie z narzędzi AI jest dużym wsparciem, ale równocześnie, niesie za sobą ryzyko. Ważne jest, by korzystanie z nowoczesnych technologii odbywało się to w sposób kontrolowany. W Unii Europejskiej realizowane są prace nad AI Act, który ma ustanowić:

  • ramy prawne dla korzystania z AI,
  • określić wymogi dla systemów AI,
  • wskazać zakazane praktyki dla systemów AI,
  • ryzyka i obowiązki spoczywające na operatorach systemów AI.

A jaka w tym rola compliance? To przede wszystkim dostosowanie wewnętrznych procedur obowiązujących w firmie do ryzyka stwarzanego przez określone działania związane z AI. To szukanie punktu równowagi między ograniczaniem ryzyka, a zachęcaniem do innowacyjności i odpowiedzialnego rozwoju. Wśród zalet takiego podejścia wymienia się m. in. możliwość wczesnej interwencji regulacyjnej przy jednoczesnym zachowaniu wymagań dotyczących dostosowania się do korzystania z AI.

Raport EY – jak polskie firmy wdrażają AI

Zgodnie z raportem „Raport EY – jak polskie firmy wdrażają AI” opublikowanym 10 stycznia 2024, wdrożenie AI w Polsce jest na bardzo różnym poziomie. Najczęściej wykorzystywane jest w obszarze obsługi klienta i sprzedaży, odpowiednio 50% i 40%, a w obszarze compliance to zaledwie 6%. W raporcie czytamy, iż 93% spośród ankietowanych firm w ciągu najbliższych 18 miesięcy planuje znacznie zwiększyć wydatki na wdrożenie AI związane z usprawnieniem procesów wewnętrznych, czyli w obszarze compilance.

Prawa autorskie, czyli kierunki rozwoju AI w kontekście compliance

Na ten moment brak regulacji prawnych przystających do rzeczywistości. Jedynym aktem prawnym, który (teoretycznie) mógłby stworzyć ramy dla zastosowania generatywnej sztucznej inteligencji jest ustawa z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych, w obecnym brzmieniu obowiązująca od 6 grudnia 2022 roku. Niestety, nijak ma się ona jednak do możliwości zastosowania sztucznej inteligencji, gdyż rezultat powstały dzięki sztucznej inteligencji nie stanowi utworu w rozumieniu ustawy.

Przedmiotem prawa autorskiego jest każdy przejaw działalności twórczej o indywidualnym charakterze, ustalony w jakiejkolwiek postaci, niezależnie od wartości, przeznaczenia i sposobu wyrażenia (utwór).

Art. 1 ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych

Praca z narzędziami sztucznej inteligencji ma pewne ryzyko. To człowiek ma pomysł, a AI tworzy na podstawie danych wgranych do systemu. Dane te zostały stworzone lub wygenerowane przez inne systemy lub osoby trzecie. Tak powstałe dzieło może naruszać prawa osób trzecich, o czym trzeba pamiętać.

Idź do oryginalnego materiału