Sztuczna inteligencja przestała być zabawką do eksperymentów, a stała się realnym elementem codziennego funkcjonowania firm, wraz z całym pakietem ryzyk, odpowiedzialności i nowych obowiązków. Coraz częściej problemem nie jest już to, czy korzystać z AI, ale jak robić to w sposób uporządkowany, bezpieczny i zgodny z prawem. Więcej na ten temat opowiedział r. pr. Jakub Niemoczyński, Compliance Officer w swoim artykule „Sztuczna inteligencja wymaga zarządzania. Jak uregulować korzystanie z AI i co grozi za brak nadzoru?”, który ukazał się w „Dziennku Gazecie Prawnej”.
Autor pisze, iż wiele firm korzysta z AI w sposób nieuporządkowany. Pracownicy używają nieautoryzowanych narzędzi, do których trafiają dane osobowe i informacje poufne, a organizacje nie mają nad tym realnej kontroli. Powoduje to istotne ryzyka prawne, finansowe i wizerunkowe, za które odpowiedzialność ponosi przedsiębiorstwo.
Mec. Niemoczyński podsuwa rozwiązanie jakim jest AI Governance, czyli świadome zarządzanie wykorzystaniem AI w firmie. Nie jest to projekt IT, ale element codziennego zarządzania, podobny do compliance czy zarządzania ryzykiem. Obejmuje m.in. odpowiedzialność człowieka za decyzje podejmowane z udziałem AI, kwestie etyczne, zgodność z prawem (w tym z AI Act, obowiązującym od 1 sierpnia 2024 r.), bezpieczeństwo oraz transparentność co do tego, gdzie i w jakim celu AI jest wykorzystywana.
Czy AI Governance faktycznie przyczyni się do uregulowania korzystania AI w firmach? Więcej ciekawych spostrzeżeń w artykule: https://www.gazetaprawna.pl/firma-i-prawo/artykuly/10636476,sztuczna-inteligencja-wymaga-zarzadzania-jak-uregulowac-korzystanie-z.html#gazetaprawna-no-paylock
