Sztuczna inteligencja zagościła w naszym życiu już na stałe, a ponieważ w pracy spędzamy średnio 40,4 godziny tygodniowo[1], to siłą rzeczy chcielibyśmy wykorzystywać też ją w biurze. I choć AI może pomóc w przyspieszeniu świadczenia pracy, a tym samym może stanowić pokusę do jak najczęstszego jej wykorzystywania, niezbędny wydaje się racjonalizm i świadomość w korzystaniu z narzędzi opartych o sztuczną inteligencję, aby minimalizować ryzyka związane z jej użytkowaniem.
AI Act przyjęty
Na wstępie update – AI Act (rozporządzenie o sztucznej inteligencji), o którym pisaliśmy w lutym, został już przyjęty przez Parlament Europejski 13 marca 2024 r. Niedługo później Ministerstwo Cyfryzacji poinformowało o rozpoczęciu prac nad implementacją aktu do polskiego prawa i zaprosiło interesariuszy sektora sztucznej inteligencji do udziału w prekonsultacjach. AI Act ma zostać ogłoszony w Dzienniku Urzędowym Unii Europejskiej pomiędzy majem a lipcem, a czas na jego implementację to 2 lata.
Większość obowiązków związanych z przestrzeganiem przepisów AI Act ma spoczywać na twórcach rozwiązań, a nie na ich użytkownikach, czyli pracodawcach i pracownikach działów HR. Niemniej, jak sygnalizowaliśmy już w lutym, w związku z rozwojem dostępnych narzędzi na rynku opartych o AI warto zastanowić się nad tym, jak pracodawcy powinni chronić swoje firmy od niepożądanych skutków używania sztucznej inteligencji przez pracowników.
Czym pracodawca może ryzykować?
Największym ryzykiem wydaje się być wyciek danych. I nie chodzi tu jedynie o wyciek danych osobowych, choć niebezpieczny i, zgodnie z RODO, wymagający wdrożenia odpowiednich działań. Nieumiejętne korzystanie z narzędzi sztucznej inteligencji może spowodować wyciek informacji poufnych dotyczących planowanych strategii biznesowych czy okazji marketingowych, na które czyhają konkurenci rynkowi, a które to pracodawcy niechybnie chcieliby chronić. Problemy mogą się również pojawić w sferze praw autorskich, zgodnie bowiem z polskim prawem utwór stworzony przez sztuczną inteligencję nie podlega ochronie.
Osobno należy też spojrzeć na obszar rekrutacji. Choć AI pomoże przebrnąć rekruterom przez setki CV w kilka sekund, to nie zawsze może to być zgodne z jedną z podstawowych zasad prawa pracy, którą jest zakaz dyskryminacji. Narzędzia AI są wypełniane danymi, a o ile dane są zebrane w sposób niekompletny bądź niewłaściwy, to będą wadliwie wykorzystywane. Z drugiej strony, może się okazać, iż AI będzie zbierało zbyt dużo danych na temat potencjalnych kandydatów – danych, których pracodawca przetwarzać nie może.
Łatwiej jest przeciwdziałać
Aby zminimalizować materializację wskazanych ryzyk, warto aby pracodawcy rozważyli wprowadzenie odpowiednich zabezpieczeń, w tym – adekwatnych procedur. Dla przykładu, w przestrzeni Internetu dostępnych jest wiele narzędzi do tłumaczenia z jednego języka na drugi, ale jedynie płatne wersje mogą ochronić od wycieku tłumaczonych treści, którego późniejsze zatrzymanie jest prawdopodobnie niemożliwe. Zasadnym byłoby zatem ustalić politykę firmy odnośnie do narzędzi AI oraz wprowadzić procedurę korzystania z nich – tych zarówno udostępnianych przez pracodawcę, jak i powszechnie dostępnych w Internecie. Dobrym rozwiązaniem będzie też przeszkolenie pracowników z zagrożeń, jakie wiązać mogą się z nieprawidłowym korzystaniem z takich narzędzi. AI jest w końcu tylko sztuczną inteligencją i bez wkładu człowieka nie na wiele się przyda. Dodatkowo, znając możliwe ryzyka, pracownicy będą pamiętać o zachowaniu wymagań bezpieczeństwa. Warto rozważyć też zablokowanie dostępu do pewnych stron, o ile pracodawca nie chce, aby używano dane narzędzie.
Zabezpieczyć można się też prawnie
Wprowadzając do firmy narzędzia sztucznej inteligencji, niezbędną wydaje się również weryfikacja, jak wyglądają podpisywane przez pracowników zakazy konkurencji czy umowy o zachowaniu poufności, a następnie dopasowanie ich do nowej rzeczywistości. Odpowiednie regulacje można też wprowadzić na poziomie zakładowym poprzez określenie obowiązków pracowników związanych z użytkowaniem narzędzi AI w regulaminie pracy. Za ich nieprzestrzeganie pracowników można karać, m.in. karą upomnienia czy nagany.
Choć do wycieku może dojść bez względu na działania pracodawcy, to odpowiednie regulacje dają mu możliwość szybszego rozstania się z pracownikiem lub choćby dochodzenia od niego odszkodowania.
***
Choć na krajowe regulacje dotyczące sztucznej inteligencji przyjdzie nam jeszcze poczekać, to tematu AI w biurze nie da się pozostawić samego sobie. Pracodawcy dbający o profilaktykę, powinni podjąć proaktywne działania, aby zagwarantować bezpieczeństwo przystosowania sztucznej inteligencji w środowisku pracy, od czego nie ma już powrotu.
[1] https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Hours_of_work_-_annual_statistics#General_overview