Publiczne udostępnienie darmowej aplikacji ChatGPT prawie rok temu zmieniło diametralnie sposób wykonywania zadań przez wielu pracowników. Dostępność coraz to nowszych narzędzi korzystających z generatywnej sztucznej inteligencji ułatwia i przyspiesza wiele procesów. Pozwala na automatyczne pisanie maili czy sprawozdań, umożliwia skrócenie godzinnej videokonferencji do kilku zdań podsumowania, zapewnia możliwość tworzenia spersonalizowanych grafik i filmów doskonałej jakości w zaledwie kilka sekund, ściąga z barków trud czytania obszernych fragmentów tekstu, pozwala na syntetyzowanie głosu ludzkiego itd.
Szerokie wykorzystanie generatorów treści i grafik rodzi jednak wiele ryzyk prawnych. Pracodawcy powinni wziąć pod lupę w szczególności zagadnienia bezpieczeństwa tajemnicy przedsiębiorstwa, poufności danych osobowych oraz ochrony tworzonych automatycznie dzieł. najważniejsze jest wdrożenie w firmie odpowiednich wewnętrznych zasad korzystania z generatywnej AI i odpowiedzialne zarządzenie ryzykiem z tym związanym.
Generatywna AI w rękach pracowników
Łatwość i szybkość kreowania treści przy zastosowaniu AI ma swoją cenę.
- Pracownik wygenerował grafikę, zamiast stworzyć ją samodzielnie? Istnieje ryzyko, iż organizacja właśnie utraciła w tym zakresie ochronę prawnoautorską.
- Komuś w firmie zdarzyło się przekleić do rozmowy z AI informacje zawierające tajemnicę przedsiębiorstwa? Możliwe, iż organizacja pozbawiła się ochrony prawnej tych informacji, ponieważ nie podjęła stosownych działań w celu utrzymania ich poufności.
- Pracownicy streszczają długie konwersacje mailowe przy użyciu AI? Czy polityka danych osobowych w firmie to uwzględnia?
Niemało tego… A to jedynie wierzchołek góry lodowej.
Co powinien zrobić pracodawca?
Pracodawcy często nie mają wiedzy, iż ich pracownicy korzystają z generatywnej sztucznej inteligencji. A w naszej ocenie powinni. Wiele firm na świecie przyjęło już wewnętrzne polityki w tym zakresie. Z obawy przed wyciekiem informacji poufnych, zakaz korzystania z ogólnodostępnego ChataGPT (oraz podobnych rozwiązań) przez pracowników wprowadzili już m.in. Apple, Amazon, JPMorgan Chase, Bank of America, Citigroup, Deutsche Bank czy Goldman Sachs.
O praktycznych konsekwencjach braku wewnętrznych zasad korzystania z AI przekonał się na własnej skórze chociażby Samsung, którego pracownicy w rozmowach z ChatemGPT używali poufnych informacji firmy, co doprowadziło do wycieku kodów źródłowych. Jednocześnie podaje się, iż choćby do 11% danych firmowych oraz dotyczących klientów wklejanych przez pracowników do ChataGPT jest poufna5.
Zakazać i problem z głowy?
Zakaz stosowania narzędzi generatywnej AI byłby strzałem w kolano pod kątem optymalizowania kosztów prowadzenia działalności. Nie warto rezygnować z podniesionego dzięki AI standardu efektywności pracowników. Korzyści z AI trzeba jednak czerpać odpowiedzialnie.
Pierwsze kroki w procesie zarządzania ryzykiem związanym z generatywną AI, jakie powinni podjąć pracodawcy to m.in.:
- znajomość rynku dostawców generatywnej sztucznej inteligencji (zróżnicowanego zarówno pod względem oferowanych modalności, jak i poziomów ryzyka wiążących się z ich stosowaniem),
- wybór odpowiedniego narzędzia, podyktowany i potrzebami pracowników, i interesem pracodawcy (szczególnie w kontekście ochrony danych oraz
- ustalenie bezpiecznego pod względem prawnym modelu wdrożeń AI w firmie,
- wprowadzenie zasad korzystania z generatorów przez pracowników,
- określenie dopuszczalnych i niedopuszczalnych zastosowań narzędzi opartych na AI.
Są to jednocześnie warunki ograniczenia ewentualnej odpowiedzialności prawnej zarządów firm czy działów HR.
Analiza prawna i idące za nią wdrożenie odpowiedniej polityki stosowania generatywnej AI są kluczem do efektywnej automatyzacji pracy. Pozwolą na uniknięcie późniejszych komplikacji prawnych. Dlatego doradzamy klientom w znalezieniu dostosowanego do potrzeb pracodawcy modelu implementacji AI w firmie oraz wsparamy w dostosowaniu dokumentacji wewnętrznej oraz przeprowadzeniu niezbędnych szkoleń. Zachęcamy do kontaktu.