Kluczowe staje się więc pytanie o etykę jej wykorzystania w biznesie. Jest to nie tylko pytanie o dobre samopoczucie właścicieli i pozytywne doświadczenia klientów firm. Niezrozumienie lub ignorowanie etycznych aspektów AI może prowadzić do negatywnych konsekwencji społecznych, gospodarczych, a choćby prawnych na dużą skalę. Zastanówmy się zatem nad tą istotną kwestią, analizując nie tylko zagrożenia, ale i korzyści płynące z etycznego podejścia do AI w biznesie.
Czym jest etyka AI?
Etyka AI dotyczy tego, jak technologie oparte na sztucznej inteligencji powinny być projektowane, rozwijane, wykorzystywane i zarządzane w sposób odpowiedzialny i zgodny z wartościami ludzkimi.
Etyka AI w kontekście biznesowym obejmuje głównie kwestie takie jak:
- ochrona prywatności oraz poszanowanie praw użytkowników dotyczących sposobu wykorzystywania ich danych,
- solidność rozwiązań, w tym unikanie błędów wynikających z publikacji niedopracowanych rozwiązań,
- brak dyskryminacji, czyli dbanie o dane, na których uczona jest sztuczna inteligencja w celu unikania reprodukcji uprzedzeń w algorytmach i modelach uczenia maszynowego, a także uważne testowanie wprowadzanych rozwiązań,
- odpowiedzialność firm za tworzone rozwiązania, która obejmuje problemy związane z ochroną prywatności, sposobami wykorzystywania danych, dezinformacją i manipulowaniem zachowaniami użytkowników, oraz
- wpływ sztucznej inteligencji na środowisko, czyli dążenie do tworzenia jak najbardziej efektywnych energetycznie rozwiązań.
Jak etycznie korzystać ze sztucznej inteligencji w biznesie?
Kluczem do etycznego wykorzystania AI w biznesie jest tworzenie transparentnych rozwiązań, czyli dążenie do pełnej przejrzystości tego, jak powstają rozwiązania AI i jakie wykorzystują dane.
Osobną kwestią jest utrzymywanie transparentności, czyli regularne przeglądanie i aktualizowanie działania rozwiązań opartych na sztucznej inteligencji, aby zapewnić, iż nie dochodzi do niezamierzonej dyskryminacji czy naruszeń prywatności.
Innym ważnym aspektem jest zapewnienie, iż pracownicy i klienci są świadomi tego, jak firma wykorzystuje AI i jakie są potencjalne konsekwencje tego wykorzystania. Powinny być one jasno opisane w regulaminie usługi AI dostępnym dla użytkowników.
Źródło: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)
Aby pracować nad etyką AI w lipcu 2023 powstało Frontier Model Forum, skoncentrowane na zapewnieniu bezpiecznego i odpowiedzialnego rozwoju modeli AI. Stworzyły je wiodące firmy rozwijające sztuczną inteligencję, czyli:
- Anthropic – firma odpowiedzialna za czatbota Claude, „zajmująca się bezpieczeństwem i badaniami nad sztuczną inteligencją, która pracuje nad budowaniem niezawodnych, możliwych do interpretacji i sterowalności systemów sztucznej inteligencji”,
- Google – organizacja wykorzystująca sztuczną inteligencję w wielu rozwiązaniach B2B i B2C, oraz udostępniająca czat Google Bard określany jako „eksperyment badawczy”,
- Microsoft – tak jak Google wykorzystujący AI na szeroką skalę, w tym w Bing Chat i Microsoft Image Generator,
- OpenAI – twórcy ChataGPT i Dall-e 3, którzy definiują swoją misję jako „zapewnienie, iż sztuczna inteligencja ogólna przyniesie korzyści całej ludzkości”.
Działanie Forum ma koncentrować się na:
- Wspieraniu bezpiecznego i odpowiedzialnego rozwoju modeli AI,
- Identyfikacji najlepszych praktyk w tej dziedzinie,
- Promowaniu badań nad bezpieczeństwem AI oraz
- Ułatwianiu wymiany informacji między firmami i rządami.
Forum planuje konsultacje społeczne oraz rozmowy z rządami w sprawie sposobów efektywnej współpracy nad dalszymi losami sztucznej inteligencji, a także rozwijanie zastosowań sztucznej inteligencji w ścisłym związku z etyką AI. Na przykład jej aplikację w dziedzinach takich jak łagodzenie zmian klimatu, wykrywanie nowotworów, czy zwalczanie cyberzagrożeń.
Źródło: Frontier Model Forum (www.frontiermodelforum.org)
Dlaczego warto inwestować w etyczne rozwiązania?
Inwestowanie w etyczną AI jest najważniejsze nie tylko z moralnego punktu widzenia, ale także ze względu na strategiczne korzyści biznesowe. Według badań Google 86% konsumentów woli wydawać pieniądze w firmach, których wartości podzielają. Wśród innych, nie mniej kluczowych powodów do rozważenia wdrożenia etyki AI są:
- Zgodność z prawem – etyczne podejście do AI pomaga w przestrzeganiu rosnących regulacji dotyczących ochrony danych i prywatności.
- Unikanie ryzyka reputacyjnego – niewłaściwe wykorzystanie AI może prowadzić do poważnych szkód wizerunkowych. Na przykład IBM został pozwany za rzekome nadużycie danych, Optum oskarżono o tworzenie algorytmów faworyzujących białych pacjentów, a Goldman Sachs o dyskryminację płci podczas udzielania kredytów.
- Długoterminowa opłacalność – etyczna AI zapobiega kosztownym błędom, przynosząc długoterminowe korzyści.
- Społeczna odpowiedzialność – etyczne wykorzystanie AI jest odzwierciedleniem odpowiedzialności społecznej firmy.
Problemy z etyką AI w biznesie
Najbardziej znanym przykładem problemów z etycznym użyciem AI jest nieuprawnione wykorzystanie danych użytkowników: przypadek Facebooka, który zyskał złą sławę, udostępniając Cambridge Analytica, uwikłanej politycznie firmie, dostęp do danych osobowych ponad 50 milionów użytkowników. Ta sytuacja ukazuje ryzyko związane z niewłaściwym wykorzystaniem danych osobowych i wskazuje na potrzebę silnych zasad etycznych i odpowiedzialności w zakresie AI.
Drugim zagrożeniem związanym z etyką AI w biznesie jest kwestia zużycia energii. Chociaż dokładne dane dotyczące ilości energii niezbędnej do szkolenia modelu GPT-4, wykorzystywanego w płatnych wersjach ChatGPT i BingChat, nie zostały ujawnione publicznie, zawiera on ponad 175 miliardów parametrów i został wyszkolony na ponad 45 TB danych. Proces szkolenia wymagał analizy ogromnych ilości danych i optymalizacji parametrów modelu, zaś utrzymanie i aktualizacja działania GPT-4 pociągają za sobą potrzebę intensywnego wykorzystania mocy obliczeniowej i również skutkują dużym zużyciem energii. Dlatego jednym z ważnych problemów związanych z etyką AI jest używanie w biznesie sztucznej inteligencji o minimalnych wymaganiach koniecznych do wykonania planowanych zadań, zamiast korzystania do wszystkich celów z najnowocześniejszych ale najbardziej kosztownych energetycznie modeli.
Trzecim, bardzo ważnym problemem jest dezinformacja i „deepfake”. Tutaj główne problemy etyki AI to:
- oznaczanie treści stworzonych przez generatywną sztuczną inteligencję,
- kontrola nad publikowanymi materiałami – czyli „fact checking” pozwala uniknąć niecelowego szerzenia dezinformacji. Trzeba pamiętać, iż sztuczna inteligencja może „halucynować”, czyli tworzyć bardzo prawdopodobne, ale nieprawdziwe treści,
- niewykorzystywanie wizerunków znanych osób – które dzięki dostępności bardzo łatwo obsadzić w roli narratora wideo wypowiadającego dowolne kwestie.
Podsumowanie
Inwestowanie w etyczną AI jest nie tylko moralnym obowiązkiem, ale także strategiczną decyzją biznesową. Dla małych i średnich przedsiębiorstw oznacza to nie tylko ochronę prywatności i unikanie dyskryminacji, ale również zwrócenie uwagi na dostępność rozwiązań AI dla wszystkich użytkowników. Ważne jest także szkolenie pracowników w zakresie etyki AI, aby zrozumieli zarówno możliwości, jak i ograniczenia tych technologii.
Inwestycja w etyczne rozwiązania AI buduje zaufanie nie tylko wśród klientów, ale również wśród inwestorów i partnerów, stając się fundamentem długoterminowych relacji opartych na transparentności i integralności. Długoterminowa wizja firmy w zakresie etyki AI powinna uwzględniać ciągłe dostosowywanie wytycznych etycznych do nowych osiągnięć technologicznych i zmian społecznych, które wydają się nieuniknionym skutkiem rozwoju AI, aby zapewnić odpowiedzialne i zrównoważone wykorzystanie AI w biznesie.
Marta Matylda Kania,
Założycielka Superpowered by AI.
Opracowuje dla biznesu procesy tworzenia treści przez generatywną sztuczną inteligencję. Interesuje się przyszłością AI w biznesie, pisze zaawansowane prompty i prowadzi szkolenia z ChataGPT dla firm.