Human in the loop — co to znaczy w AI?

4 miesięcy temu

Skąd wzięło się pojęcie human in the loop?

Termin „human in the loop” ma swoje korzenie w erze wczesnej informatyki i automatyzacji produkcji. Odnosił się do kluczowej roli, jaką w nadzorowaniu złożonych, zautomatyzowanych systemów odgrywały ludzki osąd i specjalistyczna wiedza. W czasach, gdy komputery były jeszcze stosunkowo proste, ludzie musieli manualnie wprowadzać dane i instrukcje, aby utrzymać działanie skomplikowanych maszyn i procesów przemysłowych.

Jednym z pierwszych przykładów systemów human-in-the-loop była kontrola lotów w NASA. Podczas misji kosmicznych, ludzcy operatorzy stale monitorowali i wprowadzali korekty do zautomatyzowanych systemów nawigacji i sterowania statkami kosmicznymi. Ich interwencje były niezbędne, aby zapewnić bezpieczeństwo i sukces misji w obliczu nieprzewidzianych sytuacji i zmiennych warunków kosmicznych.

Wraz z postępem technologicznym i pojawieniem się bardziej zaawansowanych systemów sztucznej inteligencji koncepcja human-in-the-loop ewoluowała. w tej chwili opisuje ona sposób, w jaki ludzie są angażowani w proces uczenia maszynowego. Choć algorytmy uczenia głębokiego są w stanie przetwarzać ogromne ilości danych, przez cały czas wymagają ludzkiego wkładu, aby uzyskać wiarygodne i etyczne rezultaty. Bez ludzkiego nadzoru systemy te są podatne na szereg ograniczeń i błędów – od niewłaściwej klasyfikacji danych, po utrwalanie szkodliwych uprzedzeń. Dlatego właśnie koncepcja human-in-the-loop stała się fundamentem dla zapewnienia etycznej, przejrzystej i odpowiedzialnej implementacji AI.

Pytanie o przyszłość human in the loop związane jest z pytaniem, dlaczego człowiek powinien brać udział w procesie decyzyjnym. Do tej pory uczestnictwo człowieka było wymuszane niedoskonałością systemów i koniecznością manualnego sterowania w sytuacjach, których nie przewidziały automatyzacje. W miarę jak AI staje się coraz bardziej zaawansowana, obecność człowieka w procesach może okazać się niepotrzebna. Czy na pewno jednak chcemy takiej sytuacji?

Jak pisze Mollick, „W przyszłości może okazać się, iż będziemy musieli bardziej się starać, aby być na bieżąco ze sposobami, w jakie AI podejmuje decyzje” („In the future, we may need to work harder to stay in the loop of AI decision-making”, E. Mollick, Co-Intelligence: Living and Working with AI). Stąd właśnie wynika konieczność uczenia się i korzystania z najnowszych osiągnięć AI oraz traktowania sztucznej inteligencji jako partnera w pracy, a nie zastępstwa.

Źródło: Nasa (https://www.nasa.gov/)

Human-in-the-loop (HITL) w trenowaniu modeli AI

Wróćmy jednak do głównego znaczenia human in the loop w dzisiejszej AI. Jedną z kluczowych ról człowieka w procesie uczenia maszynowego jest udział w tworzeniu zbiorów danych treningowych. W przypadku uczenia głębokiego ludzie manualnie oznaczają i opisują obiekty na obrazach lub fragmenty tekstu. To podejście aktywnego uczenia (active learning) pozwala na bardziej efektywne trenowanie modeli, zmniejszając ilość danych potrzebnych do osiągnięcia wysokiej dokładności. Jego celem jest zapewnienie większej różnorodności i reprezentatywności zbiorów danych, by zredukować ryzyko uprzedzeń i zniekształceń wynikających z niewłaściwej jakości danych wejściowych. To szczególnie ważne w przypadku specjalistycznych danych, na przykład medycznych, które wymagają eksperckiej wiedzy.

Weźmy na przykład system rozpoznawania obrazów wykorzystywany do diagnostyki medycznej. manualne opisywanie preparatów przez specjalistów z danej dziedziny umożliwia algorytmowi uczenie się rozróżniania struktur komórkowych, zmian patologicznych czy anomalii w tkankach. Zaangażowanie eksperckiej wiedzy ludzkiej w proces uczenia znacząco zwiększa precyzję i wiarygodność takiego systemu. Pozwala zatem tworzyć bazy danych o bardzo wysokiej jakości, co zmniejsza zapotrzebowanie na ogromne zbiory treningowe.

Innym przykładem może być rozwój systemów przetwarzania języka naturalnego (NLP) do automatycznego tłumaczenia. Zaangażowanie native speakerów do manualnej adnotacji i korygowania wyników tłumaczeń pozwoliło znacząco podnieść jakość i precyzję takich modeli NLP.

W prostszych przypadkach uczenie przez ludzi jest jednak coraz częściej zastępowane przez nowocześniejsze metody, w których zaawansowane modele automatycznie rozpoznają tekst, dźwięki czy obrazy oraz przygotowują dane treningowe dla nowego modelu.

Nadal najważniejszym wkładem człowieka w trenowanie modeli AI jest Reinforcement Learning from Human Feedback, RLHF. Ludzie analizują tutaj nie dane wejściowe, ale rezultaty działania modelu AI, a następnie dokonują korekt ewentualnych błędów. Dzięki temu systemy AI mogą stopniowo doskonalić swoje zdolności generatywne i predykcyjne. Badania pokazują, iż włączenie sprzężenia zwrotnego od człowieka w trakcie działania modeli uczenia głębokiego przyczynia się do ciągłej poprawy ich wydajności.

Nie bez znaczenia jest jednak różnorodność zespołu, który ocenia materiały tworzone przez AI. Zaangażowanie osób o zróżnicowanym pochodzeniu, płci, doświadczeniu życiowym i zawodowym pomaga minimalizować ryzyko zniekształceń i uprzedzeń w zbiorach danych treningowych. Zwiększa to bezstronność i inkluzywność rozwijanych modeli AI.

Źródło: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Człowiek w procesie decyzyjnym AI

Choć systemy AI stają się coraz bardziej zaawansowane, wciąż istnieją obszary, w których ludzki osąd i zdrowy rozsądek są nie do zastąpienia. Jednym z nich są sytuacje wysokiego ryzyka, gdzie błędna decyzja może mieć poważne konsekwencje.

Wyobraźmy sobie system AI stosowany do oceny ryzyka kredytowego lub podejmowania decyzji w sprawach karnych. Bez ludzkiego nadzoru taki system może w sposób niezamierzony utrwalać istniejące uprzedzenia społeczne i dyskryminować niektóre grupy. Dlatego tak ważne jest, aby człowiek pozostawał „w pętli” procesu decyzyjnego, weryfikując i korygując ewentualne błędy lub niesprawiedliwe wnioski. Co więcej, przy obecnym systemie prawnym i tak człowiek ponosiłby odpowiedzialność za podejmowane przez AI decyzje.

Włączenie człowieka w pętlę decyzyjną AI ma również najważniejsze znaczenie dla zapewnienia przejrzystości i odpowiedzialności tych systemów. Ramy prawne i regulacyjne, takie jak unijne rozporządzenie o sztucznej inteligencji (AI Act), kładą nacisk na human-in-the-loop jako wymóg w zastosowaniach AI wysokiego ryzyka. Poprzez ciągły nadzór i możliwość ingerencji możemy zrozumieć i wyjaśnić proces podejmowania decyzji przez AI oraz ponosić odpowiedzialność za ich skutki.

Źródło: DALL·E 3, prompt: Marta M. Kania (https://www.linkedin.com/in/martamatyldakania/)

Zmiana perspektywy: AI w procesie decyzyjnym człowieka

Choć koncepcja human-in-the-loop często jest postrzegana jako sposób na zapewnienie kontroli nad systemami AI, ma ona również drugą, równie istotną stronę. Mianowicie technologie AI mogą stać się niezastąpionym narzędziem wspomagającym ludzkie procesy decyzyjne i rozwiązywanie problemów.

Wyobraźmy sobie zespół ekspertów pracujących nad skomplikowanym projektem inżynieryjnym lub badawczym. Wsparcie systemu AI w zakresie przetwarzania i analizy ogromnych ilości danych, generowania raportów czy syntetyzowania kluczowych wniosków może okazać się nieocenione. AI staje się tutaj „wirtualnym ekspertem”, umożliwiając ludziom skupienie się na bardziej kreatywnych i strategicznych aspektach pracy.

Co więcej, częste i owocne interakcje z systemami AI zmuszają nas do ciągłego rozwijania umiejętności krytycznego myślenia, kwestionowania wniosków i dostosowywania się do nowych sposobów rozwiązywania problemów. Gdy stale współpracujemy z AI, wyostrza się nasza zdolność do podejmowania przemyślanych, opartych na faktach decyzji.

Podejście human-in-the-loop promuje także poczucie odpowiedzialności za podejmowane decyzje. Aktywnie uczestnicząc w procesie AI, zachowujemy kontrolę nad technologią i jej implikacjami, zapewniając zgodność rozwiązań z wartościami etycznymi i normami społecznymi. To z kolei buduje większe zaufanie do AI wśród jej użytkowników.

Koncepcja „wspomaganej inteligencji” (augmented intelligence) zakłada, iż AI i ludzie będą współpracować w komplementarny sposób — systemy AI będą świadczyć usługi analityczne i przetwarzania danych, podczas gdy ludzie będą wykorzystywać te informacje do tworzenia strategii, kreatywnego myślenia i podejmowania ostatecznych decyzji. Taka symbiotyczna relacja pozwala wykorzystać unikalne zalety obu stron i uzyskać najlepsze rezultaty.

Podsumowanie

Choć systemy AI stają się coraz bardziej zaawansowane, wciąż wymagają ludzkiego przewodnika, aby uzyskać pełną wartość i uniknąć potencjalnych pułapek, takich jak uprzedzenia, brak transparentności czy wymyślone dane. Koncepcja human-in-the-loop zapewnia tę niezbędną równowagę, łącząc najlepsze cechy ludzkiej inteligencji z ogromną mocą obliczeniową AI.

Poprzez zaangażowanie człowieka w proces trenowania modeli, podejmowania decyzji oraz nadzorowania systemów AI, możemy tworzyć bardziej odpowiedzialne, etyczne i skuteczne rozwiązania. Co więcej, taka kooperacja pozwala rozwijać unikalne umiejętności i kształtować nowe sposoby pracy, które w pełni wykorzystują potencjał obu stron.

Firmy, które jako pierwsze wdrożą podejście human-in-the-loop, będą w stanie lepiej zrozumieć i wykorzystać możliwości generatywnej AI, jednocześnie zapewniając bezpieczeństwo marki. To właśnie umiejętność łączenia dwóch rodzajów kompetencji i wzmacnianie sił ludzi potencjałem AI gwarantuje dokładność i zgodność z wewnętrznymi procesami.

Idź do oryginalnego materiału