Sztuczna inteligencja (dalej „SI”), w tym uczenie maszynowe, coraz szybciej wchodzi do kanonu usług finansowych i pozwala zautomatyzować i odczłowieczyć wiele procesów, w szczególności:
– oceny zdolności kredytowej (dopuszczalne m. in. na podstawie art. 105a ustawy
z dnia 29 sierpnia 1997 r. prawo bankowe „Przetwarzanie informacji stanowiących tajemnicę bankową”,
– zaawansowana analityka, w tym profilowanie,
– robo-doradztwo,
– handel algorytmiczny,
– chat-boty,
– RegTech (sposób na obniżenie gwałtownie rosnących kosztów po stronie instytucji finansowych związanych z postkryzysowym zjawiskiem tsunami regulacyjnego),
– automatyzacja procesu tworzenia i zawierania umów,
– oraz monitorowanie transakcji płatniczych.
Z uwagi na nienadążanie przez prawodawcę za rozwojem technologicznym,obecnie stosowanie SI oparte jest przede wszystkim na normach etycznych niż prawnie stanowionych. Wspomniany uprzednio art. 105a prawa bankowego wydaje się przełomowy, co potwierdza podejście Komisji Europejskiej (dalej „KE’), która pracuje nad dokumentami w tym zakresie, w szczególności nad wytycznymi
w obszarze wykorzystania SI bądź zasadami odpowiedzialności, które mogą mieć zastosowanie do sztucznej inteligencji.
Nie istnieją w tej chwili na poziomie krajowym systemowe rozwiązania odnoszące się do sztucznej inteligencji. Dokumentem takim, który ma na celu usystematyzować zasady, w tym prawne, oraz jest punktem wyjścia jest „Polityka Rozwoju Sztucznej Inteligencji w Polsce na lata 2019–2027″.
W następnym wpisie wyczerpię wprowadzenie do tematu SI zwięźle przedstawiając następujące zagadnienia definicja SI, uczenie maszynowe, odpowiedzialność za SI, oraz SI a produkt niebezpieczny.
Zapraszam do udostępniania i komentowania.
r.pr. dr Wiktor Czeszejko-Sochacki, LL.M.