Moje podejście, które jako prawnik stosuję w ramach zespołu Get Compliant, opiera się na dwóch filarach: strategii multi-sourcing, czyli zlecaniu i analiz i weryfikacji informacji w wielu niezależnych modelach AI, oraz korzystaniu z funkcji deep research, integrując przy tym wsparcie technologii z ludzkim osądem z weryfikacją w wiarygodnych źródłach informacji (np. Legalis, gov.pl, uznane portale prowadzone przez profesjonalistów). Tylko takie połączenie pozwala wykorzystać sprawność działania AI bez stwarzania zagrożeń dla rzetelności, która stanowi fundament zawodu prawnika.
Odpowiedź jednego modelu to hipoteza, nie pewnik
Pierwszym krokiem do profesjonalnego wykorzystania AI jest zrozumienie natury jej działania. Duże modele językowe (LLM) nie są bazami wiedzy w tradycyjnym rozumieniu, a zatem nie wiedzą na 100%, jaka jest prawidłowa odpowiedź na zadane pytanie (prompt) – wręcz przeciwnie, w wielu modelach i w warunkach i w samym oknie czatu mamy ostrzeżenie, iż AI może popełniać błędy. Systemy LLM (np. ChatGPT, Gemini, Copilot) to systemy probabilistyczne, które na podstawie analizy ogromnych zbiorów danych uczą się przewidywać, jakie słowo jest statystycznie najbardziej prawdopodobne jako następne w danej sekwencji.
W konsekwencji ich odpowiedzi, choćby jeżeli brzmią autorytatywnie i są poprawnie sformułowane, stanowią jedynie prawdopodobne hipotezy. Traktowanie ich jako ostatecznej i zweryfikowanej prawdy jest błędem. Każdy wynik uzyskany od pojedynczego modelu AI należy traktować jako punkt wyjścia do dalszej, pogłębionej analizy, a nie jako jej zakończenie.
Strategia multi-sourcingu
Aby zwiększyć wiarygodność wstępnej analizy, warto zastosować technikę triangulacji, powszechnie stosowaną w badaniach naukowych. W kontekście AI polega ona na zadaniu tego samego pytania kilku różnym, niezależnym modelom i porównaniu ich odpowiedzi. W mojej praktyce, porównuję także wnioski (output) z różnych źródeł, poddając je krytycznej analizie w nowym chacie. Dzięki temu mogę:
- zidentyfikować spójne wnioski, gdy modele takie jak Gemini, Microsoft Copilot i ChatGPT wskazują mi podobne rozwiązania, co podnosi prawdopodobieństwo, ale nie przesądza o poprawności, oraz
- wykryć rozbieżności i luki, które sygnalizują obszary niejednoznaczne, kontrowersyjne lub podatne na błędy, i które wymagają pogłębionej, manualnej weryfikacji. Niekiedy jeden z modeli okazuje się lepszy od innych w analizie, dzięki czemu uczę się, czego oczekiwać od poszczególnych narzędzi. Np. z mojego doświadczenia – Perplexity research (wersja pro) potrafi zaskoczyć trafnością przeszukiwania sieci i wskazywania źródeł (linków), które potem można otworzyć i zweryfikować.
Takie podejście zamienia pracę z AI z pasywnego (bezmyślnego) kopiowania informacji w aktywny proces krytycznej analizy porównawczej, budując podstawę do zaawansowanej pracy hybrydowej.
Bezpieczeństwo i poufność
Strategia multi-sourcing musi iść w parze ze ścisłym przestrzeganiem zasad bezpieczeństwa i poufności danych. Nie wszystkie narzędzia AI oferują ten sam poziom ochrony. Należy je jednoznacznie rozróżnić:
- Narzędzia klasy biznesowej: usługi takie jak Microsoft 365 Copilot, Google Workspace z Gemini oraz ChatGPT w wersji Team lub Enterprise objęte są gwarancjami bezpieczeństwa i umowami powierzenia przetwarzania danych (często w wersji angielskiej jako DPA – data processing agreement). Gwarantują, iż dane klienta nie są wykorzystywane do trenowania globalnych modeli i są przetwarzane w bezpiecznym środowisku. Tylko tych narzędzi należy używać do pracy z informacjami poufnymi.
- Inne modele AI: narzędzia bez formalnych gwarancji bezpieczeństwa (np. darmowe wersje popularnych chatbotów, modele open-source) można wykorzystywać wyłącznie do pytań o charakterze abstrakcyjnym, edukacyjnym lub do researchu opartego na danych publicznych.
Ustrukturyzowany proces deep research
Najwyższą jakość analizy zapewnia osadzenie jej w ustrukturyzowanym, wieloetapowym procesie badawczym, w którym AI pełni rolę asystenta. Coraz więcej narzędzi AI oferuje funkcję deep research – dostępna jest we wszystkich modelach, które wymieniłem do tej pory. Wyniki takich pogłębionych analiz mają już elementy tzw. agentów AI – a zatem niezależnej pracy modelu, który sam generuje dodatkowe polecenia, ulepszające odpowiedź i systematycznie badające zadany temat aż do osiągnięcia tzw. nasycenia wiedzą, a więc gotowości modelu do wygenerowania finalnej odpowiedzi.
Sama technologia i funkcje to nie wszystko – kluczem jest ich wykorzystanie w przemyślany sposób. Oto moja metoda, gdzie funkcje deep research przeplatam w zależności od potrzeb ze standardowymi promptami, wykorzystaniem modeli myślących lub samodzielnej analizy źródeł:
- Etap 1 – opisuję dokładnie mój problem i zamiary w danym projekcie pracy z AI, a następnie przechodzę do identyfikacji i wstępnej interpretacji przepisów mających zastosowanie do mojej sprawy/analizy/problemu, który mam rozwiązać. AI służy tu do szybkiego przeszukania dostępnych źródeł i przedstawienia syntezy, którą już na tym etapie weryfikuję i wzbogacam o własne wyniki, np. weryfikując i pobierając z systemu Legalis do dalszej analizy fragmenty przepisów/źródeł zasugerowanych mi przez AI. Już na tym etapie eliminuje się potencjalne błędy AI, np. ignorując akty prawne w nieaktualnej wersji lub nieprawidłowo wskazane przepisy.
- Etap 2 – subsumpcja i analiza stanu faktycznego. Przedstawiam AI zanonimizowany lub objęty odpowiednimi gwarancjami poufności/ochrony danych stan faktyczny, a następnie używam modelu jako partnera do burzy mózgów, identyfikacji kluczowych zagadnień prawnych, możliwych ryzyk i potencjalnych linii argumentacyjnych.
- Etap 3 – pogłębiony research orzecznictwa i doktryny. AI umożliwia masowe przeszukiwanie zindeksowanych (publicznych) danych w celu znalezienia orzeczeń i poglądów doktryny, które wspierają lub podważają zidentyfikowane tezy. Na tym etapie stosuję wyżej opisaną strategię multi-sourcing do weryfikacji wyników.
- Etap 4 – weryfikacja krzyżowa i finalna synteza, których dokonuję w pełni manualnie. Etap polega na bezwzględnym sprawdzeniu wszystkich istotnych informacji uzyskanych od AI (sygnatur, cytatów, tez) w profesjonalnych źródłach, np. systemach informacji prawnej. Dopiero po tej weryfikacji dokonuję ostatecznej syntezy i tworzę spójną, autorską argumentację oraz finalny produkt, np. opinię lub pismo procesowe.
Podsumowanie
Jakość analizy prawnej w erze AI nie zależy od mocy obliczeniowej pojedynczego modelu, ale od dyscypliny i metodyki pracy prawnika. Autor w ramach swojego zespołu Get Compliant coraz częściej przyjmuje strategię multi-sourcingu, osadzając ją w ustrukturyzowanym procesie deep research. Pozwala to wykorzystać szybkość i skalę działania AI przy zachowaniu rzetelności oraz dokładności.
Autor jest adwokatem i naukowcem zajmującym się obsługą spółek oraz optymalizacją ich procesów biznesowych i compliance w wykorzystaniem sztucznej inteligencji. Jego doświadczenie zawodowe obejmuje m.in. Biuro Radcy Prawnego NATO HQ SACT, Biuro ONZ w Genewie, dużą instytucję finansową, organ nadzorczy ochrony danych, organ antymonopolowy, firmę konsultingową ochrony danych oraz międzynarodową kancelarię prawną. Założyciel Get Compliant – firmy prawniczej zapewniającej kompleksową obsługę spółek w dziedzinie compliance; ORCID: 0000-0003-3465-6326