Wojciech Janusz, Dell Technologies: Rok 2026 to czas rozliczenia efektów AI, a nie kupowania obietnic

7 godzin temu
Zdjęcie: Wojciech Janusz, Dell Technologies


Sztuczna inteligencja przestaje być tylko narzędziem do rozmowy, a staje się technologią, która ma realnie wyręczać nas w pracy i domykać procesy biznesowe. O tym, jak mądrze inwestować w infrastrukturę AI, obniżać koszty i liczyć realny zysk z wdrożeń, w rozmowie z Wojciechem Januszem, EMEA Data Science & AI Horizontal Lead w Dell Technologies.

Klaudia Ciesielska, Brandsit: Przez ostatni rok rynek zachłysnął się Generatywną AI, a teraz Dell zaczyna mówić o Agentic AI – autonomicznych agentach wykonujących zadania. Jednak wiele polskich firm wciąż jest na etapie testów prostych chatbotów. Czy nie uciekacie z technologią zbyt gwałtownie do przodu? Dlaczego uważacie, iż to moment na inwestycję w infrastrukturę pod autonomiczne agenty, skoro firmy często nie widzą jeszcze zwrotu z inwestycji w prostsze modele GenAI?

Wojciech Janusz, Dell Technologies: Agentic AI nie jest nową technologią. To raczej naturalne przejście z chatbotów do agentów, które mogą wykonywać dla nas określone działania. O ile duże modele językowa pozwalają uwolnić wiedzę, jaką mamy w firmie, to prawdziwa rewolucja zaczyna się, gdy wiedzę zmieniamy w umiejętności i działania.

Mam wrażenie, iż wszyscy mamy lekki przesyt chatbotami. Finalnie nie chcemy czytać porad mądrego asystenta, który powie nam, co mamy zrobić, tylko kogoś, kto tę rzecz dla nas zrobi – albo przynajmniej odciąży nas w większej części zadania.

„Agentic AI nie jest nową technologią. To raczej naturalne przejście z chatbotów do agentów, które mogą wykonywać dla nas określone działania.”

Wdrożenie nowej technologii zawsze rozważamy w trzech aspektach: ludzie, procesy i technologia. Niestety, w ostatnich dwóch latach zbyt często skupialiśmy się na technologii, zamiast na dwóch pierwszych kategoriach. Agenty AI są sposobem, by połączyć to wszystko w całość. To integracja z procesami, to kooperacja człowieka z maszyną i wykorzystanie istniejącej technologii.

Odpowiadając na pytanie: to bardzo dobry moment, bo dopiero kiedy AI zacznie wykonywać dla nas konkretne zadania, będziemy w stanie określić faktyczny uzysk, policzyć efektywność i lepiej zaplanować kolejne kroki i wdrożenia.

K.C.: Wiele mówi się o Sovereign AI i modelach lokalnych, ale gdzie leży punkt opłacalności? Przy jakiej skali operacji polskiej firmie realnie opłaca się wycofać dane od hiperskalera i zainwestować we własne AI Factory? Czy to rozwiązanie tylko dla korporacji, czy realna alternatywa finansowa dla sektora MŚP?

W.J.: Punkt opłacalności leży dużo niżej niż nam się wydaje. Mało osób zdaje sobie sprawę z tego, jak wielki przeskok technologiczny wykonaliśmy w ostatnich dwóch latach. To dotyczy zarówno sprzętu, jak i samych modeli AI.

Po pierwsze, rynek AI się podzielił. Pojawiły się modele „otwarte”, dające możliwość pobrania i uruchomienia ich na naszym sprzęcie w bezpiecznym kontrolowanym środowisku, ale też dalszej customizacji tak, by jeszcze lepiej pasowały do naszego use case’a.

Samo pobranie modelu i uruchomienia go kilka da, jeżeli nie spełnia on oczekiwań – i tutaj też mamy duży przeskok. Modele otwarte pod względem możliwości i poprawności działania doganiają najlepsze zamknięte modele chmurowe. Oczywiście model 1000 razy mniejszy nie będzie miał takich samych możliwości, jak ten w chmurze. Ale nie taki jest cel i zastosowania – zamiast uniwersalnych modeli, które potrafią mówić we wszystkich językach świata i rozwiązywać każdy problem niezależnie od dziedziny, możemy stosować specjalistyczne, ale mniejsze modele i skupiać się na konkretnych działaniach. To daje nam większą elastyczność i kontrolę nad tym, co się dzieje.

Zamiast jednego “uniwersalnego geniusza” wybieramy zespół eksperckich AI współpracujących w sposób kontrolowany i efektywny. Powołujących potrzebne zasoby wtedy, gdy jest to wymagane do rozwiązania konkretnego problemu.

Takie modele z rozwiniętą umiejętnością rozumowania i rozkładania problemów na mniejsze zadania stanowią podstawę działania agentów AI.

Przez wysokie koszty mocy obliczeniowej i koszty energii pojawiły się także modele optymalizowane do uruchamiania na prostszym sprzęcie. Tutaj największe zasługi mają nowe architektury – takie jak Mixture of Experts (MoE), nowe metody treningu – w tym wykorzystanie Reinforcement Learning, oraz zaawansowane sposoby optymalizacji samego modelu.

Ostatnim elementem jest rozwój platform sprzętowych. Tutaj tez pojawiają się nowe rozwiązania. Mamy całą nową kategorię sprzętu przeznaczonego do używania AI, a nie jego treningu.

Szacuje się, iż koszt uruchomienia modelu w przeliczeniu na koszt tokenów maleje 10-krotnie każdego roku i na razie, od momentu pojawienia się GPT 3.5, udaje się utrzymywać ten trend.

Zadania, które jeszcze 2-3 lata temu wymagały potężnych serwerów, dzisiaj bez problemu wykonywane są na komputerze klasy AI PC, na przykład Dell Pro Max z GB10 pozwala z powodzeniem pracować z modelami do 200 miliardów parametrów.

Oczywiście, apetyt rośnie i lista zadań, jakie chcemy wykonywać z AI, też rośnie, ale coraz lepiej widać, iż technologia przestaje nas blokować. Teraz głównym pytaniem jest, co adekwatnie chcemy zrobić ze sztuczną inteligencją, a nie to, jak ją uruchomić na naszej infrastrukturze.

K.C.: Polska ma jedne z najwyższych cen energii w Europie, a serwery AI są wyjątkowo prądożerne. Czy wdrożenie wydajnych rozwiązań AI w polskich warunkach wymusza na firmach generalny remont serwerowni i przejście na chłodzenie cieczą? Czy nie jest tak, iż główną barierą adopcji AI w naszym regionie nie będzie cena samego serwera, ale właśnie koszty prądu i konieczność modernizacji infrastruktury chłodzącej?

W.J.: Będzie to zależało od skali. Wcześniej rozmawialiśmy o zmianach w samej technologii AI. Mamy nowe modele, nowe sposoby wykorzystania, ale też nowe architektury umożliwiające uruchamiania AI choćby na skromnych zasobach.

„W dużej skali nie uciekniemy od kosztów energii i zmian w infrastrukturze Data Center, ale jestem optymistą.”

Mam wrażenie, iż sporo firm zakłada potężny koszt wejścia. Tymczasem projekty AI możemy zacząć od pojedynczych aplikacji. Zresztą jest to bardzo rozsądne i zalecane podejście: ograniczyć się do kilku use-case’ów, dobrze osadzonych w realiach firmy, z jasno rozpisanym budżetem i przewidywanym zyskiem, a co najważniejsze – leżących blisko siebie w sensie potrzebnej technologii i integracji. Takie podejście sprawia, iż możemy zacząć skromnie, od pojedynczych urządzeń, chociażby właśnie Dell Pro Max z GB10, bez wielkiej rewolucji w naszym DC. Oczywiście, gdy osiągniemy sukces, to te przykłady będą podstawą do stawiania dalszych kroków zapewniając jednocześnie solidne fundamenty.

Start Small, Think Big, scale fast. To podstawa naszej strategii AI.

Oczywiście, w dużej skali nie uciekniemy od kosztów energii i zmian w infrastrukturze Data Center, ale jestem optymistą. Myślę, iż dla większości firm to będzie stopniowa ewolucja, a nie rewolucja wymagająca drastycznych zmian.

Inwestycje mogą też przynieść bardzo satysfakcjonujące rezultaty. Jeden nowy serwer Dell PowerEdge pozwala zastąpić do 7 starszych serwerów, a to przekłada się na spadek kosztów energii choćby o 65–80 proc. Klient Dell, firma Wirth Research, w centrach danych Verne Global dzięki serwerom PowerEdge z chłodzeniem cieczą zmniejszyła zużycie energii w środowiskach HPC o choćby 70%.

K.C.: Wielka wymiana sprzętu trwa, ale czy kupowanie dziś komputerów z NPU (AI PC) ma uzasadnienie ekonomiczne, skoro aplikacji biznesowych realnie wykorzystujących ten układ jest wciąż niewiele? Czy firmy nie płacą dziś „podatku od nowości” za sprzęt, którego potencjał zostanie wykorzystany dopiero za 2-3 lata, czyli pod koniec jego cyklu życia?

W.J.: Wśród klientów biznesowych widzimy duże zainteresowanie AI PC, organizacje chcą zwiększać swoje możliwości związane ze sztuczną inteligencją wykorzystywaną lokalnie.

Każdy komputer, który zaprezentowaliśmy podczas targów CES 2026, jest komputerem z procesorem AI i procesorem NPU. Ten układ nie służy wyłącznie nowym aplikacjom, które dopiero będą powstawać – jest aktywnie wykorzystywany podczas codziennej pracy użytkownika, daje korzyści choćby w wydłużonym czasie pracy na baterii – do 27 godzin strumieniowego odtwarzania wideo w przypadku XPS 14.

K.C.: Na koniec prośba o szczerą prognozę. Patrząc na rok 2026 i Państwa doświadczenie we współpracy z firmami: w jakim obszarze polski biznes (niezależnie od branży) „przestrzeli” z inwestycjami – wyda za dużo pieniędzy bez szybkiego zwrotu, a jaki obszar drastycznie zlekceważy, co może negatywnie odbić się na wynikach firm?

W.J.: Myślę, iż w 2026 firmy będą dokładniej przygotowywały się do projektów AI. Już nie chcemy mieć AI dla samego posiadania projektu AI. Będzie więcej analiz opłacalności i szukania tych zastosowań, które faktycznie przynoszą realne korzyści. Skupimy się też na efektywności używania AI, nie tylko na koszcie zakupu.

Mamy nowe metryki i narzędzia pozwalające lepiej dobrać adekwatne podejście do sztucznej inteligencji.

„Model, który osiąga 80% w teście mając 8 miliardów parametrów, jest uznawany za znacznie bardziej imponujący (i efektywny) niż taki, który osiąga 82%, ale wymaga 70 miliardów parametrów.”

Do niedawna skupialiśmy się tylko na maksymalnej jakości i szybkości działania.

Aktualnie coraz częściej szukamy rozsądnego kompromisu pomiędzy jakością, a efektywnością. Przykładem możem być metodologia Frontier Pareto: zamiast patrzeć tylko na szczyt tabeli wyników, szukamy modeli na „froncie Pareto”, czyli takich, które oferują najlepszy stosunek jakości (np. wynik MMLU) do wielkości modelu (liczby parametrów) lub kosztu wnioskowania. Model, który osiąga 80% w teście mając 8 miliardów parametrów, jest uznawany za znacznie bardziej imponujący (i efektywny) niż taki, który osiąga 82%, ale wymaga 70 miliardów parametrów.

Innym przykładem jest metryka pokazujący realny koszt decyzji lub akcji AI – Tokens per Decision/ Tokens per Action – Efektywniejszy model podejmie trafną decyzję zużywając kilkaset tokenów rozumowania, podczas gdy słabszy może potrzebować ich kilka razy więcej.Wybór pierwszego rozwiązania znacząco obniża TCO i pozwala na szybszy zwrot z inwestycji.

Ostatnim, ale bardzo efektywnym sposobem pokazującym, w którą stronę zmierzamy, jest metryka Cost per Resolved Task (lub Cost per Resolution): ile realnie kosztuje nas wykonanie określonej czynności przy użyciu AI lub częściej – Agenta AI.

Według mnie rok 2026 to będzie rok rozważnego budowania projektów AI, dobrze uzasadnionych, osadzonych w realiach i mających poparcie w liczbach.

Idź do oryginalnego materiału