Dlaczego nie wolno „wierzyć” AI przy ocenie ryzyka maszyn
Coraz częściej w firmach pojawia się pokusa, żeby „podpytać AI”, jak opisać ryzyko, jakie środki ochronne zastosować, czy jak zbudować dokumentację do wymagań maszynowych. Sztuczna inteligencja może być przydatnym narzędziem w pracy inżyniera ds. bezpieczeństwa maszyn, ale nie może zastąpić osoby kompetentnej, która odpowiada za bezpieczeństwo ludzi i zgodność z przepisami. Poniżej omówiono typowe błędy, jakie niesie bezrefleksyjne korzystanie z AI przy ocenie ryzyka maszyn.
- Profesjonalnie brzmiące, ale błędne treści
Systemy AI potrafią generować teksty, które wyglądają jak fragmenty norm, procedur czy wytycznych – zawierają odwołania do przepisów, numerów punktów, a choćby pozorne cytaty. Problem w tym, iż część takich treści jest po prostu niezgodna z wymaganiami: pojawiają się nieistniejące wymagania, błędne numery norm, mylące powiązania między wymaganiami ogólnymi a normami typu C. Dla osoby spoza obszaru bezpieczeństwa maszyn tekst może wyglądać przekonująco i „profesjonalnie”, co zwiększa ryzyko bezkrytycznego przeniesienia błędów do dokumentacji ryzyka czy instrukcji.
- Oparcie na niepełnych i nieaktualnych źródłach
Normy zharmonizowane (takie jak EN ISO 12100, EN ISO 13849‑1 i normy typu C) oraz przewodniki do dyrektyw/rozporządzeń są chronione prawem autorskim i dostępne w pełnej treści wyłącznie przez wyspecjalizowanych dostawców. Modele AI nie mają dostępu do pełnych, aktualnych brzmień norm – bazują głównie na skrótach, omówieniach, materiałach marketingowych i blogach, które często są nieaktualne lub mocno uproszczone. Zmiany w wykazach norm zharmonizowanych oraz nowe wydania norm pojawiają się regularnie, a AI nie ma automatycznego mechanizmu śledzenia takich zmian, dlatego nie może pełnić roli „wirtualnej normy”.
- Brak kontaktu z rzeczywistą maszyną i procesem
Ocena ryzyka w rozumieniu EN ISO 12100 i norm szczegółowych wymaga bezpośredniego kontaktu z maszyną i procesem. Osoba kompetentna musi zobaczyć maszynę w rzeczywistym otoczeniu, przeanalizować sposób użytkowania, tryby pracy, czynności czyszczenia i serwisowania, a także typowe obejścia zabezpieczeń i zachowania operatorów pod presją produkcji. AI działa wyłącznie na opisach tekstowych i nie „widzi” ani konfiguracji linii, ani faktycznych dróg dojścia, ani ergonomii stanowiska. W efekcie generowane opisy ryzyka i propozycje środków ochronnych są odklejone od realnych zagrożeń i praktyki użytkowania.
- Niebezpieczne rekomendacje środków ochronnych
Typowym błędem AI jest „projektowanie” środków bezpieczeństwa na ogólnym poziomie, bez uwzględnienia wymaganej kategorii, poziomu zapewnienia bezpieczeństwa (PL) czy architektury układu sterowania zgodnie z EN ISO 13849. Rekomendacje w stylu „zastosować kurtynę świetlną” czy „dodać blokadę drzwi” mogą brzmieć rozsądnie, ale w konkretnej aplikacji mogą:
- nie zapewnić wymaganego poziomu bezpieczeństwa,
- wchodzić w konflikt z istniejącą architekturą sterowania,
- generować nowe zagrożenia, np. sprzyjać obchodzeniu zabezpieczeń przez operatorów.
Bez analizy PL, struktury, kategorii i kontekstu procesu takie „podpowiedzi” nie mogą być traktowane jako projekt rozwiązania bezpieczeństwa, a jedynie jako luźne inspiracje do dalszej, w pełni odpowiedzialnej analizy inżynierskiej.
- Ignorowanie praktyki kontroli, audytów i sporów powypadkowych
Specjalista ds. bezpieczeństwa maszyn nie opiera się wyłącznie na suchym tekście norm, ale także na doświadczeniu z kontroli PIP, UDT, audytów klienta, dochodzeń powypadkowych i orzecznictwa. To właśnie praktyka organów nadzoru i ubezpieczycieli pokazuje, które rozwiązania są uznawane za akceptowalne, a które budzą zastrzeżenia mimo formalnej zgodności z literą normy. AI nie uczestniczy w kontrolach ani audytach, nie analizuje akt powypadkowych i nie ma doświadczenia z realnych sporów. Może więc proponować rozwiązania „książkowe”, które w praktyce nie przejdą audytu albo zostaną zakwestionowane po wypadku.
- Brak odpowiedzialności i kwalifikacji osoby kompetentnej
Ocena ryzyka, dobór środków ochronnych i potwierdzenie zgodności z wymaganiami prawnymi muszą być przypisane do konkretnych osób kompetentnych – z odpowiednią wiedzą z zakresu norm, dyrektyw/rozporządzeń i praktyki branżowej, nierzadko potwierdzoną szkoleniami i certyfikatami. To te osoby podpisują dokumentację, składają deklaracje zgodności i ponoszą odpowiedzialność po wypadku. System AI nie może być wskazany jako „osoba kompetentna”, nie złoży podpisu, nie ma formalnych kwalifikacji i nie odpowiada przed sądem. Ślepe poleganie na jego rekomendacjach jest sprzeczne z zasadą jasnego przypisania odpowiedzialności w procesie oceny zgodności.
Rola działu jakości i dokumentacji jako wsparcia
Działy jakości i dokumentacji mogą istotnie wspierać proces bezpieczeństwa maszyn, ale w innym obszarze niż merytoryczna ocena ryzyka. Typowe, wartościowe wsparcie to:
- dopilnowanie kompletności i spójności dokumentacji,
- weryfikacja zgodności formy z procedurami wewnętrznymi i wymaganiami klienta,
- organizacja obiegu dokumentów, wersjonowania i archiwizacji.
To specjalista ds. bezpieczeństwa maszyn określa, jakie informacje merytoryczne muszą się w dokumentach znaleźć oraz jak opisać zagrożenia, środki ochronne i pozostałe ryzyko. Dział jakości może pomóc, by dokumentacja była czytelna, pełna i dobrze zarządzana – ale nie zastąpi kompetencji technicznych w obszarze bezpieczeństwa.
Jak rozsądnie wykorzystywać AI w pracy inżyniera ds. bezpieczeństwa maszyn
Sztuczna inteligencja może realnie wspierać osoby kompetentne w bezpieczeństwie maszyn, o ile jest traktowana jako narzędzie pomocnicze, a nie źródło „prawdy”. Przykładowe, rozsądne zastosowania to:
- szkicowanie struktury dokumentów (np. planu oceny ryzyka, spisu treści instrukcji),
- pomoc w tworzeniu materiałów szkoleniowych (slajdy, opisy ogólnych zasad),
- generowanie wstępnych list kontrolnych do audytów, które następnie dostosowuje ekspert,
- porządkowanie notatek, maili i wniosków z analiz w spójny tekst roboczy.
Każdy taki materiał powinien być w kolejnym kroku zweryfikowany przez osobę kompetentną, która zna konkretną maszynę, proces, aktualne normy i wymagania prawne.
Zasada, którą warto jasno komunikować w organizacji, jest prosta:
AI może pracować razem z inżynierem ds. bezpieczeństwa maszyn, ale nigdy zamiast niego – decyzje, ocena ryzyka i podpis zawsze należą do człowieka z odpowiednimi kompetencjami.

4 dni temu





