Zgodnie z art. 11 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 („AI Act”), przed wprowadzeniem do obrotu lub oddaniem do użytku systemu AI wysokiego ryzyka, należy sporządzić jego dokumentację techniczną. Zawierać ona musi co najmniej elementy wskazanie w załączniku IV do AI Act, a ponadto sporządzona musi zostać w taki sposób, aby wykazać, że system AI wysokiego ryzyka jest zgodny z wymogami ustanowionymi w AI Act, oraz aby dostarczyć właściwym organom krajowym i jednostkom notyfikowanym informacji – w jasnej i kompleksowej formie – niezbędnych do oceny zgodności systemu AI z tymi wymogami.
Co ważne dla mikro, małych oraz średnich przedsiębiorców („MŚP”), elementy wymagane załącznikiem IV do AI Act mogą one podawać w sposób uproszczony – w formie narzuconej przez Komisję Europejską (wg stanu na wrzesień 2024 r. oczekujemy na publikację stosownego wzoru przez Komisję Europejską).
W przypadku gdy wprowadzany do obrotu lub oddawany do użytku system AI wysokiego ryzyka związany jest z produktem, który jest objęty zakresem stosowania unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku I sekcja A AI Act (dotyczy to m.in. maszyn, zabawek, urządzeń radiowych, wyrobów medycznych), sporządzany zostaje jeden zestaw dokumentacji technicznej spełniający kompleksowo wszelkie wymogi dotyczące zarówno takiego produktu, jak i powiązanego z nim systemu AI wysokiego ryzyka.
Wyżej wspomniany załącznik IV do AI Act wymaga by dokumentacja techniczna zawierała szereg elementów, w tym m.in.:
- ogólny opis systemu AI;
- szczegółowy opis elementów systemu AI oraz procesu jego rozwoju;
- szczegółowe informacje dotyczące monitorowania, funkcjonowania i kontroli systemu AI, w szczególności w odniesieniu do jego możliwości i ograniczeń;
- opis adekwatności wskaźników skuteczności działania systemu AI;
- szczegółowy opis systemu zarządzania ryzykiem wymaganego przez art. 9 AI Act;
- opis odpowiednich zmian dokonanych przez dostawcę w systemie AI w czasie cyklu jego życia;
- szczegółowy opis systemu stosowanego do oceny skuteczności działania systemu AI po wprowadzeniu do obrotu, w tym plan monitorowania systemu AI po jego wprowadzeniu do obrotu.
Dokumentacja techniczna systemu AI wysokiego ryzyka musi podlegać rzetelnej i skrupulatnej aktualizacji w całym cyklu życia systemu AI.
Prowadzenie dokumentacji technicznej systemu AI wysokiego ryzyka jest wyjściowo obowiązkiem dostawcy systemu AI. Zgodnie z art. 18 ust. 1 AI Act, dostawca zobowiązany jest przechowywać dokumentację systemu AI wysokiego ryzyka przez okres 10 lat od dnia oddania go do użytku lub wprowadzenia go do obrotu. W przypadku gdy dostawca systemu AI wyznaczy upoważnionego przedstawiciela, reprezentującego takiego dostawcę przed Unią Europejską i odpowiadającego za spełnienie obowiązków wynikających z AI Act, taki upoważniony przedstawiciel zobowiązany jest upewnić się czy dokumentacja techniczna systemu AI wysokiego ryzyka została sporządzona oraz przechowywać ją zgodnie z art. 22 ust. 2 w zw. z art. 18 ust. 1 AI Act. Weryfikacja tego czy stosowna dokumentacja techniczna została sporządzona należy również do zakresu obowiązków importera systemu AI wysokiego ryzyka.
Analogiczne (choć nieco odmienne) obowiązki dotyczą sporządzenia i prowadzenia dokumentacji technicznej modelu AI ogólnego przeznaczenia.
W przypadku gdy organ nadzoru państwa członkowskiego ustali, że brak jest wymaganej dokumentacji technicznej, zobowiązuje dostawcę do usunięcia takiego braku w wyznaczonym terminie, pod rygorem podjęcia działań mających na celu ograniczenie lub zakazanie udostępniania na rynku odnośnego systemu AI wysokiego ryzyka lub zapewnienie by system ten został niezwłocznie z rynku wycofany.
Naruszenie w/w obowiązków dotyczących prowadzenia dokumentacji technicznej zagrożone jest ponadto karą pieniężną w wysokości do 15.000.000,00 EUR lub do 3% całkowitego rocznego światowego obrotu przedsiębiorcy z poprzedniego roku – w zależności od tego która z tych kwot jest wyższa (z tym zastrzeżeniem, że w przypadku MŚP stosuje się kwotę niższą a nie wyższą).
Sporządzenie i następnie prowadzenie dokumentacji technicznej systemu AI wysokiego ryzyka (czy też modelu AI ogólnego przeznaczenia) jest dużym wyzwaniem technicznym, wymagającym również od strony formalnej współpracy z prawnikiem rozumiejącym wymogi AI Act. Naruszenie odnośnych obowiązków grozi nie tylko poważnymi sankcjami administracyjnoprawnymi, ale również nieatrakcyjnością rynkową danego systemu/modelu.
Co szczególnie warte podkreślenia, do obowiązków poszczególnych operatorów (a więc odpowiednio dostawców, dostawców niższego szczebla, upoważnionych przedstawicieli, importerów, dystrybutorów oraz użytkowników systemów AI wysokiego ryzyka) należy informowanie w pewnych sytuacjach organów nadzoru o niespełnianiu przez system AI wysokiego ryzyka wymogów przewidzianych w AI Act lub generowaniu przez taki system ryzyka dla zdrowia, życia lub praw podstawowych (takich jak np. prawo do prywatności). Wprowadzono tu więc swoisty system obowiązkowego donosicielstwa, mający zapewnić, że poszczególne podmioty uczestniczące w łańcuchu dostaw patrzeć będą sobie na ręce celem blokowania systemów AI wysokiego ryzyka niezgodnych z wymaganiami AI Act. Jest to okoliczność, którą szczególnie powinny wziąć pod uwagę podmioty liczące na niską aktywność organów nadzoru.
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
System zarządzania ryzykiem AI
Obowiązki dostawców systemów AI
Obowiązki importerów systemów AI
Obowiązki dystrybutorów systemów AI
Obowiązki podmiotów stosujących AI
Kary pieniężne za naruszenie AI Act
Data publikacji: 16.09.2024