Przejrzystość funkcjonowania sytemu AI jest jednym z podstawowych wymogów wynikających z rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. ("AI Act", "rozporządzenie AI"). W odniesieniu do systemów AI wysokiego ryzyka wymóg ten jest rozbudowany, a jego manifestacją jest art. 13 ust. 3 rozporządzenia AI zawierający listę informacji, które zawierać musi instrukcja obsługi systemu AI wysokiego ryzyka wymagana na mocy art. 13 ust. 2 rozporządzenia AI.
Instrukcja może być sporządzona w formacie cyfrowym lub innym, pod warunkiem, że zawiera zwięzłe, kompletne, poprawne i jasne informacje, które są istotne, dostępne i zrozumiałe dla użytkowników systemu AI wysokiego ryzyka. Informacje te muszą obejmować co najmniej:
- tożsamość i dane kontaktowe dostawcy systemu AI wysokiego ryzyka oraz, w stosownych przypadkach, jego upoważnionego przedstawiciela;
- cechy, możliwości i ograniczenia skuteczności działania systemu sztucznej inteligencji wysokiego ryzyka, w tym:
- jego przeznaczenie;
- poziom dokładności, wraz z jego wskaźnikami, poziom solidności i cyberbezpieczeństwa, o którym mowa w art. 15 rozporządzenia AI, względem którego przetestowano system sztucznej inteligencji wysokiego ryzyka i dokonano jego walidacji oraz którego można oczekiwać, a także wszelkie znane i dające się przewidzieć okoliczności, które mogą mieć wpływ na ten oczekiwany poziom dokładności, solidności i cyberbezpieczeństwa;
- wszelkie znane lub dające się przewidzieć okoliczności związane z wykorzystaniem systemu sztucznej inteligencji wysokiego ryzyka zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, które mogą powodować zagrożenia dla zdrowia i bezpieczeństwa lub praw podstawowych;
- w stosownych przypadkach, możliwości techniczne i właściwości systemu AI wysokiego ryzyka w zakresie udostępniania informacji istotnych dla wyjaśnienia jego wyników;
- w stosownych przypadkach, działanie systemu w odniesieniu do określonych osób lub grup osób, wobec których ma on być wykorzystywany;
- w stosownych przypadkach, specyfikacje dotyczące danych wejściowych lub wszelkie inne istotne informacje dotyczące wykorzystywanych zbiorów danych treningowych, walidacyjnych i testowych, uwzględniając przeznaczenie systemu sztucznej inteligencji;
- stosownych przypadkach, informacje umożliwiające podmiotom stosującym interpretację wyników systemu AI wysokiego ryzyka i odpowiednie wykorzystanie tych wyników;
- ewentualne zmiany w systemie sztucznej inteligencji wysokiego ryzyka i jego skuteczności działania, które zostały z góry zaplanowane przez dostawcę w momencie przeprowadzania pierwotnej oceny zgodności;
- środki nadzoru ze strony człowieka, o których mowa w art. 14, w tym środki techniczne wprowadzone w celu ułatwienia użytkownikom interpretacji wyników działania systemów sztucznej inteligencji;
- potrzebne zasoby obliczeniowe i sprzętowe, przewidywany cykl życia systemu AI wysokiego ryzyka oraz wszelkie niezbędne środki w zakresie konserwacji i utrzymania, w tym częstotliwość ich stosowania, mające na celu zapewnienie właściwego funkcjonowania tego systemu AI, w tym dotyczące aktualizacji oprogramowania;
- stosownych przypadkach – opis mechanizmów zawartych w systemie AI wysokiego ryzyka, które umożliwiają podmiotom stosującym prawidłowe zbieranie, przechowywanie i interpretowanie rejestrów zdarzeń, zgodnie z art. 12.
Przygotowanie prawidłowej instrukcji systemu AI wysokiego ryzyka stanowi więc poważne wyzwanie i wymaga współdziałania twórców systemu z prawnikami. Instrukcja musi bowiem nie tylko zawierać kompleksowe informacje wskazane powyżej, ale informacje te muszą być zaprezentowane w sposób spójny i jasny, co wymaga również należytej redakcji dokumentu.
Opatrzenie systemu AI wysokiego ryzyka prawidłową instrukcją jest obowiązkiem zarówno dostawcy systemu (art. 3 pkt 15 i art. 13 ust. 2 rozporządzenia AI), jak i importera wprowadzającego system AI wysokiego ryzyka do obrotu (art. 23 ust. 1 pkt c) rozporządzenia AI) oraz dystrybutora systemu AI wysokiego ryzyka (art. 24 ust. 1 AI Act). Obowiązkiem użytkownika systemu AI wysokiego ryzyka jest zaś użytkowanie tego systemu zgodnie z załączoną instrukcją (art. 26 ust. 1 rozporządzenia AI).
Naruszenie powyższego obowiązku prowadzi do niezgodności systemu sztucznej inteligencji z wymogami wynikającymi z rozporządzenia AI, co zagrożone jest karą pieniężną w wysokości do 15.000.000 EUR lub – jeżeli naruszenia dopuszcza się przedsiębiorstwo – w wysokości do 3 % jego całkowitego rocznego światowego obrotu z poprzedniego roku obrotowego, przy czym zastosowanie ma kwota wyższa (art. 99 ust. 4 rozporządzenia AI), z wyjątkiem MŚP, w przypadku których zastosowanie ma kwota niższa (art. 99 ust. 6 AI Act).
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
Obowiązki dostawców systemów AI
Obowiązki importerów systemów AI
Obowiązki dystrybutorów systemów AI
Obowiązki podmiotów stosujących AI
Kary pieniężne za naruszenie AI Act
Data publikacji: 14.02.2024
Data aktualizacji: 17.09.2024