Komisja Europejska przyjęła w 2019 r. siedem kluczowych wymogów stawianych przed technologiami AI. Znalazły one – w szczególności w odniesieniu do systemów sztucznej inteligencji wysokiego ryzyka – odzwierciedlenie w treści motywu 27 rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. (dalej „rozporządzenie AI”). Należą do nich:
- Przewodnia i nadzorcza rola człowieka – systemy AI rozwija się i wykorzystuje jako narzędzia służące ludziom, szanujące godność ludzką i autonomię osobistą oraz działające w sposób, który może być odpowiednio kontrolowany i nadzorowany przez człowieka; systemy sztucznej inteligencji wysokiego ryzyka należy projektować i opracowywać w taki sposób, aby osoby fizyczne mogły nadzorować ich funkcjonowanie. W tym celu przed wprowadzeniem systemu do obrotu lub jego oddaniem do użytku dostawca systemu powinien określić odpowiednie środki związane z nadzorem ze strony człowieka; w szczególności, w stosownych przypadkach, takie środki powinny gwarantować, że system podlega wbudowanym ograniczeniom operacyjnym, których sam nie jest w stanie obejść, i reaguje na działania człowieka–operatora systemu, oraz że osoby fizyczne, którym powierzono sprawowanie nadzoru ze strony człowieka, posiadają niezbędne kompetencje, przeszkolenie i uprawnienia do pełnienia tej funkcji;
- Techniczna solidność i bezpieczeństwo – systemy AI rozwija się i wykorzystuje w taki sposób, by okazały się wytrzymałe w przypadku wystąpienia problemów oraz odporne na próby zmiany ich wykorzystania lub skuteczności działania, co pozwoli zapobiec bezprawnemu wykorzystaniu przez osoby trzecie i zminimalizować niezamierzone szkody;
- Ochrona prywatności i zarządzanie danymi – systemy AI rozwija się i wykorzystuje zgodnie z przepisami dotyczącymi prywatności i ochrony danych, przy czym przetwarzanie danych spełnia wysokie standardy pod względem jakości i integralności; ochrona prywatności jest jednym z paradygmatów przewijających się przez całe rozporządzenie AI i powinna być implementowana w szczególności w zgodzie z przepisami ogólnego rozporządzenia o ochronie danych; co istotne, Unia Europejska wdraża bardziej kompleksowych regulacje dotyczące zarządzania danymi – w szczególności poprzez uchwalenie:
- stosowanego od dnia 24 września 2023 roku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2022/868 z dnia 30 maja 2022 roku w sprawie europejskiego zarządzania danymi (akt w sprawie zarządzania danymi), którego głównym zadaniem ma być określenie warunków ponownego wykorzystywania w Unii niektórych kategorii danych będących w posiadaniu organów sektora publicznego, a także warunków świadczenia usług udostępniania danych;
- stosowanego od 12 września 2025 roku rozporządzenia Parlamentu Europejskiego i Rady (UE) 2023/2854 z dnia 13 grudnia 2023 r. w sprawie zharmonizowanych przepisów dotyczących sprawiedliwego dostępu do danych i ich wykorzystywania (…) (akt w sprawie danych), którego głównym celem jest ustanowienie zharmonizowanych przepisów dotyczących udostępniania danych generowanych w wyniku korzystania z produktu lub powiązanej usługi użytkownikom tego produktu lub usługi oraz poszerzenie ochrony użytkowników takich produktów lub usług.
- Przejrzystość – użytkownicy powinni być w stanie interpretować wyniki działania systemu i odpowiednio z nich korzystać; systemy AI rozwija się i wykorzystuje w sposób umożliwiający odpowiednią identyfikowalność i wytłumaczalność, jednocześnie informując ludzi o tym, że komunikują się z systemem AI lub podejmują z nim interakcję, a także należycie informując podmioty stosujące o zdolnościach i ograniczeniach tego systemu AI, a osoby, na które AI ma wpływ, o przysługujących im prawach;
- Różnorodność, niedyskryminacja i sprawiedliwość – systemy AI rozwija się i wykorzystuje w sposób, który angażuje różne podmioty i propaguje równy dostęp, równouprawnienie płci i różnorodność kulturową, jednocześnie unikając dyskryminujących skutków i niesprawiedliwej stronniczości, których zakazują prawo Unii lub prawo krajowe; dyskryminacja algorytmiczna jest jednym z podstawowych zagrożeń związanych z wykorzystaniem systemów AI i wynikać może w szczególności z tworzenia systemu przy użyciu nieróżnorodnych, tendencyjnych danych, co z kolei prowadzić może do szeregu niesprawiedliwości – nie tylko w obszarze wykonywania władzy państwowej, ale również w sytuacjach związanych np. z zatrudnieniem, czy dostępem do finansowania;
- Dobrostan społeczny i środowiskowy – wskazywany jest jako główny cel, któremu służyć ma rozwój sztucznej inteligencji; systemy AI rozwija się i wykorzystuje w sposób zrównoważony, przyjazny dla środowiska i przynoszący korzyści wszystkim ludziom, jednocześnie monitorując i oceniając długoterminowy wpływ tych systemów na osoby fizyczne, społeczeństwo i demokrację;
- Odpowiedzialność – należy zapewnić, aby odpowiedzialność za wprowadzenie do obrotu lub oddanie do użytku systemu sztucznej inteligencji wysokiego ryzyka brała na siebie konkretna osoba fizyczna lub prawna określona jako dostawca, niezależnie od tego, czy ta osoba fizyczna lub prawna jest osobą, która zaprojektowała lub opracowała ten system; należy określić szczegółowe obowiązki odpowiednich operatorów, takich jak importerzy i dystrybutorzy, aby zagwarantować pewność prawa i ułatwić tym podmiotom przestrzeganie przepisów; należy określić szczególne obowiązki użytkowników; użytkownicy powinni w szczególności korzystać z systemów sztucznej inteligencji wysokiego ryzyka zgodnie z instrukcjami obsługi, a w stosownych przypadkach należy przewidzieć określone inne obowiązki w odniesieniu do monitorowania funkcjonowania systemów sztucznej inteligencji oraz rejestrowania zdarzeń.
Konkretne obowiązki ciążące na dostawcach, dystrybutorach, importerach oraz użytkownikach systemów sztucznej inteligencji zostaną omówione w odrębnych wpisach.
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
Obowiązki dostawców systemów AI
Data publikacji: 22.03.2024
Data aktualizacji: 17.09.2024