Dbamy o Twój biznes

Pomagamy szybko i profesjonalnie

Poziomy ryzyka systemów AI

Jak wspomniano we wcześniejszym wpisie, różne kategorie zastosowań AI wiążą się z różnymi poziomami ryzyka. Unia Europejska przyjmuje, że regulacje dotyczące AI muszą być wystarczająco skuteczne aby pozwolić osiągnąć zamierzone cele, nie powinny być jednak zbyt nakazowe, prowadziłoby to bowiem do nadmiernych obciążeń – zwłaszcza dla MŚP (Biała Księga w sprawie sztucznej inteligencji. Europejskie podejście do doskonałości i zaufania. Komisja Europejska. 19.02.2020). Osiągnięcie równowagi pomiędzy powyższymi założeniami możliwe jest w ocenie Komisji Europejskiej dzięki podejściu opartemu na analizie ryzyka, które pozwoli zapewnić proporcjonalność regulacji oraz dostosowanie rygorów do zagrożeń, jakie nieść za sobą mogą określone zastosowania AI.

Komisja Europejska przyjęła, że zastosowanie sztucznej inteligencji wiąże się z wysokim ryzykiem jeśli łącznie spełnione będą dwa następujące kryteria:

  • zastosowanie sztucznej inteligencji dotyczy sektora, w którym, biorąc pod uwagę cechy charakterystyczne zazwyczaj podejmowanych działań, można oczekiwać wystąpienia znaczącego ryzyka (np. ochrona zdrowia, energetyka, transport);
  • rozwiązanie z zakresu sztucznej inteligencji w danym sektorze jest ponadto stosowane w taki sposób, że istnieje prawdopodobieństwo wystąpienia znaczącego ryzyka – co ocenia się poprzez wpływ danego zastosowania AI na zainteresowane strony (np. poprzez kształtowanie sytuacji prawnej, negatywne konsekwencje zdrowotne, istotne szkody materialne lub niematerialne).

Komisja Europejska, poniekąd wbrew powyższemu, uznaje jednak, że niezależnie od braku spełnienia powyższych kryteriów, określone zastosowania AI mogą być kwalifikowane jako powiązane z wysokim ryzykiem – co dotyczy np. zastosowania AI do zdalnej identyfikacji biometrycznej oraz procesu rekrutacji i wszelkich procesów wpływających na prawa pracowników.

W 2020 r. w w/w Białej Księdze, Komisja Europejska zaproponowała aby istniało możliwie jasne rozróżnienie na zastosowania AI powiązane z wysokim ryzykiem – których wdrażanie wymagałoby spełnienia szeregu rozbudowanych obowiązków, oraz zastosowania niepowiązane z wysokim ryzykiem – znacznie słabiej regulowane, z możliwością jednak poddania ich certyfikacji na zgodność z takimi dodatkowymi, choć nieobligatoryjnymi, wymogami.

W projekcie rozporządzenia dotyczącego AI Unia Europejska prezentuje następujące podejście regulacyjne do zastosowań AI generujących różne poziomy ryzyka:

Ryzyko niedopuszczalne:

Zakaz stosowania AI. Temu poziomowi ryzyka poświęcony został art. 5 projektu rozporządzenia, wskazując na zakaz stosowania AI wykorzystujących szkodliwe manipulacyjne techniki podprogowe, wykorzystujących szczególnie narażone grupy społeczne, stosujących scoring społeczny na potrzeby organów władzy publicznej, a także – co do zasady – przeznaczonych do zdalnej biometrycznej identyfikacji w czasie rzeczywistym w przestrzeni publicznie dostępnej na potrzeby organów ścigania.

Ryzyko wysokie:                       

Zastosowanie AI dopuszczalne pod warunkiem stosowania szeregu zasad określonych rozporządzeniem. Temu poziomowi ryzyka poświęcona została lwia część rozporządzenia. Jako powiązane z wysokim ryzykiem określono systemy sztucznej inteligencji spełniające łącznie następujące warunki:

  • system sztucznej inteligencji jest przeznaczony do wykorzystywania jako związany z bezpieczeństwem element produktu objętego unijnym prawodawstwem harmonizacyjnym wymienionym w załączniku II lub sam jest takim produktem;
  • produkt, którego związanym z bezpieczeństwem elementem jest system sztucznej inteligencji, lub sam system sztucznej inteligencji jako produkt podlegają – na podstawie unijnego prawodawstwa harmonizacyjnego wymienionego w załączniku II – ocenie zgodności przeprowadzanej przez osobę trzecią w celu wprowadzenia tego produktu do obrotu lub oddania go do użytku.

Niezależnie od powyższego, za powiązane z wysokim ryzykiem uznano systemy AI wymienione w załączniku III do projektu rozporządzenia, dotyczące w szczególności następujących obszarów:

  • identyfikacja biometryczna oraz kategoryzacja osób fizycznych;
  • zarządzanie infrastrukturą krytyczną;
  • edukacja;
  • zatrudnienie;
  • dostęp do usług kluczowych dla jednostki, usług publicznych oraz świadczeń socjalnych;
  • wymiar sprawiedliwości;
  • migracja, azyl, kontrola graniczna;
  • administracja procesami demokratycznymi oraz dotyczącymi wymiaru sprawiedliwości.

Ryzyko ograniczone:

Zastosowanie AI jest dopuszczalne pod warunkiem zapewnienia odpowiedniej transparentności. Za systemy AI powiązane z ograniczonym poziomem ryzyka uznano m.in. systemy prowadzące interakcje z ludźmi (np. chatboty), systemy rozpoznające emocje, systemy kategoryzacji biometrycznej, systemy tworzące lub modyfikujące obraz, dźwięk lub video (w tym tzw. deepfake).

Ryzyko niskie lub minimalne: brak regulacji (dedykowanych AI oczywiście, nadal obowiązują inne regulacje, dotyczące np. zasad przetwarzania danych osobowych).


Wpisy powiązane:

Sztuczna inteligencja okiem UE

Dane w systemach AI

Wymogi dla systemu wysokiego ryzyka

Kary pieniężne za naruszenie AI Act

Czy AI jest legalna?

Wykorzystanie AI w zatrudnieniu


🔝Prawo AI - wszystkie wpisy


Data publikacji: 11.01.2024

Kontakt

Borek Doliński Radcowie Prawni spółka jawna

ul. Grunwaldzka 224b/9, 60-166 Poznań

office@bdrp.pl

[0048] 530 001 500 // 510 551 991

O nas

Specjalizujemy się w obsłudze prawnej biznesu, ze szczególnym uwzględnieniem branży IT.

Oferujemy najwyższą jakość świadczonego wsparcia prawnego, wysoką responsywność i osobiste zaangażowanie wspólników Kancelarii.