Dbamy o Twój biznes

Pomagamy szybko i profesjonalnie

Dane w systemach AI

Dla systemu sztucznej inteligencji dane są paliwem. W 2019 r. grupa ekspertów wysokiego szczebla wyznaczona przez Komisję Europejską zaproponowała definicję sztucznej inteligencji skoncentrowaną na analizie danych: „Systemy sztucznej inteligencji (AI) to oprogramowanie (i ewentualnie również sprzęt komputerowy) zaprojektowane przez człowieka, które – aby osiągnąć złożony cel – działa w wymiarze fizycznym lub cyfrowym, postrzegając swoje środowisko poprzez pozyskiwanie danych, interpretując zgromadzone dane (ustrukturyzowane lub nie), wyciągając wnioski na podstawie tych danych lub przetwarzając informacje, których źródłem są te dane oraz podejmując decyzje w sprawie najlepszych działań, jakie należy podjąć, aby zrealizować ten cel. Systemy sztucznej inteligencji mogą wykorzystywać zasady symboliczne albo uczyć się na podstawie modelu numerycznego i mogą również dostosować swoje zachowanie poprzez analizę wpływu ich wcześniejszych działań na środowisko. ”

Zgodnie z art. 10 projektu rozporządzenia Parlamentu Europejskiego i Rady ustanawiającego zharmonizowane przepisy dotyczące sztucznej inteligencji (dalej „rozporządzenie AI”), systemy AI wysokiego ryzyka, które wykorzystują techniki obejmujące trenowanie modeli z wykorzystaniem danych, korzystać mogą jedynie z takich danych treningowych, walidacyjnych i testowych, które spełniają kryteria jakości określone w art. 10 ust. 2-5 projektu rozporządzenia AI.

Po pierwsze więc, zbiory danych podlegać muszą odpowiednim praktykom w zakresie zarządzania danymi. Praktyki te obejmować muszą szereg kwestii opisanych w art. 10 ust. 2 projektu rozporządzenia AI. Wymogi te znajdują przy tym zastosowanie także do systemów AI wysokiego ryzyka, które nie wykorzystują technik obejmujących testowanie modeli.

Po drugie, zbiory danych treningowych, walidacyjnych i testowych muszą być adekwatne, reprezentatywne, wolne od błędów i kompletne, muszą charakteryzować się odpowiednimi właściwościami statystycznymi – co wymaga z kolei bardzo rozsądnego podejścia co do wyboru źródeł pochodzenia danych.

Po trzecie, zbiory danych treningowych, walidacyjnych i testowych muszą uwzględniać, w zakresie wymaganym z uwagi na ich przeznaczenie, cechy lub elementy, które są specyficzne dla określonego kontekstu geograficznego, behawioralnego lub funkcjonalnego, lub okoliczności, w których ma być wykorzystywany ma być system AI.

Finalnie zwrócić należy uwagę na szczególnie interesujący ust. 5, który stanowić może podstawę do przetwarzania danych osobowych szczególnych kategorii (np. dotyczących pochodzenia etnicznego, seksualności, zdrowia), pod warunkiem jednak stosowania odpowiednich zabezpieczeń gwarantujących ochronę podstawowych praw i wolności osób fizycznych.

Powyższe pokazuje rzecz w zasadzie dość oczywistą. Nawet najlepiej przemyślany system AI można zepsuć karmiąc go niewłaściwymi danymi. Jest to bardzo ważne, gdyż za pozyskiwanie danych odpowiadać mogą osoby nie posiadające odpowiedniego przygotowania prawniczego, często również niezaangażowane bezpośrednio w projektowanie, tworzenie czy utrzymanie systemu AI, co podwyższać może ryzyko dostarczenia do systemu nierzetelnych danych. To z kolei wpłynąć może nie tylko na nierzetelne funkcjonowanie takiego systemu, ale również naruszenie podstawowych obowiązków ciążących na podmiotach tworzących lub wykorzystujących systemy AI w zakresie np. przeciwdziałania dyskryminacji, wykluczeniu i poszanowania podstawowych praw jednostki. Wagę tego problemu odzwierciedla art. 71 ust. 3 projektu rozporządzenia AI, przewidując za naruszenia art. 10 najwyższe kary przewidziane projektem rozporządzenia AI – do 30 mln EUR lub 6% całkowitego rocznego światowego obrotu przedsiębiorstwa z poprzedniego roku obrotowego (którakolwiek z tych wartości jest wyższa). Są to limity wyższe niż wynikające z tzw. RODO.


Aktualizacja: 13 czerwca 2024 r. przyjęte zostało rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 - potocznie zwane aktem w sprawie sztucznej inteligencji albo AI Act, którego przepisy zaczną być stosowane stopniowo na przestrzeni lat 2025-27. W/w uwagi poczynione na podstawie art. 10 projektu AI Act pozostają aktualne.


Wpisy powiązane:

Poziomy ryzyka systemów AI

Wymogi dla systemu wysokiego ryzyka

Sztuczna inteligencja a RODO

Kary pieniężne za naruszenie AI Act


🔝Prawo AI - wszystkie wpisy


Data publikacji: 11.01.2024

Data aktualizacji: 16.09.2024

Kontakt

Borek Doliński Radcowie Prawni spółka jawna

ul. Grunwaldzka 224b/9, 60-166 Poznań

office@bdrp.pl

[0048] 530 001 500 // 510 551 991

O nas

Specjalizujemy się w obsłudze prawnej biznesu, ze szczególnym uwzględnieniem branży IT.

Oferujemy najwyższą jakość świadczonego wsparcia prawnego, wysoką responsywność i osobiste zaangażowanie wspólników Kancelarii.