Rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z 13 czerwca 2024 r. („AI Act”) rozróżnia pojęcia systemu AI oraz modelu AI, nie definiując w zasadzie tego drugiego i nie tłumacząc jak rozróżniać system AI od modelu AI.
W art. 3 pkt 1) AI Act znaleźć możemy definicję legalną systemu AI, definiowanego jako system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.
Art. 3 pkt 63) AI Act tłumaczy natomiast, że model AI ogólnego przeznaczenia to model AI, w tym model AI trenowany dużą ilością danych z wykorzystaniem nadzoru własnego na dużą skalę, który wykazuje znaczną ogólność i jest w stanie kompetentnie wykonywać szeroki zakres różnych zadań, niezależnie od sposobu, w jaki model ten jest wprowadzany do obrotu, i który można zintegrować z różnymi systemami lub aplikacjami niższego szczebla – z wyłączeniem modeli AI, które są wykorzystywane na potrzeby działań w zakresie badań, rozwoju i tworzenia prototypów przed wprowadzeniem ich do obrotu.
Definicja powyższa posługuje się więc pojęciem „modelu AI”, nie definiując go. Konsekwentnie, porównanie dwóch w/w definicji legalnych nie pozwala na jasne rozróżnienie systemu AI od modelu AI, czego należałoby wymagać od unijnego prawodawcy. Jak więc te dwa pojęcia rozróżnić?
Modelem AI określamy algorytm wykonujący określone zadania. Model AI stanowi podstawowy komponent sztucznej inteligencji, wytrenowany do rozpoznawania wzorów, dokonywania predykcji, czy podejmowania decyzji opartych o dane.
Systemy AI są zaś tworami bardziej złożonymi, w których skład wchodzi jeden lub więcej modeli AI, obejmującymi ponadto mechanizmy zbierania, przetwarzania i analizowania danych oraz jakąś formę interfejsu użytkownika, pozwalającą temu ostatniemu na interakcję z systemem i korzystanie z funkcji, którym system został przeznaczony, wraz z oprogramowaniem, a czasem również sprzętem, które są niezbędne do korzystania z systemu AI.
Powyższe rozróżnienie znajduje oparcie w motywie 97 AI Act, stanowiącym: „Chociaż modele AI są zasadniczymi elementami systemów AI, nie stanowią same w sobie systemów AI. Aby model AI mógł stać się systemem AI należy dodać do niego dodatkowe elementy, takie jak na przykład interfejs użytkownika. Modele AI są zwykle zintegrowane z systemami AI i stanowią ich część.”
Obowiązki przewidziane w AI Act stosuje się (w różnym zakresie) do systemów AI oraz do modeli AI ogólnego przeznaczenia – ze względu na możliwy szerszy zakres oddziaływania tych modeli zarówno na same systemy AI, jak i na prawa i wolności osób, które naruszone zostać mogą poprzez wykorzystanie konkretnego systemu AI. Co się zaś tyczy modeli AI innych niż modele AI ogólnego przeznaczenia, zwrócić należy uwagę w szczególności na art. 25 ust. 4 AI Act, zgodnie z którym to przepisem, osoba dostarczająca narzędzia, usługi, komponenty lub procesy, które są wykorzystywane w systemie AI wysokiego ryzyka lub z nim zintegrowane, wskazuje, w drodze pisemnej umowy zawartej z dostawcą takiego systemu AI, informacje, zdolności, dostęp techniczny i innego rodzaju pomoc opartą na powszechnie uznanym stanie wiedzy technicznej wymagane, aby umożliwić dostawcy systemu AI wysokiego ryzyka pełne spełnienie obowiązków ustanowionych w AI Act. Od powyższej zasady przewidziano istotny wyjątek stanowiący, że nie stosuje się jej do osób udostępniających publicznie na podstawie bezpłatnej licencji otwartego oprogramowania narzędzia, usługi, procesy lub komponenty inne niż modele AI ogólnego przeznaczenia. Unia dostrzega więc istotną rolę jaką w rozwoju sztucznej inteligencji odegrać mogą dostawcy oprogramowania dystrybuowanego w oparciu o licencje otwarte, przewidując, że tak długo jak nie czynią oni tego w celach komercyjnych, zwolnieni powinni zostać z części obowiązków przewidzianych w AI Act.
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
Data publikacji: 19.09.2024