Krajowa ustawa o systemach sztucznej inteligencji ma na celu implementację przepisów Aktu w sprawie sztucznej inteligencji (AI Act), w tym stworzenie środowiska instytucjonalnego służącego stosowaniu tych przepisów. W jednym z wcześniejszych wpisów poświęciliśmy uwagę projektowi tej ustawy, który ujrzał światło dzienne w dniu 15.10.2024 r. W wyniku uwag zgłoszonych do tego projektu w ramach konsultacji społecznych Ministerstwo Cyfryzacji w dniu 10.02.2025 r. opublikowało drugi projekt, który ponownie trafił do konsultacji społecznych. W niniejszym wpisie zwracamy uwagę na najciekawsze z proponowanych rozwiązań.
W pierwszej kolejności należy dostrzec istotną korektę dotyczącą wniosków o wydanie interpretacji przepisów w indywidualnej sprawie. Pierwotnie interpretacje wydawać miał Przewodniczący Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji, a od jego decyzji przysługiwał sprzeciw do samej Komisji. Brakowało jednak zapisu wprost chroniącego wnioskodawcę przed ujemnymi konsekwencjami zastosowania się do treści otrzymanej interpretacji. W aktualnym projekcie ustawy mowa jest o wniosku o wydanie opinii indywidualnej, który będzie składany bezpośrednio do Komisji, a wydana opinia nie podlega zaskarżeniu. Co istotne, w świetle art. 12 ust. 12 projektowanej ustawy „Opinia indywidualna nie jest wiążąca dla Komisji i podmiotu, który złożył o nią wniosek, z zastrzeżeniem, że działania tego podmiotu w zakresie, w jakim zastosował się do opinii indywidualnej, nie mogą stanowić podstawy do nałożenia przez Komisję sankcji administracyjnej”. Należy pozytywnie ocenić ochronny walor tego przepisu, czego brakowało dotychczas, aczkolwiek pamiętać należy o granicach tej ochrony. W skrajnym wypadku Komisja może bowiem dać „zielone światło” na działanie danego systemu AI, a następnie zmienić zdanie i zakazać jego operatorowi stosowania systemu. W tym zakresie przepis wymaga dalszych prac legislacyjnych i stworzenia bardziej wyrazistych granic ochrony dla operatorów systemów AI. Za konieczne należy uznać również wprowadzenie środków odwoławczych od opinii wydawanych przez Komisję, które nie byłyby korzystne dla wnioskodawców. Cenne w tym zakresie są rozwiązania przyjęte na gruncie interpretacji podatkowych, które przecież podlegają kontroli sądowej.
Kolejna korekta dotyczy zasad prowadzenia kontroli przestrzegania przepisów o sztucznej inteligencji. Utrzymano zdalny charakter kontroli, dodano natomiast, że kontrole mogą się odbywać zgodnie z zatwierdzonym planem kontroli i nie wcześniej niż po 7 dniach od doręczenia kontrolowanemu zawiadomienia o wszczęciu kontroli (wcześniej brakowało takiego uprzedzenia). Jednak Komisja będzie mogła odstąpić od zdalnej formy kontroli i zachowania terminu 7-dniowego, gdy uzasadniają to okoliczności sprawy (np. ze względu na podejrzenie wystąpienia szkody dla życia, zdrowia, bezpieczeństwa lub praw podstawowych osób fizycznych, wynikające z wprowadzenia do obrotu, oddania do użytku lub stosowania systemu, którego dotyczy kontrola).
Szczególną uwagę zwraca rozwiązanie przyjęte w art. 47 ustawy, w myśl którego Przewodniczący Komisji wydaje zalecenia pokontrolne, jeżeli w wyniku kontroli stwierdzono, że kontrolowany nie wypełnia odnoszących się do niego obowiązków wynikających z rozporządzenia 2024/1689 lub decyzji wydanej przez Komisję. Dopiero niewykonanie zaleceń w terminie wyznaczonym w zaleceniu (nie krótszym niż 30 dni) skutkować może wszczęciem postępowania w sprawie naruszenia przepisów. To trafne rozwiązanie, bowiem poprzednia wersja przepisów przewidywała wszczęcie postępowania z urzędu w razie stwierdzenia naruszeń. Gdyby aktualne brzmienie przepisu weszło do obrotu, to operatorzy systemów AI zyskają istotne uprawnienie ochronne przed sankcjami prawnymi. Oczywiście rozwiązanie to nie gwarantuje ochrony przed postępowaniem w sprawie naruszenia (takie postępowanie nie musi być poprzedzone kontrolą), jednak podczas kontroli będzie szansa na zmniejszanie ryzyka postępowania i nałożenia kar.
Warto też odnotować, że w obecnym projekcie proponuje się skrócenie czasu trwania postępowania w sprawie naruszenia przepisów o sztucznej inteligencji do 6 miesięcy (z pierwotnych 12), z kolei wprowadzono także termin na zgłaszanie poważnych incydentów, który wynosi zaledwie 24 godziny (a więc operatorzy będą mieć 3 razy mniej czasu niż administratorzy danych zgłaszający naruszenie ochrony danych do Prezesa UODO).
Najciekawsze są jednak dwa rozwiązania, których poprzedni projekt ustawy w ogóle nie przewidywał, a mianowicie:
- układ w sprawie warunków nadzwyczajnego złagodzenia sankcji (rozdział 5) – to swoista umowa zawarta pomiędzy Komisją a stroną postępowania w przedmiocie naruszenia przepisów o AI, która może być zwarta w przypadku, gdy przyczyni się to do przyspieszenia postępowania lub w inny sposób przyczyni się do pełniejszej realizacji celów AI Act oraz ustawy, a działanie strony będące przedmiotem postępowania nie doprowadziło do wystąpienia zdarzeń, o których mowa w art. 3 pkt. 49 lit. a, b lub d rozporządzenia 2024/1689 (chodzi o poważny incydent skutkujący śmiercią osoby lub poważnym uszczerbkiem na jej zdrowiu, poważnym i nieodwracalnym zakłóceniem działania infrastruktury krytycznej oraz poważną szkodą na mieniu lub poważną szkodą dla środowiska); układ nie tylko może zapewnić stronie postępowania zmniejszenie sankcji, ale także – w przypadku zaistnienia nadzwyczajnych okoliczności łagodzących, w tym usunięcia wszelkich skutków naruszenia objętego postępowaniem przez stronę postępowania – może przewidywać odstąpienie od nałożenia sankcji (art. 61 ust. 9). Procedura wygląda tak, że Komisja najpierw musi wydać postanowienie o możliwości zawarcia układu, następnie strona postępowania składa oświadczenie o przyjęciu układu („w całości i bez zastrzeżeń”, wskutek czego zrzeka się prawa do złożenia skargi do sądu ochrony konkurencji i konsumentów), wreszcie Komisja niezwłocznie wydaje decyzję zawierającą ustalenia układu, która z chwilą wydania staje się ostateczna i prawomocna.
- zasady ustanawiania piaskownic regulacyjnych (rozdział 8) – to z kolei rozwiązania służące wspieraniu innowacyjności, których ramy określa AI Act, ale polski ustawodawca doprecyzowuje te zagadnienia. W skrócie rzecz ujmując, Przewodniczący Komisji może ustanowić piaskownicę regulacyjną i w drodze decyzji udzielić zgody wybranym podmiotom na odstępstwo od stosowania przepisów wymienionych w ustawie, aby w ten sposób umożliwić im realizację celów wskazanych w art. 57 ust. 9 AI Act. Dostęp do piaskownic będzie limitowany, a zakwalifikowane zostaną tylko te podmioty, które wezmą udział w konkursie i spełnią warunki określone ustawą. Dostęp dla MŚP, w tym przedsiębiorstw typu start-up będzie bezpłatny. Tym rozwiązaniom warto się bacznie przyglądać poprzez śledzenie toku prac legislacyjnych – gdy zyskają one finalny kształt, będziemy omawiać je szerzej w kolejnych wpisach. Bez wątpienia to jeden z najważniejszych punktów drugiego projektu ustawy, a zamieszczenie tego w aktualnej wersji jest krokiem pożądanym przez przedsiębiorców stawiających na innowacje.
Jak informowaliśmy przy okazji poprzedniego projektu, zegar tyka. Na wdrożenie przepisów ustawy o systemach sztucznej inteligencji zostaje coraz mniej czasu, a deadline przypada na dzień 2.08.2025 r.
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
Dokumentacja techniczna systemu AI
System zarządzania ryzykiem AI
Obowiązki dostawców systemów AI
Obowiązki importerów systemów AI
Obowiązki dystrybutorów systemów AI
Kary pieniężne za naruszenie AI Act
Data publikacji: 13.02.2025