Na tak zadane pytanie należy odpowiedzieć co do zasady twierdząco. Sztuczna inteligencja rozwija się niezwykle dynamicznie, przy jednoczesnym dotychczasowym (do połowy 2024 r.) braku regulacji określających warunki tworzenia systemów AI, czy korzystania z nich. 13 czerwca 2024 r. przyjęte zostało jednakże rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 - potocznie zwane aktem w sprawie sztucznej inteligencji albo AI Act, którego przepisy zaczną być stosowane stopniowo na przestrzeni lat 2025-27.
W związku z powyższym, wiedzieć po pierwsze, o tym, że tworzenie czy korzystanie z AI może być niezgodne z przepisami prawa regulującymi problemy takie jak: ochrona danych osobowych, prawo autorskie, prawo własności przemysłowej, ochrona uczciwej konkurencji, jak i z regulacjami sektorowymi dotyczącymi np. finansów czy ochrony zdrowia, a w skrajnych przypadkach nawet z prawem karnym. Sztuczna inteligencja nie funkcjonuje w próżni, ma służyć określonym celom w określonych obszarach biznesu, gospodarki, czy administracji.
Po drugie, należy mieć na względzie, że AI Act wprowadza szereg wymagań, które spełniać muszą systemy AI (zwłaszcza wysokiego ryzyka) oraz modele AI ogólnego przeznaczenia, by korzystanie z nich było godne z prawem.
Po trzecie, art. 5 AI Act wskazuje na zabronione zastosowania AI - zakazując szeregu nieetycznych lub generujących nadmierne ryzyko zastosowań sztucznej inteligencji. Przytaczanie całej listy zakazów mija się z celem niniejszego opracowania, warto niemniej zwrócić uwagę, że zakazane jest m.in. stosowanie technik podprogowych celem wpływu na zachowanie bądź decyzje osób, wykorzystywanie w tym celu słabości osób fizycznych (np. wynikających z wieku, niepełnosprawności, sytuacji społecznej lub ekonomicznej), stosowanie w pewnych celach scoringu społecznego, tworzenie lub rozbudowywanie baz danych przy pomocy scrappingu wizerunków twarzy dostępnych w internecie lub utrwalonych przy pomocy telewizji przemysłowej, jak i wprowadzanie do obrotu, oddawanie do użytku w tym konkretnym celu lub wykorzystywanie systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa.
Co ważne, Unia Europejska dostrzega, że rozwój AI jest nieunikniony i, co więcej, chce ten rozwój napędzać. Nie należy więc obawiać się, że rozwój systemów AI zostanie zblokowany. W tych jednak obszarach, w których korzystanie z AI generuje wysokie ryzyko dla praw jednostki (a jest to m.in. zatrudnienie – w tym rekrutacja), dopełnić będzie trzeba szeregu obowiązków prawnych. Już teraz więc warto tak projektować systemy sztucznej inteligencji, by korzystanie z ich było możliwe również po rozpoczęciu stosowania unijnego rozporządzenia AI. Wskazówki w tym zakresie zamieszczamy w odrębnych wpisach.
Wpisy powiązane:
Sztuczna inteligencja okiem UE
Wymogi dla systemu wysokiego ryzyka
Kary pieniężne za naruszenie AI Act
Wykorzystanie AI w zatrudnieniu
Data publikacji: 15.01.2024
Data publikacji: 16.09.2024