Obszar zatrudnienia wydaje się być jednym z naturalnych pól wykorzystania systemów AI. Niejeden przedsiębiorca już dziś z chęcią wsparłby się sztuczną inteligencją przy ocenie nie tylko kandydatów, ale również zatrudnionego już personelu. Co ważne, nic nie wskazuje na to, by takie wykorzystanie AI miało być zabronione. Co jednak równie istotne, rozporządzenie Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. (dalej „rozporządzenie AI”, "AI Act") przewiduje, że systemy AI wykorzystywane w obszarze zatrudnienia będą klasyfikowane co do zasady jako systemy wysokiego ryzyka. To zaś oznacza, że korzystanie z nich będzie obarczone koniecznością spełnienia szeregu obowiązków – o czym pisaliśmy w jednym z wcześniejszych wpisów.
Zgodnie z motywem 57 rozporządzenia AI, systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, decyzji o awansie i rozwiązaniu umownego stosunku pracy, do spersonalizowanego przydzielania zadań w oparciu o indywidualne zachowania, cechy osobowości lub charakter i do monitorowania lub oceny osób pozostających w umownych stosunkach pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze.
Na uwagę zasługuje jednocześnie, iż zgodnie z motywem 63 rozporządzenia AI, faktu, że dany system sztucznej inteligencji został sklasyfikowany jako system wysokiego ryzyka zgodnie z niniejszym rozporządzeniem, nie należy interpretować jako wskazującego na to, że korzystanie z tego systemu jest zgodne z prawem na podstawie innych aktów prawa Unii lub prawa krajowego zgodnego z prawem Unii, na przykład w zakresie ochrony danych osobowych, stosowania wariografów i podobnych narzędzi lub innych systemów służących wykrywaniu stanu emocjonalnego osób fizycznych (…) Niniejszego rozporządzenia nie należy rozumieć jako ustanawiającego podstawę prawną przetwarzania danych osobowych, w tym w stosownych przypadkach szczególnych kategorii danych osobowych, o ile niniejsze rozporządzenie nie stanowi wyraźnie inaczej.
Z powyższego wynika w sposób jasny, że z samego faktu dopuszczenia możliwości wykorzystania AI w obszarze zatrudnienia, nie wynika np. możliwość karmienia systemu AI danymi osobowymi, których nie wolno przetwarzać w obszarze zatrudnienia – np. danych dotyczących karalności (poza pewnymi wyjątkami). Nie może to prowadzić również do nadmiarowego przetwarzania danych osobowych, w sposób prowadzący np. do prowadzenia przez system AI szeroko zakrojonego screeningu kandydata czy pracownika – np. pod kątem jego prywatnej aktywności w portalach społecznościowych, preferencji politycznych, sytuacji finansowej, itp.
Powyższe pokazuje jak sporym wyzwaniem może być zaprojektowanie zgodnego z prawem systemu AI wspomagającego procesy rekrutacyjne czy procesy oceny pracowników. Wiązać będzie się to przede wszystkim z koniecznością spełnienia wymogów stawianych przez rozporządzenie AI dla systemów sztucznej inteligencji wysokiego ryzyka, a także z koniecznością odpowiedniego oznaczenia zakresu danych z jakich taki system może korzystać.
Zgodnie z art. 26 ust. 7 AI Act obowiązkiem podmiotu stosującego system AI wysokiego ryzyka, przed oddaniem go do użytku lub wykorzystaniem w miejscu pracy, jest poinformowanie przedstawicieli pracowników oraz pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się, w stosownych przypadkach, zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli. Podobny obowiązek ciąży, zgodnie z art. 50 ust. 3 AI Act, na podmiotach stosujących systemy rozpoznawania emocji lub systemu kategoryzacji biometrycznej - stąd w przypadku zamiaru wykorzystania takich systemów w odniesieniu do pracowników, obowiązek informacyjny będzie miał bardziej rozbudowany charakter. W tym ostatnim przypadku nie można jednak przede wszystkim zapomnieć o tym, że zgodnie z art. 5 ust. 1 lit f) AI Act zakazane jest wprowadzania do obrotu, oddawania do użytku w tym konkretnym celu lub wykorzystywania systemów AI do wyciągania wniosków na temat emocji osoby fizycznej w miejscu pracy lub instytucjach edukacyjnych, z wyjątkiem przypadków, w których system AI ma zostać wdrożony lub wprowadzony do obrotu ze względów medycznych lub bezpieczeństwa. O zakazie tym należy bezwzględnie pamiętać gdyby pracodawca wpadł np. na pomysł pilnowania "odpowiedniego uśmiechu" swojego personelu, czy badania ich zadowolenia w miejscu pracy za pomocą systemu AI. Naruszenie rzeczonego zakazu zagrożone jest najwyższą przewidzianą przez rozporządzenie AI karą - nawet do 35 000 000 EUR lub 7% rocznego światowego obrotu brutto przedsiębiorcy - w zależności od tego czy pracodawca należy bądź nie należy do kategorii MŚP zastosowanie ma odpowiednio niższa albo wyższa z w/w kwot.
Wpisy powiązane:
Wymogi dla systemu wysokiego ryzyka
Obowiązki podmiotów stosujących AI
Data publikacji: 15.02.2024
Data aktualizacji: 17.09.2024