Sztuczna inteligencja (AI) przestaje być futurystycznym dodatkiem do zarządzania zasobami ludzkimi. Coraz częściej staje się narzędziem do podjęcia decyzji: selekcjonuje kandydatów, porządkuje procesy kadrowe, wspiera ocenę efektywności, a w praktyce bywa także „cichym” współautorem rozstrzygnięć o awansach lub rozstaniach z pracownikiem. Z jednej strony, zyskujemy tempo, skalę i pozorną obiektywność a z drugiej równolegle rośnie ryzyko naruszeń praw pracowniczych, zwłaszcza w obszarze prywatności, ochrony danych i równego traktowania.
Na gruncie aktualnie obowiązujących przepisów prawa pracy oraz prawa ochrony danych osobowych pracodawcy, którzy decydują się na stosowanie narzędzi sztucznej inteligencji w zatrudnieniu, podlegają już obecnie szeregowi obowiązków prawnych, niezależnie od przyszłego stosowania szczegółowych regulacji przewidzianych w Akcie o sztucznej inteligencji. Obowiązki te wynikają w szczególności z ogólnych zasad przetwarzania danych osobowych, zakazu dyskryminacji w zatrudnieniu oraz standardów ochrony godności pracownika i sprawiedliwości proceduralnej, które wyznaczają granice dopuszczalności automatyzacji procesów decyzyjnych w relacjach pracowniczych.
Gdzie AI już działa w zatrudnieniu
AI w HR często jest wykorzystywana w rekrutacji (automatyczne przeszukiwanie CV i wstępna selekcja), w analizie danych pracowników, w automatyzacji procesów administracyjnych (np. obsługa urlopów i wniosków), w monitoringu wyników pracy oraz w systemach oceny efektywności. Rozwiązania algorytmiczne są i będą szczególnie intensywnie stosowane w trzech sferach: rekrutacji, bieżącym zarządzaniu personelem oraz systemach oceny efektywności.
Korzyści są realne: skrócenie czasu procesów, redukcja kosztów administracyjnych, większa spójność kryteriów i lepsze dopasowanie kandydatów do profilu stanowiska. Problem zaczyna się wtedy, gdy narzędzie przestaje być wsparciem, a staje się głównym decydentem w procesach kadrowych.
„Czarne skrzynki” i przejęcie algorytmiczne
Jednym z kluczowych wyzwań związanych z AI jest zjawisko tzw. „czarnych skrzynek”, gdzie obserwujemy dane wejściowe i wynik, ale brak nam wiedzy o procesie decyzyjnym pomiędzy nimi. W przypadku zaawansowanych modeli uczenia maszynowego nieprzejrzystość narasta, bo model modyfikuje swoje działanie w kolejnych etapach uczenia się. To nie jest wyłącznie problem techniczny. Nieprzejrzystość ogranicza możliwość weryfikacji zgodności z prawem, utrudnia przypisanie odpowiedzialności, a także osłabia prawa jednostki – pracownik ma bowiem interes prawny w tym, by rozumieć podstawy decyzji wpływającej na jego zatrudnienie.
Kolejne wyzwanie stanowi tzw. „przejęcie algorytmiczne”: stopniowe zastępowanie decyzji ludzkich decyzjami systemów informatycznych pełniących funkcje planistyczne, nadzorcze, kontrolne i weryfikacyjne. Algorytmy mogą monitorować wydajność, zachowania, postawy, a nawet emocje pracowników. W efekcie pracownik bywa sprowadzany do zestawu wskaźników ocenianych w czasie rzeczywistym, a tradycyjny model relacji przełożony–pracownik zostaje uzupełniony o „niewidzialnego menedżera”, który działa w tle.
Ochrona danych pracownika: minimalizacja, profilowanie i art. 22 RODO
W środowisku algorytmicznym pracodawca często przetwarza nie tylko dane identyfikacyjne, lecz także dane behawioralne, biometryczne i predykcyjne. To powoduje administratora danych konieczność zgodności z rozporządzeniem Parlamentu Europejskiego i Rady (UE) 2016/679 z 27.04.2016 r. (RODO), w szczególności z art. 5 ust. 1 lit. c, art. 22, art. 35, a zwłaszcza zasady minimalizacji (przetwarzanie ma ograniczać się do tego, co niezbędne) oraz przejrzystości przetwarzania.
Szczególną rolę odgrywa profilowanie, które zgodnie z art. 4 pkt 4 RODO oznacza dowolną formę zautomatyzowanego przetwarzania danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się. W praktyce HR profilowanie może obejmować selekcję kandydatów, ocenę efektywności i predykcję zachowań pracownika.
Nie każde profilowanie prowadzi jednak do wydania decyzji w rozumieniu art. 22 RODO. Przepis ten znajduje zastosowanie wyłącznie wówczas, gdy rezultat zautomatyzowanego przetwarzania przybiera postać decyzji wywołującej skutki prawne wobec osoby fizycznej lub w podobny sposób istotnie na nią oddziałującej. W praktyce oznacza to, że samo tworzenie profili, ocen czy rankingów – choć może rodzić istotne ryzyka z punktu widzenia ochrony danych osobowych – nie zawsze będzie uruchamiało reżim art. 22 RODO. Kluczowe znaczenie ma moment, w którym wynik profilowania staje się podstawą rozstrzygnięcia wpływającego na sytuację jednostki.
W realiach stosowania sztucznej inteligencji w zatrudnieniu granica pomiędzy profilowaniem a decyzją zautomatyzowaną bywa płynna. Systemy algorytmiczne często generują oceny, rekomendacje lub prognozy, które formalnie mają charakter doradczy, lecz w praktyce są wdrażane niemal automatycznie. W takich przypadkach ryzyko obejścia art. 22 RODO polega na stworzeniu pozoru ludzkiej kontroli, podczas gdy faktyczne ustosunkowanie się do pracownika następuje na podstawie wyniku algorytmu. To właśnie w tym obszarze koncentracja na realnym, a nie deklaratywnym wpływie decyzji staje się kluczowa dla prawidłowej oceny zgodności przetwarzania z RODO.
W praktyce oznacza to, że udział człowieka nie może sprowadzać się do mechanicznego zatwierdzania rekomendacji algorytmu. Interwencja musi być faktyczna i dokonywana przez osobę zdolną do samodzielnej oceny rozstrzygnięcia; w przeciwnym razie dochodzi do obejścia zakazu wynikającego z art. 22 ust. 1 RODO.
Wytyczne Grupy Roboczej art. 29 podkreślają, że udział człowieka musi być realny („meaningful”), a osoba zatwierdzająca decyzję powinna mieć kompetencje i uprawnienia do samodzielnej oceny. Jeżeli nadzór jest iluzoryczny, ochrona wynikająca z art. 22 RODO staje się czysto deklaratywna[1].
Warto tu przy tej okazji wspomnieć o zjawisku automatycznego uprzedzenia (automation bias), które definiuje się jako skłonność do nadmiernego polegania na rekomendacjach zautomatyzowanych systemów. W warunkach presji czasu i odpowiedzialności menedżerowie mogą uznawać algorytm za bardziej trafny i neutralny niż własna ocena, nawet gdy istnieją przesłanki do krytycznej weryfikacji. Taki mechanizm sprzyja faktycznej automatyzacji decyzji kadrowych, co wprost koliduje z ideą realnego nadzoru człowieka.
Kluczowym elementem art. 22 RODO jest obowiązek zapewnienia odpowiednich środków ochronnych. Obejmują one w szczególności prawo do uzyskania przejrzystych informacji o zasadach podejmowania decyzji i ich konsekwencjach, prawo do rzeczywistej interwencji człowieka, prawo do przedstawienia własnego stanowiska, prawo do uzyskania wyjaśnienia decyzji oraz możliwość jej zakwestionowania. Środki te mają zapewniać realną kontrolę nad procesem decyzyjnym i nie mogą mieć charakteru czysto formalnego.
Dodatkowym instrumentem ochronnym jest obowiązek przeprowadzenia oceny skutków dla ochrony danych (DPIA) w sytuacjach, w których zautomatyzowane przetwarzanie może prowadzić do wysokiego ryzyka naruszenia praw lub wolności jednostki. Ocena ta pełni nie tylko funkcję prewencyjną, lecz także pozwala zweryfikować, czy planowane działania mieszczą się w granicach dopuszczalności wyznaczonych przez art. 22 RODO oraz jakie zabezpieczenia są niezbędne w przypadku stosowania wyjątków.
Zakres ochrony wynikającej z art. 22 RODO należy interpretować szeroko, z uwzględnieniem ryzyk systemowych. Dotyczy on również zagrożeń związanych z algorytmicznym utrwalaniem nierówności w zatrudnieniu. Jak wskazuje raport Parlamentu Europejskiego z 2025 r.[2], systemy AI wykorzystywane w rekrutacji i zarządzaniu personelem mogą niezamierzenie reprodukować dyskryminację ze względu na cechy prawnie chronione. Przeciwdziałanie tym zjawiskom opiera się przede wszystkim na reżimie RODO oraz regulacjach Aktu o sztucznej inteligencji, które przewidują szczególne obowiązki dla systemów wysokiego ryzyka, w tym obowiązek monitorowania oraz audytowania
Dyskryminacja algorytmiczna i ciężar odpowiedzialności
Technologie AI mogą nie tylko odzwierciedlać istniejące nierówności, lecz także je wzmacniać i reprodukować na masową skalę. W zatrudnieniu oznacza to ryzyko dyskryminacji algorytmicznej, która bywa trudniejsza do wykrycia niż klasyczne naruszenia.
Mechanizm dyskryminacji algorytmicznej może mieć różne źródła: stronnicze dane historyczne, błędy projektowe, a także proxy discrimination – gdy pozornie neutralne zmienne (np. miejsce zamieszkania) zastępują cechy prawnie chronione.
Analiza dyskryminacji algorytmicznej w zatrudnieniu wymaga podejścia systemowego, łączącego instrumenty prawa pracy i prawa ochrony danych osobowych. Prawo pracy zapewnia materialny zakaz dyskryminacji oraz mechanizmy jego egzekwowania, natomiast prawo ochrony danych osobowych nakłada na pracodawcę obowiązki w zakresie przejrzystości procesów decyzyjnych, minimalizacji danych oraz informowania o logice podejmowanych decyzji. W konsekwencji przeciwdziałanie dyskryminacji algorytmicznej nie może ograniczać się do formalnych obowiązków informacyjnych, lecz wymaga wdrożenia mechanizmów audytu i oceny ryzyka systemów algorytmicznych.
Na gruncie obowiązujących przepisów pracodawca ponosi odpowiedzialność za skutki dyskryminacji algorytmicznej także wtedy, gdy korzysta z narzędzi sztucznej inteligencji dostarczanych przez podmioty trzecie. Odpowiedzialność ta wynika zarówno z art. 18³d Kodeksu pracy, jak i z art. 22 RODO, który co do zasady zakazuje podejmowania wobec pracownika decyzji wywołujących skutki prawne w oparciu wyłącznie o zautomatyzowane przetwarzanie danych.
W efekcie to pracodawca zobowiązany jest wykazać, że stosowany system nie prowadził do nieuzasadnionego różnicowania sytuacji zatrudnionych. Trudności dowodowe wynikające z nieprzejrzystości algorytmów, w tym funkcjonowania modeli „czarnych skrzynek”, nie mogą zwalniać z tej odpowiedzialności. Ryzyko braku transparentności systemu obciąża pracodawcę, który decyduje się na jego wykorzystanie, a nie pracownika dochodzącego ochrony swoich praw.
Ocena pracowników i rozwiązanie umowy: granice automatyzacji
Rozwój zarządzania algorytmicznego, określanego w literaturze jako People Analytics lub Big Data HR, stanowi jakościowo nowy etap zarządzania zasobami ludzkimi, polegający na wykorzystaniu technologii monitorowania oraz algorytmów do pomiaru, kontroli i oceny pracy pracowników. Systemy te mogą służyć zarówno do bieżącej analizy wyników i wyznaczania wskaźników efektywności (KPI), jak i do tworzenia rankingów pracowników oraz wspierania decyzji kadrowych, w tym dotyczących awansów, premii, a w ostateczności także rozwiązania stosunku pracy.
Algorytmiczne zarządzanie umożliwia prowadzenie wielowymiarowej i niemal nieograniczonej kontroli nad pracownikami, co wcześniej było ograniczone względami ekonomicznymi i organizacyjnymi. W tym sensie współczesne rozwiązania technologiczne prowadzą do swoistego odtworzenia koncepcji „naukowego zarządzania”, przy czym obecnie eliminowane są dawne bariery kosztowe związane z intensywnym nadzorem nad procesem pracy.
Raporty OECD[3] zwracają uwagę, że pracownicy w przeważającej mierze pozbawieni są realnych mechanizmów kontroli nad algorytmiczną oceną. W praktyce często nie mają dostępu do danych wykorzystywanych do ich oceny ani możliwości ich sprostowania, a brak przejrzystości procesów decyzyjnych oraz skutecznych mechanizmów odwoławczych znacząco utrudnia kwestionowanie rozstrzygnięć kadrowych. Zjawisko to stanowi istotne zagrożenie dla standardów ochrony wynikających zarówno z prawa pracy, jak i z prawa ochrony danych osobowych, zwłaszcza w przypadku decyzji prowadzących do rozwiązania stosunku pracy.
Na tym tle szczególnego znaczenia nabiera problematyka prawnych aspektów algorytmicznej oceny pracowników. Choć pracodawca jest uprawniony do dokonywania bieżącej lub okresowej oceny pracy, granice tego uprawnienia wyznaczają przepisy prawa pracy. Zgodnie z art. 94 pkt 9 Kodeksu pracy ocena powinna opierać się na obiektywnych i sprawiedliwych kryteriach oraz uwzględniać obowiązek poszanowania godności i innych dóbr osobistych pracownika.
Na gruncie przepisów kodeksu pracy granice oceny wyznaczają m.in. obowiązek stosowania obiektywnych i sprawiedliwych kryteriów oraz poszanowanie godności i dóbr osobistych pracownika. Automatyzacja oceny – zwłaszcza gdy jest nieprzejrzysta – stawia pytanie o zgodność z tym standardem oraz o realność ochrony praw pracownika.
Decyzja o rozwiązaniu stosunku pracy ingeruje w sferę bytową pracownika i wymaga szczególnej ostrożności. W tym kontekście ryzykowne jest rozwiązanie, w którym człowiek jedynie formalnie zatwierdza wynik algorytmu, bez rzeczywistej weryfikacji przesłanek.
Kontrola sądowa oceny pracowniczej następuje co do zasady dopiero wówczas, gdy jej negatywne skutki materializują się w decyzjach kadrowych, w szczególności prowadzących do rozwiązania stosunku pracy. Postępująca algorytmizacja ocen podważa jednak adekwatność tego modelu ochrony, gdyż brak przejrzystości i realnych mechanizmów odwoławczych ogranicza możliwość bieżącej kontroli procesu oceny.
Choć automatyzacja może sprzyjać standaryzacji kryteriów, w połączeniu z ciągłym monitoringiem aktywności zawodowej generuje ryzyko arbitralności, eskalacji wymagań wydajnościowych oraz naruszeń zasady równego traktowania. Obowiązujące regulacje nie zapewniają obecnie wystarczających instrumentów ochrony przed tymi zagrożeniami.
Wnioski, czyli co pracodawca powinien zrobić już dzisiaj, zanim wdroży AI w HR?
Po pierwsze, stosowanie narzędzi sztucznej inteligencji w obszarze zarządzania zasobami ludzkimi wymaga jednoznacznego określenia celu oraz zakresu przetwarzania danych osobowych, a także ścisłego przestrzegania zasady minimalizacji danych, polegającej na ograniczeniu przetwarzania do danych niezbędnych do realizacji prawnie uzasadnionych celów pracodawcy.
Po drugie, w sytuacjach, w których wykorzystanie systemów algorytmicznych może wywoływać wobec pracownika skutki prawne lub w podobny sposób istotnie na niego oddziaływać, konieczne jest zapewnienie rzeczywistego udziału człowieka w procesie decyzyjnym, zagwarantowanie pracownikowi dostępu do jasnych i zrozumiałych informacji o podstawach podejmowanych rozstrzygnięć oraz ustanowienie efektywnych mechanizmów umożliwiających ich zakwestionowanie.
Po trzecie, w przypadkach, w których przetwarzanie danych z wykorzystaniem narzędzi sztucznej inteligencji może prowadzić do wysokiego ryzyka naruszenia praw lub wolności osób, których dane dotyczą, pracodawca powinien przeprowadzić ocenę skutków dla ochrony danych, a także zweryfikować możliwość audytowania stosowanego systemu, w tym dostępność informacji pozwalających na ocenę jego zgodności z obowiązującymi standardami prawnymi.
Po czwarte, pracodawca powinien pozostawać w gotowości do wykazania, że stosowane systemy nie prowadzą do nieuzasadnionego różnicowania sytuacji pracowników ani do powstawania efektów dyskryminacyjnych. Odpowiedzialność za zgodność procesów algorytmicznych z prawem pracy i przepisami o ochronie danych osobowych spoczywa na pracodawcy i nie może zostać przeniesiona na podmiot dostarczający rozwiązanie technologiczne.
Wdrażanie AI w zatrudnieniu to w istocie przedsięwzięcie prawno-organizacyjne, a nie wyłącznie techniczne. Jeżeli ma budować zaufanie, musi iść w parze z przejrzystością procesów, proporcjonalnością monitoringu oraz realnymi gwarancjami proceduralnymi dla pracowników.
[1] Zob. Wytyczne Grupy Roboczej Art. 29 dotyczące zautomatyzowanego podejmowania decyzji i profilowania na podstawie rozporządzenia 2016/679, WP251 rev.01, s. 23, https://ec.europa.eu/newsroom/article29/items/612053 - dostęp z dnia 21.07.2025.
[2] Zob. Parlament Europejski, Algorithmic discrimination under the AI Act and the GDPR, European Parliamentary Research Service (EPRS), 2025, https://www.europarl.europa.eu/RegData/etudes/ATAG/2025/769509/EPRS_ATA%282025%29769509_EN.pdf-dostęp z dnia 20.12.2025.
[3] Zob. OECD, Algorithmic Management in the Workplace. New evidence from an OECD employer survey, OECD Artificial Intelligence Papers, nr 31, Paris 2025, s. 50, https://www.oecd.org/content/dam/oecd/en/publications/reports/2025/02/algorithmic-management-in-the-workplace_3c84ed6d/287c13c4-en.pdf - dostęp z dnia 20.01.2026 r.