Legal aspects of artificial intelligence in recruitment – selected remarks

The article addresses the current legal challenges associated with the use of artificial intelligence systems in employee recruitment in light of applicable EU regulations (including the AI Act and the GDPR) as well as relevant provisions of Polish labour law. Particular attention is given to the protection of fundamental rights from the perspective of job applicants, especially in the context of risks posed by the use of AI tools. The article also examines the issue of employers’ liability for recruitment processes involving artificial intelligence systems.

Keywords: artificial intelligence, recruitment, discrimination, job applicant, employer

Słowa kluczowe: sztuczna inteligencja, rekrutacja, dyskryminacja, osoba ubiegająca się o pracę, pracodawca

Wprowadzenie

Aktualnie sztuczna inteligencja (AI) odgrywa coraz większą rolę w różnych sferach życia człowieka, w tym również w zatrudnieniu[1]. Wobec dynamicznego rozwoju nowych technologii jest to zjawisko nieuniknione. Do zwiększenia popularności narzędzi sztucznej inteligencji w zatrudnieniu dodatkowo przyczyniła się pandemia COVID-19 oraz wzrost znaczenia pracy zdalnej w ostatnich latach[2]. W praktyce sztuczna inteligencja może być wykorzystywana także na etapie rekrutacji. Celem niniejszego artykułu jest analiza aktualnego otoczenia prawnego związanego z zastosowaniem sztucznej inteligencji na etapie rekrutacji, w szczególności z uwzględnieniem zagrożeń w kontekście praw człowieka ubiegającego się o pracę. Niniejszy artykuł ma być przyczynkiem do dyskusji w zakresie aktualnych wyzwań prawnych związanych z rolą sztucznej inteligencji w procesach rekrutacyjnych.

Z praktycznego punktu widzenia można dostrzec liczne zalety wykorzystywania sztucznej inteligencji w procesach rekrutacyjnych, jak choćby znaczne ich przyspieszenie i związane z tym oszczędności, zarówno dla pracodawców, jak i kandydatów do pracy. Z perspektywy prawnej należy jednak zwrócić uwagę na problematykę istotnych zagrożeń związanych ze sferą praw człowieka pracującego w kontekście korzystania z systemów sztucznej inteligencji na etapie rekrutacji. Z tego względu analizy wymagają w szczególności aspekty prawne związane z obszarami praw człowieka jako osoby ubiegającej się o zatrudnienie, jak prawo do ochrony prywatności (w tym danych osobowych), równego traktowania czy niedyskryminacji. Uwzględnienia wymagają także możliwe instrumenty prawne związane z przeciwdziałaniem możliwemu wykluczeniu społecznemu niektórych kandydatów szczególnie narażonych na to zjawisko.

W aktualnych regulacjach prawnych brak jest kompleksowych przepisów odnoszących się do sztucznej inteligencji na etapie rekrutacji pracowników. Ram prawnych odnoszących się do tego zagadnienia należy poszukiwać na kilku płaszczyznach legislacyjnych, które wzajemnie się uzupełniają. Dotyczy to w szczególności obszaru krajowego prawa pracy (w szczególności na gruncie Kodeksu pracy[3]), obszaru ochrony danych osobowych[4] oraz obszaru regulacji związanych stricte ze sztuczną inteligencją. Ostatni obszar odnosi się zwłaszcza do opublikowanego w dniu 12 lipca 2024 r. w Dzienniku Urzędowym Unii Europejskiej rozporządzenia Parlamentu Europejskiego i Rady (UE) 2024/1689 z dnia 13 czerwca 2024 r. w sprawie ustanowienia zharmonizowanych przepisów dotyczących sztucznej inteligencji oraz zmiany rozporządzeń (WE) nr 300/2008, (UE) nr 167/2013, (UE) nr 168/2013, (UE) 2018/858, (UE) 2018/1139 i (UE) 2019/2144 oraz dyrektyw 2014/90/UE, (UE) 2016/797 i (UE) 2020/1828 (Akt w sprawie sztucznej inteligencji, AI Act) (Tekst mający znaczenie dla EOG)[5]. Dodatkowo odnotować należy także polski projekt ustawy o systemach sztucznej inteligencji[6].

Sygnalizowane powyżej obszary na etapie rekrutacji zostaną więc poddane analizie w ramach niniejszego tekstu. Unijne rozporządzenia z zakresu sztucznej inteligencji (AI Act) oraz ochrony danych osobowych (RODO), jak również przepisy prawa pracy są regulacjami niezależnymi, a jednocześnie wzajemnie na siebie oddziaływującymi[7]. Rozporządzenie unijne w sprawie sztucznej inteligencji (AI Act) będzie miało duży wpływ na prawo i rynek pracy, w tym procesy rekrutacyjne, tym bardziej iż niektóre jego regulacje, jak np. w zakresie zakazanych praktyk w zakresie AI, obowiązują już od 2 lutego 2025 r.

1. Odpowiedzialność za używanie i działanie sztucznej inteligencji (AI)

W ramach rozważań nad sztuczną inteligencją w rekrutacji warto na wstępie poruszyć kwestię odpowiedzialności prawnej za jej działanie. Kluczowa w tym zakresie pozostaje sama definicja sztucznej inteligencji. AI Act nie definiuje pojęcia sztucznej inteligencji, wprowadza jedynie definicję systemów sztucznej inteligencji. Definicji sztucznej inteligencji nie można także odnaleźć na gruncie innych aktów prawnych. W obecnym stanie prawnym, w tym na gruncie AI Act, sztuczna inteligencja nie ma także odrębnej podmiotowości prawnej. Stwierdzenie to pozostaje niezwykle istotne w kontekście odpowiedzialności w różnych sferach prawa prywatnego i publicznego. Oznacza to, że odpowiedzialność za działania sztucznej inteligencji na etapie rekrutacji ponosi co do zasady pracodawca w rozumieniu art. 3 k.p. (osoba fizyczna, osoba prawna, jednostka organizacyjna nieposiadająca osobowości prawnej). W literaturze wskazuje się, że będzie to odpowiedzialność za szkody wyrządzone czynem własnym (art. 415 lub 416 k.c.) lub czynem cudzym (art. 429 lub 430 k.c.), a także ruchem przedsiębiorstwa (art. 435 k.c.)[8]. Do rozważenia pozostają oczywiście w niektórych przypadkach roszczenia zwrotne do dostawców systemów AI, importerów i dystrybutorów systemów AI lub producentów produktu.

W AI Act używa się zwrotu „systemy sztucznej inteligencji”. Z motywu 4 i 138 AI Act wynika, iż AI to szybko rozwijająca się „grupa technologii” [podkreślenie odautorskie], która przyczynia się do wielu różnych korzyści ekonomicznych, środowiskowych i społecznych we wszystkich gałęziach przemysłu i obszarach działalności społecznej. Potwierdza to także definicja „systemu AI”[9] zawarta w art. 3 pkt 1 AI Act. Ponieważ wykorzystywanie AI umożliwia lepsze prognozowanie, optymalizację operacji i przydzielanie zasobów oraz personalizację rozwiązań cyfrowych dostępnych dla osób fizycznych i organizacji, może ono zapewnić przedsiębiorstwom kluczową przewagę konkurencyjną i wzmacniać korzyści społeczne i środowiskowe, na przykład w zakresie opieki zdrowotnej, rolnictwa, bezpieczeństwa żywności, kształcenia i szkolenia, mediów, sportu, kultury, zarządzania infrastrukturą, energetyki, transportu i logistyki, usług publicznych, bezpieczeństwa, wymiaru sprawiedliwości, zasobooszczędności i efektywności energetycznej, monitorowania środowiska, ochrony i odtwarzania różnorodności biologicznej i ekosystemów oraz łagodzenia zmiany klimatu i przystosowywania się do niej. Najogólniej z powyższego wyprowadzić można wniosek, że sztuczna inteligencja ma się przyczyniać do rozwoju ludzkości i służyć człowiekowi. Taki powinien być w założeniu jej cel nadrzędny.

W świetle AI Act systemy sztucznej inteligencji nie są więc odrębną grupą podmiotów, ale określonym typem technologii o specyficznych cechach. Na cechy te zwrócono uwagę w motywie 12 AI Act, stwierdzając, iż jedną z kluczowych cech systemów AI jest ich zdolność do wnioskowania. Ta zdolność do wnioskowania odnosi się do procesu uzyskiwania wyników, takich jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne i wirtualne, oraz do zdolności systemów AI do tworzenia modeli lub algorytmów na podstawie informacji wejściowych lub danych. Techniki, które umożliwiają wnioskowanie podczas tworzenia systemu AI, obejmują mechanizmy uczenia maszynowego. Istotne jest, iż „systemy AI są zaprojektowane tak, aby działały z różnym poziomem autonomii, co oznacza, że są w pewnym stopniu niezależne od zaangażowania ze strony człowieka i zdolne do działania bez interwencji człowieka. Mają zdolność samouczenia się”.

W obecnych regulacjach prawnych ani w realiach technologicznych nie ma w mojej ocenie wystarczających podstaw do upodmiotawiania AI. Rozwijanie dyskusji w odmiennym kierunku na tym etapie uważam za przedwczesne, aczkolwiek nie wykluczam, iż w przyszłości teza ta może podlegać weryfikacji[10].

Oprócz licznych korzyści związanych z postępem technologicznym równolegle dostrzega się także zagrożenia związane ze sztuczną inteligencją (motyw 5 AI Act). Ustawodawca unijny wskazuje, iż „jednocześnie AI może stwarzać zagrożenia i wyrządzać szkody dla interesu publicznego i praw podstawowych chronionych przepisami prawa Unii, w zależności od okoliczności jej konkretnego zastosowania, wykorzystania oraz od poziomu rozwoju technologicznego. Szkody te mogą być materialne lub niematerialne, w tym fizyczne, psychiczne, społeczne lub ekonomiczne”. Ze względu na brak podmiotowości prawnej sztucznej inteligencji odpowiedzialność za takie szkody na gruncie prawa pracy ponosić będzie przede wszystkim pracodawca, który może mieć ewentualne roszczenia zwrotne na przykład do dostawcy nieprawidłowo działającego systemu, co zresztą będzie kwestią nie zawsze łatwą do wykazania ze względu na sposób działania systemów AI, polegający na ciągłym maszynowym uczeniu się w danym środowisku. Korzystanie z systemów sztucznej inteligencji w każdym razie nie zwalnia pracodawcy z odpowiedzialności za prawidłowe przeprowadzenie procesu rekrutacji, w tym stosowanie podstawowych zasad prawa pracy w tym zakresie (art. 10, 111, 112, 113 k.p.).

Kodeks pracy wyraźnie zobowiązuje pracodawcę do przeciwdziałania dyskryminacji na etapie rekrutacji. W art. 94 pkt 2b k.p. wyrażona została wprost norma zakazująca dyskryminacji na etapie nawiązania stosunku pracy. Obowiązki pracodawcy w tym zakresie pozostają nadal aktualne w przypadku korzystania z narzędzi sztucznej inteligencji. Dostęp do pracy można bowiem pojmować w kategoriach prawa podmiotowego, jest on każdorazowo szansą na odpowiednie zarobki, awansowanie i rozwój zawodowy. Odmowa zatrudnienia niejednokrotnie wiązać się może z koniecznością uzasadnienia po stronie pracodawcy, zwłaszcza gdyby doszło do decyzji dyskryminacyjnej.

2. Systemy AI w rekrutacji – szanse i zagrożenia w obszarze praw pracowniczych

Aktualnie najczęściej wykorzystywanymi systemami AI w procesie rekrutacji są boty lub chatboty rekrutacyjne i algorytmy rekrutacyjne AI[11].

Systemy sztucznej inteligencji mogą być wykorzystywane w procesie rekrutacji jako narzędzia do automatycznej weryfikacji przesłanych dokumentów aplikacyjnych na wstępnym etapie, na przykład CV pod kątem spełniania ustalonych kryteriów selekcyjnych (w zakresie wykształcenia, doświadczenia zawodowego, kwalifikacji). Możliwe jest też wykorzystywanie systemów AI do prześwietlenia historii zatrudnienia kandydatów na podstawie danych dostępnych w Internecie, w tym na platformach społecznościowych (tak zwany background screening). Na dalszych etapach rekrutacji systemy AI mogą być wykorzystywane do przeprowadzania lub oceny testów kompetencyjnych dla kandydatów czy też jako chatboxy rekrutacyjne prowadzące rozmowy kwalifikacyjne.

Z praktycznego punktu widzenia niewątpliwie można dostrzec szereg korzyści z wykorzystywania AI w procesach rekrutacyjnych, jak na przykład oszczędności czasowe i kosztowe na etapie przebiegu postępowania rekrutacyjnego czy inwestowanie w nowe technologie, co przyczynia się do wzrostu konkurencyjności i rozwoju gospodarczego zakładów pracy, zarówno w sektorze prywatnym, jak i publicznym.

Z drugiej strony dostrzeżenia wymagają także aspekty negatywne rekrutacji przy pomocy systemów AI z perspektywy praw podstawowych. Wśród zagrożeń wskazać można występujące uprzedzenia algorytmiczne[12], schematyzm, maszynowość działania, niedostrzeganie indywidualnych cech danego kandydata, dokonywanie wyborów w oderwaniu od osoby ludzkiej. Powyższe na etapie rekrutacji rodzi dodatkowo zagrożenia w kontekście przetwarzania danych osobowych, co dostrzeżone zostało przez ustawodawcę unijnego w szczególności na gruncie regulacji art. 22 RODO. W badaniach wskazuje się, iż „dyskryminacja algorytmiczna, ze względu na złożoną, a przez to nieprzejrzystą konstrukcję algorytmów jest bardziej abstrakcyjna i nieintuicyjna, a przez to trudna do wykrycia i udowodnienia[13]. W przypadku rekrutacji na przykład cudzoziemców przy wykorzystywaniu narzędzi AI wskazuje się na zagrożenie w kontekście nierówności i dyskryminacji[14].

Jednym z podkreślanych w rozporządzeniu AI kierunków rozwoju sztucznej inteligencji jest zorientowanie na człowieka. W motywie 6 AI Act wskazuje się, iż AI i jej ramy regulacyjne należy rozwijać zgodnie z wartościami Unii zapisanymi w art. 2 Traktatu o Unii Europejskiej (TUE), podstawowymi prawami i wolnościami zapisanymi w traktatach oraz, zgodnie z art. 6 TUE – w Karcie praw podstawowych Unii Europejskiej[15]. Warunkiem wstępnym jest to, by AI była technologią zorientowaną na człowieka. Powinna ona służyć jako narzędzie dla ludzi, którego ostatecznym celem jest zwiększenie dobrostanu człowieka.

W motywie 27 AI Act wskazuje się na Wytyczne w zakresie etyki dotyczące godnej zaufania sztucznej inteligencji z 2019 r. opracowane przez niezależną grupę ekspertów wysokiego szczebla ds. AI powołaną przez Komisję. Wśród siedmiu zasad etycznych wymienia się: przewodnią i nadzorczą rolę człowieka; solidność techniczną i bezpieczeństwo; ochronę prywatności i zarządzanie danymi; przejrzystość; różnorodność, niedyskryminację i sprawiedliwość; dobrostan społeczny i środowiskowy oraz odpowiedzialność.

Tymczasem same systemy sztucznej inteligencji pozbawione są wrażliwości na sferę społeczną człowieka. W obszarze praw osób ubiegających się o pracę zagrożenia powstają w zakresie prawa do niedyskryminacji, równego traktowania w zatrudnieniu, prawa do wolności pracy czy prawa do prywatności. A jak zostało wskazane, ze względu na fakt, że brak jest podstaw do humanistycznego upodmiotowienia AI, nadal aktualne pozostają kodeksowe obowiązki pracodawcy z tej perspektywy, w tym obowiązek przeciwdziałania dyskryminacji (art. 94 pkt 2 b k.p.) oraz obowiązki równego traktowania, poszanowania godności i innych dóbr osobistych (art. 11, 112 k.p.), w tym prawa do ochrony prywatności (danych osobowych) kandydatów do pracy.

3. Rozwiązania prawne na poziomie ochrony danych osobowych

Każdy proces rekrutacji wiąże się z przetwarzaniem danych osobowych kandydatów. W przypadku prowadzenia rekrutacji z wykorzystaniem systemów sztucznej inteligencji dane te będą przetwarzane przy użyciu tychże narzędzi. Z punktu widzenia poprawności przetwarzania danych osobowych obowiązują ogólne reguły, w tym zasady z art. 5 ust. 1 RODO oraz obowiązki informacyjne z art. 12–14 RODO. W motywie 69 AI Act wskazuje się, iż prawo do prywatności i ochrony danych osobowych musi być zagwarantowane przez cały cykl życia systemu AI. Pracodawca w zależności od różnych rodzajów systemów AI będzie samodzielnym administratorem danych osobowych (zob. art. 4 pkt 7 RODO) lub ich współadministratorem, na przykład wraz z agencją zatrudnienia (zob. art. 26 RODO)[16]. W przypadku korzystania z systemów zewnętrznych konieczne będzie zawarcie umowy powierzenia przetwarzania danych osobowych z dostawcą systemu oraz jego uprzednia weryfikacja w kontekście bezpieczeństwa przetwarzania powierzonych mu danych osobowych przez pracodawcę[17].

Przy zbieraniu danych osobowych na temat kandydatów w ramach systemów AI może dochodzić do różnych form profilowania, z którymi związane są na etapie rekrutacji ryzyka, takie jak dyskryminacja algorytmiczna, naruszenie prawa do prywatności czy też naruszenie prawa wolności pracy. W literaturze zwraca się uwagę, że profilowanie wiąże się z ryzykiem błędnej oceny danej osoby pod kątem występowania u niej określonej cechy, która wynika z jej profilu, ponieważ profil jako model oparty na danych statystycznych nie sprawdza się w przypadku każdej osoby, gdyż odrywa się on od jej indy­widualnych cech i nie uwzględnia jej indywidualnej sytuacji, co może prowadzić do dyskryminacji[18]. Ze względu na ograniczone możliwości pozyskiwania zgód pracowniczych i zgód kandydatów do pracy na przetwarzanie danych osobowych podstawą przetwarzania danych w procesach rekrutacji będzie wówczas prawnie uzasadniony interes administratora danych osobowych (art. 6 ust. 1 lit. f RODO). W takim przypadku konieczne będzie przeprowadzenie tak zwanego testu równowagi między prawnie uzasadnionym interesem administratora a prawami i wolnościami osoby, której dane dotyczą[19].

Na poziomie unijnych przepisów o ochronie danych osobowych przewidziano określone regulacje ochronne dla osób, których dane podlegają profilowaniu. Profilowanie na podstawie danych osobowych wiąże się bowiem z oceną czynników osobowych człowieka. Na gruncie RODO rozróżnia się profilowanie zwykłe oraz kwalifikowane. W każdym przypadku ochrona polega w pierwszej kolejności na wypełnieniu przez administratora danych obowiązku informacyjnego na temat przetwarzanych danych osobowych (art. 12–14 RODO). W przypadku profilowania w trybie zwykłym[20] kandydatowi służy prawo sprzeciwu wobec przetwarzania danych osobowych. Zgodnie z art. 21 RODO osoba, której dane dotyczą, ma prawo w dowolnym momencie wnieść sprzeciw – z przyczyn związanych z jej szczególną sytuacją – wobec przetwarzania dotyczących jej danych osobowych opartego na art. 6 ust. 1 lit. e)[21] lub f)[22] RODO, w tym profilowania na podstawie tych przepisów. Administratorowi nie wolno już przetwarzać tych danych osobowych, chyba że wykaże on istnienie ważnych prawnie uzasadnionych podstaw do przetwarzania, nadrzędnych wobec interesów, praw i wolności osoby, której dane dotyczą, lub podstaw do ustalenia, dochodzenia lub obrony roszczeń. Oznacza to tym samym, że dalsze przetwarzanie danych osobowych związanych z profilowaniem wymaga wykonania tak zwanego testu proporcjonalności polegającego na każdorazowej ocenie, czy w danym przypadku ważniejsze jest prawo do ochrony danych osobowych (prywatności) kandydata czy ważniejsze są prawnie uzasadnione interesy administratora, na przykład wolność prowadzenia działalności gospodarczej.

W przypadku natomiast gdy w toku procesu rekrutacyjnego dochodziłoby do podejmowania zautomatyzowanych decyzji (tak zwane profilowanie kwalifikowane), to jest opartych wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywoływało wyłącznie wobec osoby ubiegającej się o pracę skutki prawne lub w podobny sposób istotnie na nią wpływało, ustawodawca unijny przewidział dalej idącą ochronę. Zastosowanie znajdzie art. 22 RODO, zgodnie z którym osoba, której dane dotyczą, ma prawo do tego, by nie podlegać decyzji, która opiera się wyłącznie na zautomatyzowanym przetwarzaniu, w tym profilowaniu, i wywołuje wobec tej osoby skutki prawne lub w podobny sposób istotnie na nią wpływa[23]. Regulacja ta będzie dotyczyć procesów rekrutacji w pełni zautomatyzowanych, to jest w oparciu o które podejmowane byłyby decyzje co do zatrudnienia lub nie danego kandydata. W automatyzowany sposób dochodziłoby więc do rozstrzygania o prawie do pracy. Regulacja ta ma zapobiegać tak zwanej zautomatyzowanej dyskryminacji[24]. W takiej sytuacji kandydatowi przysługuje prawo do tak zwanej interwencji ludzkiej. Zgodnie z art. 22 ust. 3 RODO w takich przypadkach administrator wdraża właściwe środki ochrony praw, wolności i prawnie uzasadnionych interesów osoby, której dane dotyczą, a co najmniej prawa do uzyskania interwencji ludzkiej ze strony administratora, do wyrażenia własnego stanowiska i do zakwestionowania tej decyzji. Również w motywie 71 RODO wskazuje się, że osoba, której dane dotyczą, powinna mieć prawo do tego, by nie podlegać decyzji – mogącej obejmować określone środki – która ocenia jej czynniki osobowe, opiera się wyłącznie na przetwarzaniu zautomatyzowanym i wywołuje wobec osoby, której dane dotyczą, skutki prawne lub w podobny sposób znacząco na nią wpływa, jak na przykład właśnie elektroniczne metody rekrutacji bez interwencji ludzkiej. Decyzja w tym zakresie może bowiem skutkować odmową dostępu do pracy, czyli ograniczeniem praw społecznych człowieka.

W przypadku tego rodzaju operacji na danych osobowych z wykorzystaniem systemów sztucznej inteligencji konieczne będzie także dokonanie przez administratora danych osobowych zgodnie z art. 35 RODO oceny skutków dla ochrony danych[25]. Jest to bowiem operacja z użyciem nowych technologii oraz ze względu na swój charakter, zakres, kontekst i cele z dużym prawdopodobieństwem może powodować wysokie ryzyko naruszenia praw lub wolności osób fizycznych, to jest w szczególności z zakresu ochrony prywatności, dostępu do pracy, równego traktowania i niedyskryminacji na etapie rekrutacji. W tym kontekście należy także zwrócić uwagę, że w komunikacie Prezesa Urzędu Ochrony Danych Osobowych z dnia 17 czerwca 2019 r. w sprawie wykazu rodzajów operacji przetwarzania danych osobowych wymagających oceny skutków przetwarzania dla ich ochrony (M.P. z 2019 r. poz. 666) wprost zostały wskazane między innymi następujące operacje przetwarzania, dla których wymagane jest przeprowadzenie oceny, a do których może dochodzić w przypadku systemów AI wykorzystywanych w rekrutacji: pkt 1 – „Ewaluacja lub ocena, w tym profilowanie i przewidywanie (analiza behawioralna) w celach wywołujących negatywne skutki prawne, fizyczne, finansowe lub inne niedogodności dla osób fizycznych – Media społecznościowe, firmy headhunterskie – Profilowanie użytkowników portali społecznościowych i innych aplikacji w celu wysyłania informacji handlowej”; pkt 8 – „Przeprowadzanie porównań, ocena lub wnioskowanie na podstawie analizy danych pozyskanych z różnych źródeł – Portale społecznościowe – Zbieranie danych o przeglądanych stronach, wykonywanych operacjach bankowych, zakupach w sklepach internetowych, a następnie ich analiza w celu tworzenia profilu osoby”; pkt 9 – „Przetwarzanie danych dotyczących osób, których ocena i świadczone im usługi są uzależnione od podmiotów lub osób, które dysponują uprawnieniami nadzorczymi i/lub ocennymi – Serwisy oferujące pracę, które dokonują dopasowania ofert do określonych preferencji pracodawców – Przetwarzanie danych, w których dokonuje się klasyfikacji lub ocen osób, których dane dotyczą, pod względem np. wieku, płci, a następnie klasyfikacje te wykorzystuje się do przedstawienia ofert lub innych działań, które mogą mieć wpływ na prawa lub wolność osób, których dane są przetwarzane”.

Powyższe gwarancje prawne na poziomie ochrony danych osobowych kandydatów do pracy powinny być każdorazowo uwzględniane w konstrukcji systemów opartych na AI. System rekrutacyjny z wykorzystaniem narzędzi sztucznej inteligencji (nawet na częściowym etapie rekrutacji) co do zasady będzie wymagał oceny skutków dla ochrony danych osobowych w rozumieniu art. 35 RODO. Administrator danych osobowych (pracodawca) będzie zobowiązany w razie kontroli udokumentować dokonanie stosownych analiz. Systemy oparte na całkowicie zautomatyzowanych procesach rekrutacji powinny zwłaszcza zapewniać narzędzia umożliwiające zweryfikowanie decyzji rekrutacyjnej przez człowieka oraz zapewniać rozwiązania gwarantujące utrzymanie odporności systemów AI na kryteria dyskryminacyjne z art. 183a k.p. (odporność na dyskryminację algorytmiczną) przy wyborze kandydatów. W przeciwnym wypadku proces rekrutacyjny będzie z założenia obarczony nieprawidłowościami na poziomie zarówno zapewnienia właściwego poziomu ochrony danych osobowych, jak i gwarancji prawa do pracy. Odpowiedzialność za naruszenie przepisów o ochronie danych osobowych oraz stosowanie kryteriów dyskryminacyjnych spoczywać będzie na gruncie prawa pracy na pracodawcy.

Nie można jednocześnie zapominać o problemach procesowych mogących się pojawić przy tego rodzaju sprawach. Tryb kwestionowania nieprawidłowości na gruncie ochrony danych osobowych jest odrębny od trybu kwestionowania nieprawidłowości na gruncie przepisów prawa pracy. W literaturze zwrócono uwagę na problematyczną kwestię podchodzenia przez sądy pracy do materiału dowodowego zgromadzonego z naruszeniem przepisów o ochronie danych osobowych, w tym art. 22 RODO[26]. Sprawy dotyczące roszczeń wynikających z naruszenia praw przysługujących na mocy przepisów o ochronie danych osobowych podlegają rozpoznaniu przez sądy okręgowe (art. 17 pkt 45 k.p.c.), podczas gdy sprawy o roszczenia z tytułu dyskryminacji o roszczenia do 100 tys. zł podlegać mogą rozpoznaniu przez sądy rejonowe (art. 16 i 17 pkt 4 k.p.c.). W praktyce może to skutkować dzieleniem spraw przez sądy o różnej właściwości rzeczowej.

4. Systemy wysokiego ryzyka na gruncie AI Act a procesy rekrutacyjne

AI Act klasyfikuje systemy AI na podstawie analizy ryzyka na cztery główne kategorie, to jest systemy wysokiego ryzyka, systemy ograniczonego ryzyka, systemy minimalnego ryzyka, modele AI ogólnego przeznaczenia[27]. Wyróżnia także zakazane praktyki.

Szczególną uwagę w AI Act poświęca się systemom wysokiego ryzyka (rozdz. III, art. 6–49). W związku z ich wykorzystywaniem zarówno na dostawców, jak i na podmioty je stosujące nakłada się szereg dodatkowych obowiązków. Tego rodzaju systemy mogą być także potencjalnie wykorzystywane w rekrutacji. Za systemy wysokiego ryzyka uważane są bowiem systemy, które mają szkodliwy wpływ między innymi na prawa podstawowe (motyw 46 AI Act). Wśród praw podstawowych wskazuje się między innymi na prawo do godności człowieka, poszanowania życia prywatnego i rodzinnego, ochrony danych osobowych, prawo do niedyskryminacji, prawa pracownicze, prawa osób z niepełnosprawnościami, równość płci (motyw 48 AI Act). Nie ulega wątpliwości, że do ich naruszenia może dochodzić na etapie rekrutacji pracowników.

W myśl motywu 52 rozporządzenia AI za systemy wysokiego ryzyka uważane są systemy, jeżeli w związku z ich przeznaczeniem stwarzają one wysokie ryzyko szkody dla zdrowia i bezpieczeństwa lub praw podstawowych osób, biorąc pod uwagę zarówno dotkliwość potencjalnych szkód, jak i prawdopodobieństwo ich wystąpienia, oraz jeżeli są one wykorzystywane w szeregu ściśle określonych z góry obszarów wskazanych w rozporządzeniu.

W motywie 57 AI Act wprost stwierdza się, iż systemy AI wykorzystywane w obszarze zatrudnienia, zarządzania pracownikami i dostępu do samozatrudnienia, w szczególności do rekrutacji i wyboru kandydatów, do podejmowania decyzji mających wpływ na warunki stosunków pracy, należy również zaklasyfikować jako systemy wysokiego ryzyka, ponieważ systemy te mogą w znacznym stopniu wpływać na przyszłe perspektywy zawodowe, źródła utrzymania tych osób i prawa pracownicze. W całym procesie rekrutacji systemy takie mogą utrwalać historyczne wzorce dyskryminacji, na przykład wobec kobiet, niektórych grup wiekowych, osób z niepełnosprawnościami lub osób o określonym pochodzeniu rasowym lub etnicznym lub o określonej orientacji seksualnej. Innymi słowy, systemy te mogą stwarzać ryzyko wykluczenia społecznego dla niektórych grup kandydatów do pracy. Systemy AI wykorzystywane do monitorowania wydajności i zachowania takich osób mogą również podważać ich prawa podstawowe w zakresie ochrony danych i prywatności.

Przykłady przypadków zastosowania systemów wysokiego ryzyka określono w załączniku III do AI Act („Systemy AI wysokiego ryzyka, o których mowa w art. 6 ust. 2 AI Act”). W pkt 4a tego załącznika wśród systemów związanych z zatrudnieniem, zarządzaniem pracownikami i dostępem do samozatrudnienia wskazane zostały wprost systemy AI przeznaczone do wykorzystywania do celów rekrutacji lub wyboru osób fizycznych, w szczególności do celów umieszczania ukierunkowanych ogłoszeń o pracę, analizowania i filtrowania podań o pracę oraz do oceny kandydatów. W przypadku systemów wysokiego ryzyka ustawodawca wprost dostrzega potrzebę ich nadzorowania przez człowieka i dostrzega związane z nimi ryzyko naruszenia praw podstawowych. Nakłada też szereg dodatkowych obowiązków na dostawców wprowadzających takie systemy na rynek. W art. 14 ust. 1–2 AI Act stwierdza się, iż systemy AI wysokiego ryzyka projektuje się i rozwija w taki sposób, w tym przez uwzględnienie odpowiednich narzędzi interfejsu człowiek–maszyna, aby w okresie ich wykorzystywania mogły być skutecznie nadzorowane przez osoby fizyczne. Nadzór ze strony człowieka ma na celu zapobieganie ryzyku dla zdrowia, bezpieczeństwa lub praw podstawowych lub minimalizowanie takiego ryzyka, które może się pojawić, gdy system AI wysokiego ryzyka jest wykorzystywany zgodnie z jego przeznaczeniem lub w warunkach dającego się racjonalnie przewidzieć niewłaściwego wykorzystania, w szczególności gdy takie ryzyko utrzymuje się pomimo stosowania innych wymogów rozporządzenia. Podobnie więc jak w przypadku unijnych regulacji z zakresu ochrony danych osobowych w AI Act kładzie się nacisk na potrzebę możliwości ingerencji ludzkiej w przypadku stosowania takich systemów. Oznacza to w praktyce brak możliwości stosowania systemów AI w pełni zautomatyzowanych na etapie rekrutacji.

W art. 26 AI Act wskazano na obowiązki podmiotów stosujących systemy AI wysokiego ryzyka. Wymieniono wśród nich podejmowanie odpowiednich środków technicznych i organizacyjnych w celu zapewnienia, aby systemy AI były wykorzystywane zgodnie z dołączoną do nich instrukcją obsługi, oraz powierzanie sprawowania nadzoru ze strony człowieka osobom fizycznym, które mają niezbędne kompetencje, przeszkolenie i uprawnienia, a także niezbędne wsparcie. Odpowiedzialność z tego zakresu obciążać będzie także pracodawcę stosującego dany system AI.

Zgodnie z projektowanymi przepisami ustawy o systemach sztucznej inteligencji dostawca systemu sztucznej inteligencji będzie miał obowiązek zgłoszenia Komisji Rozwoju i Bezpieczeństwa Sztucznej Inteligencji poważnego incydentu zaistniałego w związku z wykorzystaniem systemów sztucznej inteligencji[28].

Istotnym elementem ochronnym dla praw osób ubiegających się o zatrudnienie, które przewidziano w Akcie o sztucznej inteligencji, jest także uzyskanie akceptacji społecznej na stosowanie rozwiązań z zakresu AI. Zgodnie z art. 26 ust. 7 AI Act przed oddaniem do użytku lub wykorzystaniem systemu AI wysokiego ryzyka w miejscu pracy podmioty stosujące będące pracodawcami informują przedstawicieli pracowników i pracowników, których to dotyczy, że będzie w stosunku do nich wykorzystywany system AI wysokiego ryzyka. Informacje te przekazuje się w stosownych przypadkach zgodnie z zasadami i procedurami ustanowionymi w prawie Unii i prawie krajowym oraz praktyką w zakresie informowania pracowników i ich przedstawicieli.

Warto zwrócić uwagę, iż w komisyjnym projekcie nowelizacji ustawy o związkach zawodowych[29] zaproponowano wprowadzenie do ustawy wprost przepisu art. 28 ust. 1 pkt 5, zgodnie z którym organizacje związkowe mogą żądać od pracodawcy informacji na temat „parametrów, zasad i instrukcji, na których opierają się algorytmy lub systemy sztucznej inteligencji, które mają wpływ na podejmowanie decyzji, a które mogą mieć wpływ na warunki pracy i płacy, dostęp do zatrudnienia i jego utrzymanie, w tym profilowanie”. Zmiana ta ostatecznie nie została uchwalona ze względu na liczne wątpliwości definicyjne co do użytych pojęć oraz kwestie związane z ochroną tajemnicy przedsiębiorstwa. Niemniej jednak sama idea potrzeby akceptacji społecznej i informacji przedstawicieli pracowników w tym zakresie wydaje się być jak najbardziej zasadna.

Przed wdrożeniem systemu AI wysokiego ryzyka podmioty stosujące, w tym pracodawcy, co do zasady przeprowadzają ocenę skutków w zakresie praw podstawowych, jakie może wywołać wykorzystanie takiego systemu (art. 29 AI Act). Jest to ocena niezależna od oceny skutków operacji dla ochrony danych osobowych z art. 35 RODO.

Z powyższego można wyciągnąć wniosek, iż nawet jeśli pracodawca będzie korzystał z narzędzi AI oferowanych na rynku przez zewnętrznych usługodawców, to na nim również będą spoczywały obowiązki i odpowiedzialność za sprawdzenie działania stosowanych systemów pod kątem przestrzegania podstawowych praw społecznych na etapie rekrutacji.

5. Zakazane praktyki AI

W AI Act mowa jest także o praktykach zakazanych. Regulacje w tym zakresie obowiązują od 2 lutego 2025 r. (art. 5 AI Act). Jako niedopuszczalne praktyki, które mogłyby mieć potencjalne zastosowanie w rekrutacji na poziomie systemów sztucznej inteligencji, należy wskazać między innymi stosowanie technik podprogowych będących poza świadomością danej osoby lub celowych technik manipulacyjnych lub wprowadzających w błąd; wykorzystywanie słabości osoby fizycznej lub określonej grupy osób ze względu na ich wiek, niepełnosprawność lub szczególną sytuację społeczną lub ekonomiczną, którego celem lub skutkiem jest dokonanie znaczącej zmiany zachowania danej osoby lub osoby należącej do tej grupy w sposób, który wyrządza lub może z uzasadnionym prawdopodobieństwem wyrządzić u tej osoby lub u innej osoby poważną szkodę; stosowanie systemów AI na potrzeby oceny lub klasyfikacji osób fizycznych lub grup osób prowadzonej przez określony czas na podstawie ich zachowania społecznego lub znanych, wywnioskowanych lub przewidywanych cech osobistych lub cech osobowości, umożliwiające wnioskowania z ruchów twarzy, emocji, czy też stosowanie systemów kategoryzacji biometrycznej, które indywidualnie kategoryzują osoby fizyczne w oparciu o ich dane biometryczne, by wydedukować lub wywnioskować informacje na temat ich rasy, poglądów politycznych, przynależności do związków zawodowych, przekonań religijnych lub światopoglądowych, seksualności lub orientacji seksualnej. Zakazy z tego zakresu wobec pracodawców stosujących narzędzia sztucznej inteligencji mają charakter bezwzględny. Oznacza to konieczność dokonania oceny stosowanych do tej pory i na przyszłość systemów rekrutacyjnych przy wykorzystaniu sztucznej inteligencji pod kątem niedopuszczalnych praktyk.

Podsumowanie

Z jednej strony sztuczna inteligencja w rekrutacji niesie ze sobą wiele korzyści związanych z postępem technologicznym. Można wskazać na oszczędności czasowe oraz kosztowe ze względu na zmniejszoną potrzebę angażowania personelu w celu przeprowadzenia procesu rekrutacyjnego. Trudno więc już z tego powodu możliwość korzystania z jej narzędzi z założenia odrzucać, albowiem godziłoby to w konkurencyjność pracodawców na rynku.

Z drugiej strony nie można jednak zapominać o istnieniu szeregu zagrożeń związanych z możliwością naruszenia praw podstawowych osób ubiegających się o pracę przy wykorzystaniu systemów sztucznej inteligencji. Ustawodawca unijny dostrzega te zagrożenia zarówno na poziomie AI Act, jak i RODO. Niezależnie od tego obowiązują ogólne zasady prawa pracy na etapie rekrutacji, za których stosowanie zgodnie z polskim prawem pracy odpowiedzialność ponosi pracodawca. Na podkreślenie zasługuje, że za transparentność procesu rekrutacyjnego i przestrzeganie obowiązujących w tym zakresie zasad równego traktowania, niedyskryminacji oraz ochrony danych osobowych odpowiedzialność ponosić będzie przede wszystkim pracodawca. To na nim ciążą nadal wszelkie obowiązki ze sfery poszanowania praw podstawowych osób ubiegających się o zatrudnienie. Z perspektywy AI Act, jeśli pracodawca nie będzie jednocześnie dostawcą systemu, to będzie z reguły podmiotem stosującym system AI, z którym to statusem wiąże się również odpowiedzialność.

Wprowadzenie systemów sztucznej inteligencji na etapie rekrutacji wymagać będzie każdorazowo gruntownej oceny przez pracodawców ryzyk z tym związanych. Ryzyka te ustawodawca unijny dostrzega zarówno z poziomu ochrony danych osobowych osób ubiegających się o zatrudnienie (RODO), jak innych praw społecznych kandydatów, w tym prawa dostępu do pracy (AI Act). Systemy AI służące jako narzędzie rekrutacyjne ustawodawca unijny kwalifikuje jako systemy wysokiego ryzyka. Korzystanie z nich będzie wymagało zatem daleko idących środków ostrożności oraz analizy ryzyk w kontekście potencjalnej możliwości naruszenia praw społecznych. W związku z ich stosowaniem przewidziano dodatkowe obowiązki pracodawcy, zarówno na poziomie technicznym, jak i prawnym. Dotyczy to zwłaszcza obowiązków w zakresie akceptacji społecznej i szacowania ryzyka naruszenia praw społecznych. Inną kwestią jest praktyczne egzekwowanie tych obowiązków, albowiem rozporządzenia unijne pisane są z poziomu ogólnego. Pomimo szeregu obowiązków ciążących na dostawcach systemów AI w praktyce dochodzenie ewentualnych roszczeń regresowych pracodawcy względem dostawców systemów może okazać się trudne, tym bardziej że pracodawca będzie ponosił także odpowiedzialność jako podmiot stosujący system. W mojej ocenie systemy AI mogą generować mniejsze i akceptowalne ryzyko, jeśli będą wykorzystywane jako narzędzie wspierające na pewnych etapach proces rekrutacji. W im szerszym zakresie proces rekrutacji będzie prowadzony przy wykorzystywaniu systemów AI, tym ryzyko to będzie każdorazowo wzrastać. Ze względu na obowiązujące regulacje na gruncie RODO oraz AI Act gwarantujące możliwości weryfikacji podejmowanych decyzji rekrutacyjnych przez człowieka prowadzenie procesów rekrutacyjnych w pełni zautomatyzowanych w obecnym stanie prawnym pozostanie w mojej ocenie co do zasady niedopuszczalne.

Bibliografia

Barańska M., Pandemia i praca w trybie home office wyzwaniem dla pedagogiki pracy, „Szkoła – Zawód – Praca” 2022, nr 24.

Barzycka-Banaszczyk M., Sztuczna inteligencja a stosunki pracy – kilka uwag, [w:] Prawo pracy wobec nowych technologii, red. M. Gersdorf, E. Maniewska, Warszawa 2025.

Chomiczewski W., Profilowanie w ogólnym rozporządzeniu o ochronie danych, [w:] Polska i europejska reforma ochrony danych osobowych, red. E. Bielak-Jomaa, D. Lubasz, Warszawa 2016.

Fajgielski P., [w:] Komentarz do rozporządzenia nr 2016/679 w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), [w:] Ogólne rozporządzenie o ochronie danych. Ustawa o ochronie danych osobowych. Komentarz, Warszawa 2022.

Florczak I., Sztuczna inteligencja jako narzędzie do kierowania polityką zatrudniania cudzoziemców?, „Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2022, t. 29, z. 2.

Gajzlerska A., AI w rekrutacji – jakie granice wyznacza prawo pracy, „Rzeczpospolita”, 25.02.2025, https://pro.rp.pl/biznes/art41841451-ai-w-rekrutacji-jakie-granice-wyznacza-prawo-pracy.

Kaczmarczyk M., Sztuczna inteligencja w prawie HR, [w:] Ochrona danych osobowych w zatrudnieniu, red. D. Dörre-Kolasa, Warszawa 2020.

Konarski X., Aktualności – dane osobowe i prywatność. Wzajemna relacja Aktu w sprawie sztucznej inteligencji oraz RODO, „Prawo Nowych Technologii” 2024, nr 2.

Kubiak M., Kudła M.,Stronniczość i uprzedzenia sztucznej inteligencji (AI Bias) – ryzyko i sposoby jego mitygacji, „Prawo Nowych Technologii” 2023, nr 2.

Latos-Miłkowska M., Kibil M., Czy jesteśmy gotowi na sztuczną inteligencję w zatrudnieniu?, „Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2024, nr 31 (3).

Małobęcka-Szwast I., Wykorzystanie systemów AI w rekrutacji – wyzwania dla ochrony danych osobowych, [w:] Prawo pracy wobec nowych technologii, red. M. Gersdorf, E. Maniewska, Warszawa 2025.

Ministerstwo Cyfryzacji, Zakazane praktyki AI, materiał opracowany przez ekspertów NASK, https://www.gov.pl/web/ai/zakazane-systemy-ai.

Otto M., Dyskryminacja algorytmiczna w zatrudnieniu. Zarys problemu, „Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2022, t. 29, z. 2.

Stefański K., Problem podmiotowości sztucznej inteligencji jako pracodawcy, „Praca i Zabezpieczenie Społeczne” 2024, nr 10.

Turek W., Jak wykorzystuje się sztuczną inteligencję w rekrutacji?, https://www.hays.pl/blog/insights/jak-wykorzystuje-sie-sztuczna-inteligencje-w-rekrutacji-.


[1]    Por. A. Gajzlerska, AI w rekrutacji – jakie granice wyznacza prawo pracy, „Rzeczpospolita”, e-wydanie, 25.02.2025, https://pro.rp.pl/biznes/art41841451-ai-w-rekrutacji-jakie-granice-wyznacza-prawo-pracy [dostęp: 31 maja 2025 r.].

[2]    M. Barańska, Pandemia i praca w trybie home office wyzwaniem dla pedagogiki pracy, „Szkoła – Zawód – Praca” 2022, nr 24, s. 306–307.

[3]    Ustawa z dnia 26 czerwca 1974 r. – Kodeks pracy (t.j. Dz.U. z 2025 r. poz. 277 z późn. zm.), dalej: k.p.

[4]    W szczególności z perspektywy rozporządzenia Parlamentu Europejskiego i Rady (UE) 2016/679 z dnia 27 kwietnia 2016 r. w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych), Dz.U. UE L z 2016 r. Nr 119, s. 1 z późn. zm.; dalej: RODO.

[5]    Dz.U. UE L z 2024 r. poz. 1689. Zgodnie z jego art. 113 rozporządzenie wchodzi w życie 20. dnia po jego opublikowaniu w Dzienniku Urzędowym Unii Europejskiej, a stosuje się co do zasady od dnia 2 sierpnia 2026 r. Wyjątkiem są rozdziały I (art. 2, 3, 4 – Zakres zastosowania, definicje, kompetencje w zakresie AI) i II (art. 5 – Zakazane praktyki w zakresie AI), które stosuje się od dnia 2 lutego 2025 r.; rozdział III sekcja 4 (Organy notyfikujące i jednostki notyfikowane), rozdział V (Modele AI ogólnego przeznaczenia), rozdział VII (Zarządzanie), rozdział XII (Kary) oraz art. 78 (Poufność), które stosuje się od dnia 2 sierpnia 2025 r., z wyjątkiem art. 101 (Kary pieniężne dla dostawców modeli AI ogólnego przeznaczenia).

[6]    Projekt ustawy o systemach sztucznej inteligencji z dnia 15 października 2024 r., https://legislacja.rcl.gov.pl/projekt/12390551/katalog/13087901 [dostęp: 1 maja 2025 r.].

[7]    Zob. motyw 40 AI Act. Szerzej: X. Konarski, Aktualności – dane osobowe i prywatność. Wzajemna relacja Aktu w sprawie sztucznej inteligencji oraz RODO, „Prawo Nowych Technologii” 2024, nr 2, s. 5–6.

[8]    Tak: M. Barzycka-Banaszczyk, Odpowiedzialność odszkodowawcza, [w:] Prawo pracy wobec nowych technologii, red. M. Gersdorf, E. Maniewska, Warszawa 2025, s. 74.

[9]      Zgodnie z nią „system AI” oznacza system maszynowy, który został zaprojektowany do działania z różnym poziomem autonomii po jego wdrożeniu oraz który może wykazywać zdolność adaptacji po jego wdrożeniu, a także który – na potrzeby wyraźnych lub dorozumianych celów – wnioskuje, jak generować na podstawie otrzymanych danych wejściowych wyniki, takie jak predykcje, treści, zalecenia lub decyzje, które mogą wpływać na środowisko fizyczne lub wirtualne.

[10]   Szerzej na temat wątpliwości wokół podmiotowości sztucznej inteligencji K. Stefański, Problem podmiotowości sztucznej inteligencji jako pracodawcy, „Praca i Zabezpieczenie Społeczne” 2024, nr 10, s. 12–18.

[11]   Zob. np. W. Turek, Jak wykorzystuje się sztuczną inteligencję w rekrutacji?, https://www.hays.pl/blog/insights/jak-wykorzystuje-sie-sztuczna-inteligencje-w-rekrutacji- [dostęp: 28 grudnia 2024 r.]; M. Kaczmarczyk, Sztuczna inteligencja w prawie HR, [w:] Ochrona danych osobowych w zatrudnieniu, red. D. Dörre-Kolasa, Warszawa 2020, s. 130.

[12]   Zob. np. M. Kubiak, M. Kudła, Stronniczość i uprzedzenia sztucznej inteligencji (AI Bias) – ryzyko i sposoby jego mitygacji, „Prawo Nowych Technologii” 2023, nr 2, s. 39–48.

[13]   M. Otto, Dyskryminacja algorytmiczna w zatrudnieniu. Zarys problemu, „Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2022, nr 2 (29), s. 147.

[14]   I. Florczak, Sztuczna inteligencja jako narzędzie do kierowania polityką zatrudniania cudzoziemców?, „Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2022, t. 29, z. 2, s. 167–168.

[15]   Dz.U. UE C z 2007 r. Nr 303, s. 1 z późn. zm.

[16]   Szerzej: I. Małobęcka-Szwast, Wykorzystanie systemów AI w rekrutacji – wyzwania dla ochrony danych osobowych,[w:] Prawo pracy wobec nowych technologii, red. M. Gersdorf, E. Maniewska, Warszawa 2025, s. 221–223.

[17]   Zgodnie z art. 28 ust. 1 RODO, jeżeli przetwarzanie ma być dokonywane w imieniu administratora, korzysta on wyłącznie z usług takich podmiotów przetwarzających, które zapewniają wystarczające gwarancje wdrożenia odpowiednich środków technicznych i organizacyjnych, by przetwarzanie spełniało wymogi niniejszego rozporządzenia i chroniło prawa osób, których dane dotyczą.

[18]   Por. W. Chomiczewski, Profilowanie w ogólnym rozporządzeniu o ochronie danych, [w:] Polska i europejska reforma ochrony danych osobowych, red. E. Bielak-Jomaa, D. Lubasz, Warszawa 2016, s. 128, za: P. Fajgielski, Komentarz do rozporządzenia nr 2016/679 w sprawie ochrony osób fizycznych w związku z przetwarzaniem danych osobowych i w sprawie swobodnego przepływu takich danych oraz uchylenia dyrektywy 95/46/WE (ogólne rozporządzenie o ochronie danych),[w:] Ogólne rozporządzenie o ochronie danych. Ustawa o ochronie danych osobowych. Komentarz, Warszawa 2022, art. 22, teza 6.

[19]   Szerzej na temat tego zagadnienia I. Małobęcka-Szwast, Wykorzystanie systemów AI w rekrutacji…, s. 224–227.

[20]   W świetle definicji zawartej w art. 4 pkt 4 RODO profilowanie oznacza „dowolną formę zautomatyzowanego przetwarzania danych osobowych, które polega na wykorzystaniu danych osobowych do oceny niektórych czynników osobowych osoby fizycznej, w szczególności do analizy lub prognozy aspektów dotyczących efektów pracy tej osoby fizycznej, jej sytuacji ekonomicznej, zdrowia, osobistych preferencji, zainteresowań, wiarygodności, zachowania, lokalizacji lub przemieszczania się”. Zob. także: Grupa Robocza Art. 29 (Wytyczne WP 251 rev. 01, s. 8–9).

[21]   To jest przetwarzanie jest niezbędne do wykonania zadania realizowanego w interesie publicznym lub w ramach sprawowania władzy publicznej powierzonej administratorowi.

[22]   To jest przetwarzanie jest niezbędne do celów wynikających z prawnie uzasadnionych interesów realizowanych przez administratora lub przez stronę trzecią, z wyjątkiem sytuacji, w których nadrzędny charakter wobec tych interesów mają interesy lub podstawowe prawa i wolności osoby, której dane dotyczą, wymagające ochrony danych osobowych, w szczególności gdy osoba, której dane dotyczą, jest dzieckiem.

[23]   Zgodnie art. 20 ust. 2 RODO ust. 1 nie ma zastosowania, jeżeli ta decyzja: a) jest niezbędna do zawarcia lub wykonania umowy między osobą, której dane dotyczą, a administratorem; b) jest dozwolona prawem Unii lub prawem państwa członkowskiego, któremu podlega administrator i które przewiduje właściwe środki ochrony praw, wolności i prawnie uzasadnionych interesów osoby, której dane dotyczą; lub c) opiera się na wyraźnej zgodzie osoby, której dane dotyczą.

[24]   Por. M. Latos-Miłkowska, M. Kibil, Czy jesteśmy gotowi na sztuczną inteligencję w zatrudnieniu?,„Studia z Zakresu Prawa Pracy i Polityki Społecznej” 2024, nr 31 (3), s. 156.

[25]   Zgodnie z art. 35 RODO, jeżeli dany rodzaj przetwarzania – w szczególności z użyciem nowych technologii – ze względu na swój charakter, zakres, kontekst i cele z dużym prawdopodobieństwem może powodować wysokie ryzyko naruszenia praw lub wolności osób fizycznych, administrator przed rozpoczęciem przetwarzania dokonuje oceny skutków planowanych operacji przetwarzania dla ochrony danych osobowych. Dla podobnych operacji przetwarzania danych wiążących się z podobnym wysokim ryzykiem można przeprowadzić pojedynczą ocenę.

[26]   M. Latos-Miłkowska, M. Kibil, Czy jesteśmy gotowi na…, s. 163.

[27]   Por. Ministerstwo Cyfryzacji, Zakazane praktyki AI, materiał opracowany przez ekspertów NASK, s. 5, https://www.gov.pl/web/ai/zakazane-systemy-ai [dostęp: 14 lutego 2025 r.].

[28]   Zob. projektowany art. 61 ustawy o systemach sztucznej inteligencji (projekt z 15 października 2024 r.).

[29]   Druk nr 2642, Komisyjny projekt ustawy o zmianie ustawy o związkach zawodowych, https://www.sejm.gov.pl/sejm9.nsf/PrzebiegProc.xsp?nr=2642 [dostęp: 29 grudnia 2024 r.].

Małgorzata Mędrala

Uniwersytet Ekonomiczny w Krakowie Okręgowa Izba Radców Prawnych w Krakowie