AI w HR – o narzędziach cyfrowych wykorzystywanych do rekrutacji 

Udostępnij artykuł!

Sztuczna inteligencja znajduje coraz szersze zastosowanie w różnych sektorach gospodarki. Zmienia sposób wykonywania obowiązków zawodowych oraz pozwala odciążyć człowieka z wykonywania kłopotliwych i nużących zadań. AI daje także szansę na optymalizację procesów administracyjno-kadrowych oraz podejmowanie decyzji w obszarze rekrutacji i ewaluacji pracownika w szybszy, bardziej efektywny sposób. Nie powinno więc dziwić, że coraz częściej polscy przedsiębiorcy sięgają po innowacyjne technologie.

Jak wynika  z najnowszego badania agencji zatrudnienia ManpowerGroup, 11% polskich firm już teraz wykorzystuje AI do zadań w zakresie HR, 20% organizacji realizuje przy udziale narzędzi AI niektóre z elementów procesów rekrutacyjnych, 19% planuje ich implementację w ciągu najbliższego roku, a 16% przed upływem 3 lat. Tylko  18 proc. respondentów nie bierze pod uwagę wykorzystania AI w procesach rekrutacyjnych, a 6 proc. nie zamierza ich włączyć do rekrutacji przez najbliższe trzy lata.

Do głównych powodów, dla których “HRy” sięgają po narzędzia sztucznej inteligencji należą: przyspieszenie procesu rekrutacyjnego, zwolnienie działów kadr z żmudnych czynności administracyjno-organizacyjnych oraz możliwość bardziej trafnego dopasowywania kandydata do danego stanowiska. AI pozwala bowiem sprawnie analizować szereg parametrów pochodzących z wielu różnych CV i “wyrzucać” najbardziej trafny wynik. Z kolei wirtualni asystenci (chatboty) usprawniają kontakt z potencjalnymi kandydatami, odpowiadając na podstawowe pytania czy też wyznaczając spotkania z rekruterem.

Jednak pomimo korzyści płynących z wykorzystywania AI w firmie, całkowite poleganie na zautomatyzowanym podejmowaniu decyzji wiąże się wieloma wątpliwościami natury etycznej i prawnej. Ze względu na brak transparentności działania systemów AI  oraz ryzyko przenoszenia przez nie uprzedzeń ich twórców, nieograniczone zawierzanie technologii budzi kontrowersje w szczególności w odniesieniu do takich obszarów, jak zatrudnienie czy dostęp do usług publicznych (np. służby zdrowia, pomocy społecznej).

Znane są bowiem przypadki dyskryminującego zachowania AI – preferowania kandydatów płci męskiej czy odrzucania przez algorytm osób z niepełnosprawnościami, które choć  odnalazły by się na danym stanowisku, nie spełniały kryteriów wprowadzonych w systemie. Przykładowo, Amazon  pracował nad stworzeniem narzędzia sztucznej inteligencji, które miało pomagać w zatrudnianiu osób odpowiednio przystosowanych do danej pozycji w firmie. Projekt wstrzymano w momencie, kiedy zdano sobie sprawę, że system dyskryminuje kobiety.  Powodem dla częstszego odrzucania damskich profili było opieranie się sztucznej inteligencji na danych z życiorysów osób pracujących w firmie Amazon w ostatnich 10 latach (w większości mężczyzn). W konsekwencji komputer ocenił, że powinien traktować mężczyzn priorytetowo, co automatycznie obniżało szanse aplikacji przejawiających cechy żeńskie.

Widocznym jest więc, że sztuczna inteligencja może zarówno pomagać, jak i szkodzić w pozyskiwaniu nowych, wartościowych kandydatów. Z jednej strony możliwe jest usprawnienie procesu rekrutacyjnego oraz poprawę jego efektywności. Z drugiej, daleko idące zastosowanie AI w rekrutacji może prowadzić do nieuzasadnionego odrzucania talentów niewpasowujących się w “klucz”. Z tego względu przy projektowaniu i wykorzystywaniu narzędzi AI tak dużo mówi się o konieczności nadzoru człowieka nad wdrażanymi systemami (keeping human in the loop”) oraz weryfikowania przez kadry algorytmicznych decyzji podjętych względem konkretnych osób.

Co może zrobić kandydat, który został nieuczciwie potraktowany przez algorytm w rekrutacji

W przypadku dyskryminacji w “klasycznym” procesie rekrutacyjnym osoba poszkodowana może dochodzić ochrony swojego interesu na drodze sądowej. Przy algorytmicznym podejmowaniu decyzji wykazanie nieuzasadnionego odrzucenia oraz dochodzenie roszczeń z tego tytułu jest jednak znacznie trudniejsze. 

Brak transparentności narzędzi sztucznej inteligencji (tzw. problemem czarnej skrzynki; black box problem) sprawia, że często nawet sami twórcy, a więc także pracodawcy wdrażający dane narzędzie AI, nie są świadomi niepożądanego działania AI. Nie oznacza to jednak, że są oni zwolnieni z odpowiedzialności za naruszenia. Osoba, która podejrzewa, że została nieuczciwie odrzucona przez algorytm może podjąć konkretne kroki celem ochrony jej interesu i zmiany decyzji podjętej przez system.

Kluczowy w tej kwestii (przynajmniej do wejścia w życie Aktu ws. sztucznej inteligencji oraz dyrektywy w sprawie odpowiedzialności za sztuczną inteligencję) pozostaje art. 22 RODO. Przepis ten nakłada na administratora danych obowiązek wdrożenia odpowiednich środków ochrony praw, wolności i uzasadnionych interesów osób, których dane (i decyzje) dotyczą, a także mechanizmów umożliwiających konkretnej osobie zakwestionowanie decyzji, która została oparta jedynie na zautomatyzowanym przetwarzaniu.

Kandydat, który podejrzewa, że został niesłusznie odrzucony w procesie e-rekrutacji może:

  1. Podjąć działania w celu zweryfikowania, czy decyzja była całkowicie zautomatyzowana (przeczytać warunki prowadzenia rekrutacji, skontaktować się z HR firmy i ustalić, jak działa algorytm w kontekście procesu aplikowania o pracę).
  1. Poprosić firmę (administratora danych) o możliwość przedstawienia jego perspektywy i tego, z jakiego powodu uważa odrzucenie za niesłuszne.
  1. Wnioskować o wyjaśnienie decyzji przez firmę oraz poprosić o ponowne przeanalizowanie aplikacji, tym razem przez człowieka.  Administrator ma obowiązek najszybciej jak to możliwe odpowiedzieć na żądanie, maksymalnie w terminie miesiąca. W ciągu miesiąca administrator powinien także poinformować wnioskującego  o niespełnieniu żądania i jego przyczynach.
  1. Jeżeli administrator zignoruje żądanie albo odpowiedź nie będzie satysfakcjonująca dla wnioskującego, może on szukać wsparcia u organów ochrony danych osobowych i złożyć skargę do Urzędu Ochrony Danych Osobowych (UODO).
  1. Dodatkowo, niezależnie od postępowania przed UODO osoba, której dane są przetwarzane ma prawo do ochrony swoich praw przed sądem cywilnym. Jeżeli uzna ona, że przetwarzanie danych narusza przepisy prawa, może pozwać administratora lub podmiot przetwarzający. Przed sądem może żądać odszkodowania za naruszenie przepisów o ochronie danych osobowych, a także podnosić kwestie dyskryminacji, które spowodowały szkodę majątkową lub niemajątkową. 

Newsletter

Dane i analizy, które kształtują rzeczywistość.

Raz w miesiącu w twojej skrzynce mailowej.

Administratorem Twoich danych jest Fundacja Instrat. Dowiedz się więcej o ochronie Twoich danych.

Skip to content