
AI w rekrutacji pod nadzorem. Firmy muszą zmienić praktyki HR
- Data publikacji: 04.03.2026, 12:11
Sztuczna inteligencja coraz częściej wspiera rekrutację. Pomaga selekcjonować CV, oceniać kompetencje i zarządzać bazą kandydatów. Teraz firmy będą musiały robić to ostrożniej. Unijny AI Act uznał systemy AI w HR za rozwiązania wysokiego ryzyka. Dotyczy to m.in. narzędzi do filtrowania aplikacji, oceny kandydatów czy tworzenia ogłoszeń.
Obowiązek informowania i nadzór człowieka
Pracodawca będzie musiał poinformować kandydatów, że w procesie używana jest sztuczna inteligencja. Trzeba to zrobić zanim system zostanie użyty.
Wymagany będzie też realny nadzór człowieka nad działaniem algorytmu. Firma musi monitorować system i reagować na błędy.
Większość obowiązków dla systemów wysokiego ryzyka zacznie obowiązywać od sierpnia 2026 roku.
Szkolenia dla działów HR
Nowe przepisy nakładają obowiązek szkolenia pracowników, którzy korzystają z AI. Chodzi o tzw. AI literacy. Zespół HR ma rozumieć, jak działa system i jakie niesie ryzyka.
Z danych eRecruiter wynika, że już 25 proc. firm używa AI w rekrutacji. Tylko 15 proc. ma jednak wewnętrzne wytyczne etyczne.
Problem uprzedzeń algorytmicznych
AI Act wymaga kontroli jakości danych. Zbiory muszą być reprezentatywne. Trzeba wykrywać i ograniczać stronniczość.
Jeśli w przeszłości na dane stanowisko zatrudniano głównie mężczyzn, algorytm może powielać ten schemat. To grozi dyskryminacją.
Według badania Polskie Forum HR 29 proc. przedstawicieli branży wskazuje błędy algorytmiczne jako największe wyzwanie. 19 proc. obawia się tzw. halucynacji AI.
AI w rekrutacji ma przyspieszać proces. Teraz musi być też przejrzysta i pod kontrolą.
