Sztuczna inteligencja

AI już decyduje o zatrudnieniu pracownika. Firmy muszą udowodnić, że nie jest uprzedzone

Patryk Koncewicz
AI już decyduje o zatrudnieniu pracownika. Firmy muszą udowodnić, że nie jest uprzedzone
Reklama

Sztuczna inteligencja bywa stronnicza – nowe prawo wymusza na nowojorskich firmach eliminowanie tego zjawiska w procesach rekrutacyjnych.

Narzędzia AI to nie tylko generatory tekstów i obrazów, ale także zaawansowane oprogramowania optymalizujące rekrutację, które już dziś wypierają tradycyjne procesy działów HR. W przypadku dużych korporacji liczba zgłoszeń na dane stanowisko bywa przytłaczająca, przez co czynności rekrutacyjne trwają tygodniami. AI znacznie przyspiesza poszukiwanie nowego pracownika, ale bywa przy tym nieobiektywne. Nowe prawo nakłada na nowojorskie firmy obowiązek poddawania się zewnętrznym audytom, sprawdzającym, czy sztuczna inteligencja nie dyskryminuje pracowników z uwagi na płeć lub rasę.

Reklama

Na tradycyjne procesy rekrutacyjne nie ma już czasu

Sztuczna inteligencja wymaga regulacji – to fakt, z którym trudno się kłócić. Skąd jednak pomysł, by przyglądać się AI pod kątem dyskryminacji w procesach rekrutacyjnych? A no stąd, że narzędziom udowodniono już skłonność do generalizowania i ulegania stereotypom, a najjaskrawszym tego przykładem jest popularny ChatGPT.

Źródło: Depositphotos

Sayash Kapoor – doktorant z Uniwersytetu Princeton – przebadał GPT pod kątem uprzedzeń i odkrył, że narzędzie od Open AI w odpowiedziach na pytania trzy razy częściej stosuje stereotypy płciowe, gdy płeć nie jest jasno wyróżniona – stwierdzono to po zamianie zaimków „on”/„ona” i analizie wyników. Aby uniknąć niepożądanych pomyłek i dyskryminacji pracownika wprowadzono w życie ustawę o Audycie Uprzedzeń, nakładającą na firmy korzystające z podobnych rozwiązań obowiązek kontrolowania algorytmów.

Nawet do 1500 dolarów kary za niezastosowanie się do nowych przepisów

Wielokrotnie opóźniana ustawa wprowadza przede wszystkim obowiązek informowania kandydata o procesowaniu jego zgłoszenia przez sztuczną inteligencję. AI ocenia potencjalnego pracownika między innymi pod względem doświadczenia i wykształcenia, porównując go do reszty kandydatów. Pozwala to nie tylko przyspieszyć proces rekrutacji, ale także pominąć ewentualne preferencje i uprzedzenia ze strony ludzkich rekruterów.

Źródło: Depositphotos

Co jednak jeśli to właśnie nie człowiek, a AI okaże się uprzedzone? Co jeśli okaże się, że dyskryminuje kandydatów z uwagi na płeć, przynależność etniczną lub rasę? Cóż, właśnie przed tym ma ochronić pracowników nowa ustawa, przez którą firmy korzystające z narzędzi optymalizacji rekrutacji będą musiały teraz przejść  specjalne audyty, weryfikujące obiektywność sztucznej inteligencji.

Niezastosowanie się do nowego prawa będzie wiązało się z nałożeniem na firmę grzywny w wysokości 375 dolarów. To jednak jedynie kara za pierwsze wykroczenie. Ponowne nieudostępnienie narzędzia audytorom to już kara rzędu 1350 dolarów, a każde kolejne złamanie prawa będzie wiązało się z nałożeniem obowiązku zapłaty 1500 dolarów.

„Kandydaci powinni mieć możliwość dowiedzenia się, jakie dane są gromadzone i w jaki sposób są wykorzystywane. Uważam, że prawo powinno bardziej skupić się na wymogu określonych poziomów przejrzystości w systemach sztucznej inteligencji, które są wykorzystywane do podejmowania decyzji rekrutacyjnych” – Will Rose, CTO firmy Talent Select AI, sprzedającej oprogramowanie do pomiaru kompetencji kandydatów do pracy

Póki co prawo będzie obowiązywać w tej formie tylko w Nowym Jorku, ale inne stany – takie jak Kalifornia, Illinois, Maryland i Waszyngton – pracują nad podobnymi ustawami i rozważają zaostrzenie przepisów dotyczących wykorzystywania AI w procesie optymalizacji działań rekrutacyjnych.

Reklama

Stock image from Depositphotos

Reklama

Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu

Reklama