Sztuczna inteligencja bywa stronnicza – nowe prawo wymusza na nowojorskich firmach eliminowanie tego zjawiska w procesach rekrutacyjnych.
AI już decyduje o zatrudnieniu pracownika. Firmy muszą udowodnić, że nie jest uprzedzone
Narzędzia AI to nie tylko generatory tekstów i obrazów, ale także zaawansowane oprogramowania optymalizujące rekrutację, które już dziś wypierają tradycyjne procesy działów HR. W przypadku dużych korporacji liczba zgłoszeń na dane stanowisko bywa przytłaczająca, przez co czynności rekrutacyjne trwają tygodniami. AI znacznie przyspiesza poszukiwanie nowego pracownika, ale bywa przy tym nieobiektywne. Nowe prawo nakłada na nowojorskie firmy obowiązek poddawania się zewnętrznym audytom, sprawdzającym, czy sztuczna inteligencja nie dyskryminuje pracowników z uwagi na płeć lub rasę.
Na tradycyjne procesy rekrutacyjne nie ma już czasu
Sztuczna inteligencja wymaga regulacji – to fakt, z którym trudno się kłócić. Skąd jednak pomysł, by przyglądać się AI pod kątem dyskryminacji w procesach rekrutacyjnych? A no stąd, że narzędziom udowodniono już skłonność do generalizowania i ulegania stereotypom, a najjaskrawszym tego przykładem jest popularny ChatGPT.
Sayash Kapoor – doktorant z Uniwersytetu Princeton – przebadał GPT pod kątem uprzedzeń i odkrył, że narzędzie od Open AI w odpowiedziach na pytania trzy razy częściej stosuje stereotypy płciowe, gdy płeć nie jest jasno wyróżniona – stwierdzono to po zamianie zaimków „on”/„ona” i analizie wyników. Aby uniknąć niepożądanych pomyłek i dyskryminacji pracownika wprowadzono w życie ustawę o Audycie Uprzedzeń, nakładającą na firmy korzystające z podobnych rozwiązań obowiązek kontrolowania algorytmów.
Nawet do 1500 dolarów kary za niezastosowanie się do nowych przepisów
Wielokrotnie opóźniana ustawa wprowadza przede wszystkim obowiązek informowania kandydata o procesowaniu jego zgłoszenia przez sztuczną inteligencję. AI ocenia potencjalnego pracownika między innymi pod względem doświadczenia i wykształcenia, porównując go do reszty kandydatów. Pozwala to nie tylko przyspieszyć proces rekrutacji, ale także pominąć ewentualne preferencje i uprzedzenia ze strony ludzkich rekruterów.
Co jednak jeśli to właśnie nie człowiek, a AI okaże się uprzedzone? Co jeśli okaże się, że dyskryminuje kandydatów z uwagi na płeć, przynależność etniczną lub rasę? Cóż, właśnie przed tym ma ochronić pracowników nowa ustawa, przez którą firmy korzystające z narzędzi optymalizacji rekrutacji będą musiały teraz przejść specjalne audyty, weryfikujące obiektywność sztucznej inteligencji.
Niezastosowanie się do nowego prawa będzie wiązało się z nałożeniem na firmę grzywny w wysokości 375 dolarów. To jednak jedynie kara za pierwsze wykroczenie. Ponowne nieudostępnienie narzędzia audytorom to już kara rzędu 1350 dolarów, a każde kolejne złamanie prawa będzie wiązało się z nałożeniem obowiązku zapłaty 1500 dolarów.
„Kandydaci powinni mieć możliwość dowiedzenia się, jakie dane są gromadzone i w jaki sposób są wykorzystywane. Uważam, że prawo powinno bardziej skupić się na wymogu określonych poziomów przejrzystości w systemach sztucznej inteligencji, które są wykorzystywane do podejmowania decyzji rekrutacyjnych” – Will Rose, CTO firmy Talent Select AI, sprzedającej oprogramowanie do pomiaru kompetencji kandydatów do pracy
Póki co prawo będzie obowiązywać w tej formie tylko w Nowym Jorku, ale inne stany – takie jak Kalifornia, Illinois, Maryland i Waszyngton – pracują nad podobnymi ustawami i rozważają zaostrzenie przepisów dotyczących wykorzystywania AI w procesie optymalizacji działań rekrutacyjnych.
Stock image from Depositphotos
Hej, jesteśmy na Google News - Obserwuj to, co ważne w techu