Между 2014 г. и 2017 г. Amazon се опита да създаде алгоритмична система за анализ на автобиографии, която да подбира най-добрите кандидати за работа. Системата можеше да се нарече Светия Граал на HR-a, ако наистина работеше.

Но тя не работи.

След като компанията обучи алгоритъма въз основа на собствените си данни за заетостта за предходните 10 години, се оказа, че алгоритъмът проявява пристрастие към мъжете кандидати. Срещайки думата "жена", той понижаваше рейтинга на кандидата. Инженерите на Amazon се опитаха да решат този проблем, но нямаше особен смисъл и проектът беше прекратен.

Примерът е повод да се замислим за потенциалната вреда, която системите за автоматично набиране на персонал могат да причинят, ако се използват, без да се вземат предвид социалните и правните последици, които могат да се породят поради необяснимите решения на алгоритъма.

Числата не винаги казват истината.

Марк Жируа, адвокат по трудово правоотношение в Nilan Johnson Lewis, твърди, че негов клиент се е отказал да закупи подобен инструмент за скрининг, след като разбрал как алгоритъмът приоритизира CV-тата. След подробен анализ се оказало, че системата отдава предпочитания на кандидати, чието име започва с Джарет и са играли лакрос в гимназията. 

"Това е наистина отличен показател за някои от проблемите с тези системи - резултати са толкова добри, колкото са данните, които залагате в алгоритъма", казва Жируа. "Вероятно е имало статистически значима връзка между тези два фактора за представянето, но е трудно да се докаже, че те са наистина важни за дадената дъжност."

Това е възможно при всеки подобен алгоритъм на изкуствения интелект, който използва исторически данни за проучване на хората, предупреждават изследователи и технолози.

Хората обикновено мислят, че машините вършат нещата по-добре, което обяснява защо много компании използват инструменти, базирани на ИИ, за да избегнат човешките предразсъдъци. "Основната предпоставка, на която се основава тази технология, е че хората правят грешки и компютрите могат да се справят по-добре", казва Реймънд Берти, адвокат по заетостта в Akerman LLP.

Очевидно нещата не са толкова прости. Не сме достигнали етапа, в който работодателят може да позволи на компютъра да върши цялата работа. Компаниите са отговорни за решенията, които взимат при наемане на персонал, включително и за инструментите, които използват при отсяване на кандидатите. Компанията може да бъде държана отговорна, дори ако не е наясно защо алгоритъмът предпочита един кандидат пред друг.

Прочетете целия материал на сайта на Мениджър Нюз.