Справедливы ли алгоритмы найма? Они слишком непрозрачны, чтобы сказать, результаты исследования


Время — деньги, и, к сожалению для компаний, наем новых сотрудников требует значительного времени — в среднем, более месяца, как показывают исследования.

Решения о приеме на работу также изобилуют человеческими предубеждениями, из-за чего некоторые организации передают хотя бы часть поисковых запросов своих сотрудников внешним техническим компаниям, которые проверяют кандидатов с помощью алгоритмов машинного обучения. Считается, что если людям так сложно найти лучшее, что лучше всего подходит для их компаний, возможно, машина сможет сделать это лучше и эффективнее.

Но новое исследование, проведенное группой ученых в области вычислительной техники и информатики из Корнельского университета, поднимает вопросы об этих алгоритмах и технологических компаниях, которые их разрабатывают и используют: насколько беспристрастен процесс автоматизированной проверки? Как построены алгоритмы? И кем, с какой целью и с какими данными?

Они обнаружили, что компании, как правило, предпочитают неясность прозрачности в этой развивающейся области, где отсутствие консенсуса по фундаментальным вопросам — для начала — формальным определениям «предвзятости» и «справедливости» — позволило технологическим компаниям определять алгоритмические предвзятость на их собственных условиях.

«Я думаю, мы начинаем видеть растущее признание среди создателей инструментов алгоритмического принятия решений, что им необходимо особенно хорошо понимать, как их инструменты влияют на людей», — сказал Маниш Рагхаван, докторант в области компьютерных наук и первый автор книги «Снижение предвзятости в алгоритмической проверке занятости: оценка требований и практики», которая будет представлена в январе на конференции Ассоциации вычислительной техники по вопросам справедливости, подотчетности и прозрачности.

«Многие поставщики, с которыми мы столкнулись в своей работе, признают это (влияние) и принимают меры для устранения предвзятости и дискриминации», — сказал Рагхаван. «Однако наблюдается заметное отсутствие консенсуса или указаний относительно того, как именно это должно быть сделано».

Исследователи изучили доступную общедоступную информацию, чтобы начать понимать эти инструменты и то, какие меры, если таковые имеются, используют компании для оценки и смягчения алгоритмической предвзятости. Защищенные законами об интеллектуальной собственности, технологические компании не обязаны раскрывать какую-либо информацию о своих алгоритмических моделях для проверок перед приемом на работу — хотя некоторые компании все же решили предложить свои идеи.

Исследователи определили 19 поставщиков, специализирующихся на алгоритмических проверках перед приемом на работу, которые, как они обнаружили, включают вопросы, анализ видеоинтервью и игры. Они изучили веб-сайты компаний, веб-семинары и любые доступные документы, чтобы получить представление о претензиях и практике поставщиков.

Очень немногие поставщики предлагают конкретную информацию о том, как они проверяют свои оценки, или раскрывают подробности того, как они снижают алгоритмическую предвзятость, как выяснили исследователи.

«Многие поставщики не упоминают об усилиях по борьбе с предвзятостью, что вызывает особую тревогу, поскольку либо они вообще не думают об этом, либо непрозрачны в своих действиях», — сказал Рагхаван.

Даже если они используют такие термины, как «предвзятость» и «справедливость», они могут быть расплывчатыми. Поставщик может заявить, что его алгоритм оценки «справедливый», не раскрывая, как компания определяет справедливость.

Это похоже на яйца «на свободном выгуле», — сказал Рагхаван: есть набор условий, при которых яйца могут быть помечены как свободные выгулы, но наше интуитивное представление о свободном выгуле может не соответствовать этим условиям.

«Точно так же наименование алгоритма« справедливым »апеллирует к нашему интуитивному пониманию этого термина, но дает только гораздо более узкий результат, чем мы могли бы надеяться», — сказал он.

Команда надеется, что этот документ будет способствовать прозрачности и обсуждению того, что значит действовать этично в этой области оценки перед приемом на работу с помощью машинного обучения.

Учитывая проблемы, может быть, алгоритмы просто не подходят для проверки кандидатов? «Не так быстро», — сказал Рагхаван.

«Мы знаем из многолетних эмпирических данных, что люди страдают от различных предубеждений, когда дело доходит до оценки кандидатов на работу», — сказал он. «Настоящий вопрос не в том, можно ли сделать алгоритмы идеальными; вместо этого уместное сравнение состоит в том, могут ли они улучшить альтернативные методы или, в данном случае, человеческое статус-кво.

«Несмотря на свои многочисленные недостатки, — сказал он, — алгоритмы действительно могут способствовать построению более справедливого общества, и необходима дальнейшая работа, чтобы мы могли понять и смягчить предубеждения, которые они вносят».

Соавторы статьи: Солон Барокас, доцент кафедры информатики, в настоящее время работает в Microsoft Research; Джон Кляйнберг, профессор компьютерных наук Университета Тиш и временно исполняющий обязанности декана СНГ; и Карен Леви, доцент кафедры информатики.

Исследование частично поддержано грантом Фонда Макартуров, предоставленным Корнельской инициативе по искусственному интеллекту, политике и практике; Национальный научный фонд; и Microsoft Research.


Добавить комментарий