HR PRO

Искусственный интеллект не всегда делает объективный выбор

РУКОВОДИТЕЛИ HR И СПЕЦИАЛИСТЫ ПО ПОДБОРУ ПЕРСОНАЛА ДОЛЖНЫ БЫТЬ НАЧЕКУ ОТНОСИТЕЛЬНО НЕБЛАГОПРИЯТНЫХ ЭФФЕКТОВ ПРИ ИСПОЛЬЗОВАНИИ НОВЫХ ТЕХНОЛОГИЙ.

Крупные технологические компании, как правило, не являются большими поклонниками государственного регулирования. Однако, в последнее время, президент Microsoft нарушил  эту традицию, написав длинный пост в блоге, требуя более пристального изучения правительством технологий распознавания лиц.

«Мы живем в стране законов, и правительство должно играть важную роль в регулировании технологии распознавания лиц», — писал Брэдфорд Л. Смит. «Мир с энергичным регулированием продуктов, которые в целом полезны, но потенциально могут привести к проблемам, лучше, чем мир, лишенный правовых норм».

Программное обеспечение для распознавания лиц является одним из многих нововведений, предоставляемых искусственным интеллектом (ИИ), и его приветствовали за его потенциал для повышения безопасности и защиты от преступников и террористов. Однако растет обеспокоенность тем, что программное обеспечение, наряду с ИИ в целом, очень восприимчиво к предубеждениям тех, кто его программирует, и поэтому может непреднамеренно привести к большей дискриминации в таких областях, как подбор персонала.

В рамках недавнего исследования под руководством M.I.T. исследователь, например, обнаружил, что программное обеспечение распознавания лиц от Microsoft и IBM было гораздо более точным в идентификации белых мужчин, чем у женщин с более темной кожей.

Несколько лет назад Google попал под критику и был вынужден извиниться после того, как было обнаружено, что его приложение для распознавания фотографий маркировало афроамериканцев «гориллами».

Эти примеры особенно тревожат, поскольку ИИ рекламируется как более справедливый способ для компаний найти талант в процессе подбора персонала — с помощью алгоритмов для идентификации людей, которые имеют высокую квалификацию для определенной работы и чья деятельность в области социальных медиа предполагает, что эти люди будут открыты для новой возможности; таким образом, компании при подборе персонала смогут избежать ловушек предвзятых рекрутинговых агентств и менеджеров по найму, которые могли бы отказаться от привлечения кого-то из-за другого происхождения, расы или пола.

ещК сожалению, ИИ может быть восприимчив к тому, что вежливо называют «алгоритмическим смещением».

ИИ так же хорош, как и данные, которые он анализирует

Утверждает Кейтлин МакГрегор, генеральный директор Plum, компании, что разработала программное обеспечение для подбора персонала.

Она приводит пример хорошо оцененного решения ИИ, которое было разработано для выявления высококачественных исполнителей через профили социальных сетей. Тем не менее, когда исследователи «открыли черный ящик» решения, они обнаружили, что этот алгоритм использует такие критерии, как эти люди играют в лакросс, теннис и читают Гарри Поттера. Plum использует базу данных из 24 триллионов «элементов человеческих данных», чтобы помочь определить кандидатов, которые лучше всего подходят для данной роли. Рекрутеры выполняют шестиминутное обследование, созданное промышленно-организационными психологами, которое предназначено для определения основных компетенций для данной роли. Затем кандидаты на работу проходят 25-минутную оценку, которая предназначена для определения того, обладают ли они этими компетенциями.

Другие поставщики, такие как Koru и Pymetrics, также используют алгоритмы различными способами, чтобы помочь компаниям избежать предвзятости в процессе найма. Koru использует опросы, чтобы выявить сильные и слабые стороны сотрудников, и его программное обеспечение идентифицирует людей с одинаковыми чертами, в то время как Pymetrics использует комбинацию «игрофикации» и нейроинформатики для выявления людей, которые могут быть лучше всего подходят для определенной работы.

HireVue, который сделал свое имя одной из первых платформ для видеоинтервью, использует «системы обнаружения эмоций», чтобы отобразить лица интервьюируемых видео, чтобы оценить их, используя модели, созданные на основе лучших сотрудников компании. Хотя целью является устранение предвзятости в процессе найма, критики сомневаются в том, действительно ли этот подход реализует то, что говорит HireVue.

Учитывая, что такие системы, как HireVue, являются собственностью и не открыты для изучения модели системы, как же мы можем подтвердить валидность их претензий на честность и гарантировать, что они не просто «технологическая чистка» и усиление давних моделей дискриминации в процессе подбора персонала?

Лорен Ларсон, главный технический директор HireVue, сказал CNBC:

«Очень важно проверять алгоритмы, используемые при подборе персонала, для обнаружения и исправления ошибок. Ни одна компания, выполняющая такую работу, не должна зависеть только от сторонней фирмы, чтобы гарантировать, что они выполняют эту работу ответственным образом … ответственность за аудит алгоритмов лежит на самой компании, как повседневный процесс».

Компании, такие как IBM, ответили на опасения по поводу предвзятости, внеся изменения в свое программное обеспечение. Недавно IBM представила новый набор данных, предназначенный для обучения распознаванию лиц, чтобы увидеть больше цветов кожи. По словам компании, набор данных, который содержит 36 000 изображений из Creative Commons Flickr, призван сделать распознавание лица более точным.

Все компании, которые используют ИИ для подбора персонала и управления талантами, должны делать все возможное для защиты от предвзятости, говорит Натан Мондрагон, главный психолог HireVue IO.

«Алгоритмы работают безупречно, а вот данные, которые заходят в них могут быть предвзятыми», — говорит он. «Если люди не проверяют этот процесс, это может быть проблемой».

Он приводит пример работы ученых, которые пытались разработать программное обеспечение, которое могло бы правильно классифицировать: волк на фото или хаски. Они хотели придумать алгоритм, который был бы на 90 процентов точным в сортировке волков от хаски. Но когда они изучили алгоритм работы, то оказалось, что классификация животных происходила на основе того, был ли снег на фоне картин, которые он анализировал, — он не имел никакого отношения к тому, были ли они на самом деле волками или хаски.

Если мы не обратим внимания на функции, которые компьютер помечает, чтобы показать разницу между хорошим и плохим исполнителем при подборе персонала, тогда это может оказаться причиной использования таких факторов, как расовые характеристики, вещи, которые не имеют ничего общего с рабочей производительностью.

Делайте проверки, не просто принимайте продукт «как есть», — говорит Натан Мондрагон. «Удостоверьтесь, что чтобы добраться до «Х», у вас не будет предубеждений по расе, возрасту и полу.


Источник: ucg.in.ua