Прийшов час осідлати справжнього Буцефала🏇🏻Приборкай норовливого коня разом з Newxel🏇🏻Умови на сайті
×Закрыть

Роботы-сексисты

Крупнейший в мире онлайн-ритейлер Amazon отказался от использования программы, использовавшей искусственный интеллект (ИИ) для отбора потенциальных сотрудников из обширного списка претендентов на основании их резюме. Причина: программа отдавала предпочтение мужчинам и игнорировала женщин.

Программу ИИ для подбора кадров в Amazon начали применять в 2014 году. Но к 2015 году специалистам компании стало очевидно, что программа отбирает в основном резюме мужчин. Объяснялось это тем, что программа была настроена на отбор с учетом всего объема данных по кадровому составу компании за последние десять лет. А за этот период большинство заявлений об устройстве на работу поступало именно от мужчин. Поэтому программа, как объясняют специалисты, сделала вывод: кандидаты-мужчины предпочтительнее.

Попытки специалистов Amazon внести поправки в работу программы ощутимых результатов не дали. Поэтому в начале 2017 года она была закрыта, а известно об этом стало сейчас. В настоящее время Amazon использует отдельные версии программы подбора кадров, но только для выполнения простейших задач, не требующих независимой оценки.

LinkedIn
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Допустимые теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Нагадало історію, коли, здається в Австралії, феміністичний рух домігся того, що в резюме не вказували ім’я та стать. Що б у всіх буди рівні можливості. Співбесіди та тести теж проводились анонімно. Потім це все швидко відмінили, тому що відсоток жінок, яких брали на роботу, став ще меньший аніж до нововведення.

«Мусор на входе — мусор на выходе» — это и сделали суперспециалисты из Амазона.

Трендец. Шизанутые борцы за права угнетённых борются уже и с математикой. Предположение о том, что разные люди по разному справляются с работой противоречит статистическим данным и просто здравому смыслу? Что же, тем хуже для данных и смысла. Будем их игнорировать!

помню лет 10 назад отдыхал в Крыму, сидели с девушкой на баре, она у бармена спрашивает: могу ли я стать барменшей? Он отвечает типа да, можешь и все такое, но я бы партнера барменшу в смену не взял, тут нужно загружать бочку с пивом ежедневно. Тогда этот аргумент был очень убедительным и идею забросили. Сейчас бы это назвали сексизм

В данной заметке нешизанутых нет. Одни какую-то муть сделали, другие внедрили, третьи раскритиковали не по сути, а по феминизму.

Лол, меня туда не пропустили:)

В роботы тебе не пустили или в сексисты?

Ахаха...
Поэтому вывод — надо нанимать реальных людей на подобного типа задачи!
Тут нужен человек, а не машина.

программа, как объясняют специалисты, сделала вывод: кандидаты-мужчины предпочтительнее.

Даже ИИ до этого додумалССо ... феминистки — нет :((
:))

Одни криво сделали и криво обучили. Другие криво применяли и отменяли.
Интересно, а там в амазоне с прямыми руками еще есть люди?

Почему криво?

А за этот период большинство заявлений об устройстве на работу поступало именно от мужчин.

То есть, если есть 100 резюме, из них от женщин 9, а на работу надо взять 20 человек, то все равно должно быть 10 пацанов и 10 девочек?

Потому что обучение, как минимум криво сделано. Люди не в курсе про Байеса.
Второе, сначала внедрить кривую систему, а потом ее внедрение отменять с шумом.

Это всё фигня. Вон палантир шлёт реджект почти мгновенно, только узнав что кандидат мужчина азиат. www.reddit.com/...​0_seconds_after_i_filled
if(ethnicity === "asian") { reject(applicant); }
почти тоже самое сейчас в гугле против белых мужчин творится. Дайвёрсити и все дела.

почти тоже самое сейчас в гугле против белых мужчин творится.

А есть источник, подтверждающий это?

есть. но этот источник на доу писать не будет

And that is how a *real* race condition looks like!

хм ок. Буду теперь на себесах задавать вопрос про race condition почаще )))

Только белых мужчин надеюсь? Или в зависимости от места работы? )

Подписаться на комментарии