Сучасна диджитал-освіта для дітей — безоплатне заняття в GoITeens ×
Mazda CX 5
×

Роботы-сексисты

Усі статті, обговорення, новини про AI — в одному місці. Підписуйтеся на DOU | AI!

Крупнейший в мире онлайн-ритейлер Amazon отказался от использования программы, использовавшей искусственный интеллект (ИИ) для отбора потенциальных сотрудников из обширного списка претендентов на основании их резюме. Причина: программа отдавала предпочтение мужчинам и игнорировала женщин.

Программу ИИ для подбора кадров в Amazon начали применять в 2014 году. Но к 2015 году специалистам компании стало очевидно, что программа отбирает в основном резюме мужчин. Объяснялось это тем, что программа была настроена на отбор с учетом всего объема данных по кадровому составу компании за последние десять лет. А за этот период большинство заявлений об устройстве на работу поступало именно от мужчин. Поэтому программа, как объясняют специалисты, сделала вывод: кандидаты-мужчины предпочтительнее.

Попытки специалистов Amazon внести поправки в работу программы ощутимых результатов не дали. Поэтому в начале 2017 года она была закрыта, а известно об этом стало сейчас. В настоящее время Amazon использует отдельные версии программы подбора кадров, но только для выполнения простейших задач, не требующих независимой оценки.

👍ПодобаєтьсяСподобалось0
До обраногоВ обраному0
LinkedIn
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter
Дозволені теги: blockquote, a, pre, code, ul, ol, li, b, i, del.
Ctrl + Enter

Нагадало історію, коли, здається в Австралії, феміністичний рух домігся того, що в резюме не вказували ім’я та стать. Що б у всіх буди рівні можливості. Співбесіди та тести теж проводились анонімно. Потім це все швидко відмінили, тому що відсоток жінок, яких брали на роботу, став ще меньший аніж до нововведення.

Трендец. Шизанутые борцы за права угнетённых борются уже и с математикой. Предположение о том, что разные люди по разному справляются с работой противоречит статистическим данным и просто здравому смыслу? Что же, тем хуже для данных и смысла. Будем их игнорировать!

помню лет 10 назад отдыхал в Крыму, сидели с девушкой на баре, она у бармена спрашивает: могу ли я стать барменшей? Он отвечает типа да, можешь и все такое, но я бы партнера барменшу в смену не взял, тут нужно загружать бочку с пивом ежедневно. Тогда этот аргумент был очень убедительным и идею забросили. Сейчас бы это назвали сексизм

Лол, меня туда не пропустили:)

Ахаха...
Поэтому вывод — надо нанимать реальных людей на подобного типа задачи!
Тут нужен человек, а не машина.

программа, как объясняют специалисты, сделала вывод: кандидаты-мужчины предпочтительнее.

Даже ИИ до этого додумалССо ... феминистки — нет :((
:))

Почему криво?

А за этот период большинство заявлений об устройстве на работу поступало именно от мужчин.

То есть, если есть 100 резюме, из них от женщин 9, а на работу надо взять 20 человек, то все равно должно быть 10 пацанов и 10 девочек?

Это всё фигня. Вон палантир шлёт реджект почти мгновенно, только узнав что кандидат мужчина азиат. www.reddit.com/...​0_seconds_after_i_filled
if(ethnicity === "asian") { reject(applicant); }
почти тоже самое сейчас в гугле против белых мужчин творится. Дайвёрсити и все дела.

почти тоже самое сейчас в гугле против белых мужчин творится.

А есть источник, подтверждающий это?

есть. но этот источник на доу писать не будет

And that is how a *real* race condition looks like!

хм ок. Буду теперь на себесах задавать вопрос про race condition почаще )))

Только белых мужчин надеюсь? Или в зависимости от места работы? )

Підписатись на коментарі