Продолжение к посту "Расизм повсюду..."

Вот еще одна мини-история от друга)

Продолжение к посту "Расизм повсюду..." Чернокожие, Расизм, Black Lives Matter, Идиотизм, ВКонтакте, Скриншот
Вы смотрите срез комментариев. Показать все
89
Автор поста оценил этот комментарий
Хорошо бы было, если бы все негры стали равными нормальным белым. И никаких им пособий и ни слова о том,что они черные. Просто все равны, и при приеме на работу и при избрании в госорганы. Вот тогда и посмотрим кто есть кто, а не так,что гея негра берут на работу только, чтобы не обвинили в рассизме.
раскрыть ветку (28)
105
Автор поста оценил этот комментарий

Я как то предлагал на просторах пикабу подобную систему. Если вкратце - на собеседовании, или при решении тест задач, проверяющий не видит того, кто проходит собеседование. Даже не знает имени-фамилии. Не знает пола. Не знает возраста. Только чистый опыт и профессиональные навыки. И любое неравенство (по признаку члена или морщин в том числе) сразу исчезает.
На что мне ответили, что вроде-бы где-то такое дело делали, но закономерно было принято на работу 99.999% белых гетеросексульных мужчин в самом расцвете сил. И в итоге эту штуку закрыли по причинам расизма сексизма просто чтобы.
Пруфов к сожалению нет, так как в тот раз и я их не получил, но самому почитать было бы интересно.

раскрыть ветку (25)
36
DELETED
Автор поста оценил этот комментарий

Это не шутка.

Нейросеть в амазон(?) выбирала кандидатов только мужского пола и белых.

Пришлось отказаться от использования

раскрыть ветку (4)
11
Автор поста оценил этот комментарий

Ну так это и понятно, стереотип, это заранее сформированная оценка, некое сформированное жизненным опытом (или же непропорциональным количеством доступной информации) обобщающе- вероятностное правило. Дискриминация некой группы и есть следование тому же алгоритму на основе стереотипов- "я не буду разбираться с конкретным случаем, а обобщу свое представление и опыт с подобными". Собственно, это и есть принцип работы сети, сделать вывод о некоем субъекте на основании нахождения сходства с чем-то похожими, так что не удивительно что белые мужчины выбирались сетью как предпочтительные - сеть "знает" что среднестатистический белый мужчина более стабилен- ходил в более престижную школу, имеет более успешных друзей в соцсетях, живет в более благополучном районе, у него нет перерывов в карьере на декрет и т.д. , соответственно он более привлекателен для сети, в то же время отдельно взятый кандидат может и не соответствовать стереотипу, но сеть не даст ему шанса на основании обобщений.

раскрыть ветку (3)
5
Автор поста оценил этот комментарий
Ну вы хоть почитайте как она отбирала кандидатов. Там прямо противоположное. Она не опиралась от навыков и промежутков работы/распиздяйства. Там основной тезис - речевые обороты в резюме. И она сочла, что речевые обороты о достижениях в работе мужчин она предпочла женским. Вот и все. Про рассизм там и речи не было!
раскрыть ветку (1)
3
Автор поста оценил этот комментарий

ну мой комментарий относился к естественной тенденции сетей дискриминировать в целом , а не не именно к конкретно к данной рекрутинговой амазоновской сети. Ну а если вкратце прогуглить информацию именно об этой:

"In effect, Amazon’s system taught itself that male candidates were preferable. It penalized resumes that included the word “women’s,” as in “women’s chess club captain.” And it downgraded graduates of two all-women’s colleges, according to people familiar with the matter"
" Амазоновская сеть научила себя отдавать предпочтение мужчинам. Она штрафовала резюме за использование слова "женский" , например, в контексте "капитан женского шахматного клуба" и выпускниц чисто женских колледжей"
https://www.reuters.com/article/us-amazon-com-jobs-automatio...

А научила сеть себя, очевидно, на основании сравнений резюме соискателей с резюме тех кто уже работает. Ну еще этот проект относился к 2015 году, тогда еще не было особых правил что можно использовать в модели, а что нет, и сети сами без ограничений учили себя. Сейчас в США вводятся ограничения на их использования в разных социальных применениях, к примеру в моделях кредитного рейтинга запретили использовать почтовый индекс, что бы не отдавать предпочтения жителям богатых районов, хотя кредитные бюро и держат свои модели в секрете и никогда не признавались в использовании таких данных, скорее отнекивались, но все (в индустрии) прекрасно понимали что всегда есть вариант засунуть переменную опосредованно (не запрещенную, а какую- нибудь другую, имеющую с запрещенной сильную корреляцию). Именно поэтому Амазон и закрыл проект, судя по всему.

1
Автор поста оценил этот комментарий
Обычно я скептически отношусь к случайному лесу, но вашем случае полностью согласен
4
Автор поста оценил этот комментарий
Кроме опыта и профессиональных навыков многое еще надо. То же умение работать в команде или стрессоустойчивость. Ну и что б не бухал . А то тест задание сделал , работу получил и в запой на месяц!
раскрыть ветку (3)
2
Автор поста оценил этот комментарий

Всегда можно проводить в два этапа: вот такой вот тест и личная беседа после с прошедшими 1 этап. На втором этапе пусть берут хоть баб-геев ниггеров из открытого космоса, факт в том, что они удовлетворяют требованиям на первом этапе

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

а что изменится? не возьмут бабу на втором - будут те же возмущения "дискриминация,вы не берете меня патамушта я баба!!"

та же хуйня,только в профиль

Автор поста оценил этот комментарий
Вот тут то они и выступят))
4
Автор поста оценил этот комментарий

Это был эксперимент в Австралии, инициированный по желанию женщин (вроде в какой-то большой конторе, потому что их не устраивало мол из-за половой дискриминации/расизма их реже берут на работу). В итоге стали отсеивать по проф.навыкам и тестированиям (убрали пол/гендер там и прочее) - и их стало проходить ещё меньше, от чего пердачки моментально стали отлетать и эксперимент прикрыли со скоростью света.


Толерантненько в общем :D

ещё комментарии
Автор поста оценил этот комментарий

Интересно, если судебная система будет обезличивать преступников перед судом. Был к примеру Рауфик, стал обвиняемый №127892, а потом бонусами отягчающие или смягчающие обстоятельства (без раскрытия личности и положения). Понимаю, что фантастика, которая в нынешних реалиях работать не будет, НО ... просто интересно)

Автор поста оценил этот комментарий
Так тут никак не выйдет оскорбить никого вот и прикрыли. Иначе бы мы негров видели только на картинках.
раскрыть ветку (1)
3
Автор поста оценил этот комментарий

Ну вот я лично живу в захолустном замкадье (целых 30км), и ни разу не видел негров, пока не поступил в ВУЗ в Москву. Так что, считайте, я действительно все свое детство видел негров только на картинках.

2
Автор поста оценил этот комментарий

пруфов тоже не приведу, но был похожий эксперимент с музыкантами, где сперва отобрали людей сидя рядом и слушая их исполнение. а потом повторно отбирали из тех же людей но уже только слушая исполнение, самого исполнителя было не видно. Во втором случае набрали больше женщин и цветных

раскрыть ветку (3)
2
Автор поста оценил этот комментарий

Жаль, мне действительно интересно было бы почитать хотя бы что то про подобные системы. Но увы, у меня лапки и гугл мне отказывает :(

раскрыть ветку (2)
Автор поста оценил этот комментарий

да вот самое обидное что об этом эксперименте писали на пикабу и там были ссылки, но найти повторно мне их так и не удалось(

есть еще такая статья на английском, может быть она будет интересна

https://www.pnas.org/content/early/2012/09/14/1211286109

In a randomized double-blind study (n = 127), science faculty from research-intensive universities rated the application materials of a student—who was randomly assigned either a male or female name—for a laboratory manager position. Faculty participants rated the male applicant as significantly more competent and hireable than the (identical) female applicant

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
на похожую тему был эксперимент когда рассылались идентичные резюме, с еднинственной рзницей - в одних случаях имена были явно белыми, в других- явно черными, но опыт и образование были одинаковыми, "белые" имена получали значительно больше откликов
Автор поста оценил этот комментарий

Я к той ветке непричастен, но тоже слышал о таком эксперименте.

И внезапно первая же ссылка по запросу в гугл:

https://22century.ru/allsorts/61753/amp

раскрыть ветку (1)
Автор поста оценил этот комментарий

Ну таких статей я тоже много видел. Но там как бы "В австралии доказали что слепой найм уменьшает шансы баб, что противоречит предыдущим экспериментам в той же австралии как круто надо смотреть дальше это не панацея какие то проценты конец"

ещё комментарий
Автор поста оценил этот комментарий

Хлорку им выдать. Она хорошо отбеливает

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку