Санта-Круз стал первым городом в США, который запретил систему предсказания преступлений

«Предсказание преступлений и распознавание лиц могут быть предвзяты в отношении цветных людей, поэтому мы официально запретили использование этих технологий в городе Санта-Круз», — заявил первый афроамериканский мэр города Джастин Каммингс (Justin Cummings).

Критики говорят, что это усиливает расистские модели полицейской деятельности — районы с низким доходом и этническими меньшинствами исторически чрезмерно патрулируются, поэтому данные показывают, что они являются горячими точками преступности, что приводит к отправке туда ещё большего числа полицейских.


«Как справедливо признал Санта-Круз, предсказание преступлений и распознавание лиц — это опасные, расово предвзятые технологии, которые никогда не должны использоваться нашим правительством», — сказал Мэтт Кейгл (Matt Cagle), юрист правозащитной организации ACLU.

С одной стороны вспоминается фильм "Особое мнение" с Томом Крузом, где гммм. новые технологии предсказывали преступление до его совершения. А с другой стороны есть статистика, которая показывает, что большинство преступников с гетто. То есть они сами признают, что большинство преступников - бедные цветные, но при этом на основе этих данных они отказываются в это верить, так как эти технологии - расово предвзятые.

Источник https://habr.com/ru/company/itsumma/news/t/509720/

Вы смотрите срез комментариев. Показать все
5
Автор поста оценил этот комментарий
Ох уж эти расисткие нейросети
раскрыть ветку (9)
4
DELETED
Автор поста оценил этот комментарий

Потому что их писали белые. А вот если бы их писали черные, статистика вообще бы не работала)

раскрыть ветку (8)
11
Автор поста оценил этот комментарий

Черные умеют писать?

раскрыть ветку (3)
3
Автор поста оценил этот комментарий

Заглавными буквами: ACAB, BLM...

раскрыть ветку (1)
Автор поста оценил этот комментарий

GIVEMEYOURWALLETORISHOOTYOU

3
Автор поста оценил этот комментарий

     Своё имя, этого достаточно

1
Автор поста оценил этот комментарий

Вот вы смеётесь, а на самом деле многие нейросети действительно "расистские" в силу того, что обучены на конкретных наборах данных, которые собраны, как правило, белыми и азиатами из Калифорнии. Например такие нейросети могут отлично различать белых людей, но путать негров как в https://www.nbcnews.com/tech/security/facial-recognition-lea... .

раскрыть ветку (3)
Автор поста оценил этот комментарий
А нельзя просто отпустить с извинениями негра, если при проверке человека окажется что это не тот негр? Но все-равно использовать систему, которая в подавляющем большинстве случаев всё-таки помогает?
раскрыть ветку (2)
1
Автор поста оценил этот комментарий

На мой взгляд намного разумнее и справедливее сначала любую подобную систему очень  и очень тщательно тестировать, прежде чем вводить в эксплуатацию. Пока этого не сделано, запрет на использование вполне оправдан. 


Вообще я крайне против использования системы распознавания лиц кем-либо, в том числе государством, но это другой вопрос.

раскрыть ветку (1)
Автор поста оценил этот комментарий

допустим, у нас такая статистика:

1. До появления системы распознавания лиц: вообще идея кто бы это мог быть появлялась, ну, для примера, в 30% случаев.

3. После появления — ну, допустим, процентов в 60 у тебя есть конкретные ФИО/адрес с кем "работать". Пусть иногда и придется непричастному побывать в кабинете следователя.


Неужели не "профит"?


И еще по точности… ну вот давайте не будем преувеличивать возможности человеческих существ в качестве свидетелей. Даже когда речь об опознании выстроенных перед тобой в стеночку других человеков. Я вот не готов (от слова СОВСЕМ) утверждать что по старинке (опросы свидетелей и тп) хотя бы _точность_ (в отрыве от количества "подсказок") была выше. При этом, показания "железок" проверяют более тщательно, чем показания живого свидетеля.


Короче, по моим "расчетам" абсолютно нет причин отказываться от такого помощника в оперативной деятельности. Есть причины перепроверять — это да. Но это всегда должно быть, даже без железок когда.

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку