Не политкорректный компьютер...

Ну начнём с того, что я не разжигаю и не призываю, а просто пересказываю то, что мне рассказали люди, которые тоже в свою очередь это услышали от кого-то другого. И вообще на всякий случай вся история вымышленная и всё совпадения случайны.


Всё началось с этой статейки:


https://www.wired.com/2017/04/courts-using-ai-sentence-crimi...


которую некто за пивком обсуждал с американскими знакомыми, которые так получилось, работали толи в подобной сфере, толи просто были более знакомы с этой материей.


Для тех кто не умеет в английский вкратце там речь идёт о том, что в скором времени AI можно будет использовать в судах для оценки риска, будет ли данный преступник опять нарушать закон или он реабилитировался в нормальное общество без преступных мыслей и желаний. 


Однако цимес в том , что один из американцев рассказал, что знал где и как обкатывали и тестировали эту программу. Дальше от его лица:


Программа представляла из себя обычную базу данных с элементами нейронной сети и механизма типа "акинатор". О преступнике вводились некие ключевые данные и программа давала процент вероятности, с которой данный преступник совершит преступление после выхода на свободу или по УДО или просто по истечении срока заключения.


Судья параллельно основываясь на своём опыте и актуальной обстановке делал те же манипуляции с инфой но у себя в голове и официально выносил своё решение относительно данного преступника. То есть он смотрел на решение программы ПОСЛЕ вынесения своего решения и просто документировал для статистики своё решение и решение программы.


Через некоторое время проводили ревизию и выяснилось, что компьютер намного чаще был прав относительно своих решений, чем этот делали судьи. То есть его альфа и бета ошибки были реже чем у судей-людей.


На пример судья посмотрел на дело первого преступника и решил, что он реабилитировался и его можно выпускать. В это время компьютер сказал, что человек совершит как минимум ещё одно подобное преступление согласно оценки рисков. Через некоторое время этот же преступник попадается опять с тем же обвинением.

Вывод: Суд ошибся. 


Бета ошибка менее очевидна. В данном случае судья посмотрел на дело второго преступника и решил, что он совершит ещё одно преступление, так как ещё не полностью осознал свою вину. Срок продлили, а компьютер предсказал, что человек не станет совершать новые преступления и может быть свободен.  Этот тип ошибки - к сожалению не проверяем, хотя наблюдение за заключённым показывало, что его агрессия уменьшилась, а желание кооперировать с законом увеличилось. 


Суды решили понять, почему компьютер реже ошибался на альфа ошибках и как устроен алгоритм принятия решения в целом. Инженеры показали какие типы данных получает программа и среди всего прочего там был цвет кожи и происхождение. Программа без всякой политкорректности оценивала шансы на повторное преступление намного выше у афро-американцев и  латино-американцев, чем у белых.


Суды потребовали убрать фактор цвета кожи из программы, что бы программа была полит-корректной. Инженеры сделали замену: вместо цвета кожи и происхождения они внесли район проживания, среднюю выплату по налогам и уровень образования преступников. Шоком для судов было, что результаты вообще не поменялись. Программу прогнали по уже известным преступникам до их выпуска и после. Компьютер сделал те же прогнозы, что и раньше. Суды опять сказали, что районы проживания в 90% подразумевают и цвет кожи, а уровень образования вместе с показателем по налоговым выплатам повышает вероятность почти до 98% попасть в представителя определённого культурного сообщества.


Инженеры сказали, что программа непредвзято оперирует факторами из биографии и географии каждого преступника и статистически выпускники Гарварда живущие в Манхэтане и платящие большие налоги с большого дохода почти не совершают повторного преступления в отличии от жителя Бронкса без образования и без постоянной работы.


На данный момент программа якобы проходит доработку для более человечной оценки рисков, то есть она должна более обдуманно принимать решения.


Если кто что нароет в интернете для подтверждения или опровержения этой статейки - то милости прошу в камменты.


А вообще это крайне  острая темка, которая граничит по смыслу с фильмом Особое Мнение, где в конце всё равно всех отпустили... Так что будем ждать новостей.


Всем добра :)

Не политкорректный компьютер... Искусственный интеллект, Суд, Преступники, Математика, Нейронные сети, Политкорректность, Вымысел, Длиннопост
Вы смотрите срез комментариев. Показать все
8
Автор поста оценил этот комментарий

К этому постепенно идем. Еще стоит упомянуть систему социального рейтинга, которую тестирует Китай

раскрыть ветку (10)
8
Автор поста оценил этот комментарий

Вот это вобще стремная тема

раскрыть ветку (9)
4
Автор поста оценил этот комментарий

Я думаю, это случится еще при нашей жизни

раскрыть ветку (2)
3
Автор поста оценил этот комментарий

Так то и стрёмно, что уже! началось. Не у нас, но все же.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Я говорю, что при нашей жизни и в России начнется

Автор поста оценил этот комментарий

А что не так? Просто не косячь)

раскрыть ветку (5)
4
Автор поста оценил этот комментарий

А судьи кто? – За древностию лет

К свободной жизни их вражда непримирима,

Сужденья черпают из забытых газет

Времен Очаковских и покоренья Крыма;

Всегда готовые к журьбе,

Поют всё песнь одну и ту же,

Не замечая об себе:

Что старее, то хуже.

раскрыть ветку (4)
Автор поста оценил этот комментарий

При чем тут судьи? Там вроде определенный набор правил. Довольно разумных.

раскрыть ветку (3)
3
Автор поста оценил этот комментарий

Сейчас они разумны, потом будут потихоньку подвергаться корректировке. А корректировать будет кто?

раскрыть ветку (1)
Автор поста оценил этот комментарий

Добрый и справедливый большой брат)

2
Автор поста оценил этот комментарий
Ну хз. Сходите на митинг против свалки и обнулите себе рейтинг.
Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку