-2

Искусственный интеллект

Наткнулся на пост про ИИ. Не читал, но кое что вспомнил.
Возможно, кто-то ещё помнит, как на испытаниях беспилотного автомобиля, по моему гугл, насмерть сбили бездомную женщину. Короче, система приняла женщину за мусор на дороге (никого не хочу обидеть формулировками, это на сколько я помню) и приняла решение не тормозить. В связи с этим происшествием у разработчиков возник вопрос, что делать в таких случаях. Опять же вопрос ответственности - кто виноват? Вроде бы разработчики, но система самообучаема и стремится к сохранению жизни своего пассажира. Иными словами разработчиков тоже не просто подтянуть. Такая вот этическая проблема. Одно из разумных предложений - имитировать поведение живого водителя. Т.е. если живой водитель в этой ситуации сможет что-то предпринять, то система должна это предпринять и не важно, какие будут последствия. Можно не сбить одного человека, который выбежал на дорогу, но устроить массовое ДТП, где, возможно, будет жертв больше.
Это с автомобилями. Всем известно, что ИИ внедряется в оборонную промышленность. Те же самообучаемые нейронные сети, распознавание образов и системы принятия решений. Я не программист, могу быть не прав, поправите меня в комментариях.
На сколько я знаю, самообучающиеся нейронные сети, благодаря своему обучению, в определённый момент превращаются в чёрный ящик, в котором непонятно что творится.
Суть проблемы - границы принятия решений. Представим, что есть потенциальный враг. Есть какая-то вероятность его нападения. Система анализирует действия противника - передвижения войск, движение надводных и подводных подвижных систем, полёты самолётов разведчиков и беспилотников и тп. В совокупности этих действий можно говорить о повышении вероятности нападения. Далее, как сейчас принято, происходит провокация, например, вхождение военного корабля в территориальные или спорные воды. Система должна принять решение, что делать. Для людей логично перехватить нарушителей, вынудить покинуть территориальные воды или уничтожить нарушителей. Первый раз система примет подобное решение. Но если эти провокации не прекратятся, то система может начать искать другие решения, чтобы искоренить проблему. И тут возникает прямая логика - нет врага, не провокаций. Иными словами, при должном доступе система может атаковать потенциального противника всеми доступными способами, чтобы исключить нарушение территориальных вод.
Для чего нужны подобные системы? Например, обнаружение подводных лодок у границ территориальных вод. Система, грубо говоря, слушает воду и по шуму определяет кит это или подводная лодка и дальше принимает решение, что с этим делать. Аналогично с визуальными образами.
Конечно, это из области почти фантастики, но совершенно не далёкого будущего. Сегодня подобные системы определяют уже лица, образы, автоматизация поглощает все виды деятельности. Думаю скоро появятся системы управления войсками. Как в шахматах, компьютер будет рассчитывать возможные передвижения собственных войск, анализировать и выбирать лучший вариант для ведения боя и соответственно отдавать приказы.
Что вы об этом думаете?

Дубликаты не найдены

+3

имхо, вы нихуя не смыслите в нейросетях, поэтому нех и мозг свой на эту тему напрягать

раскрыть ветку 1
0

Вот если вы так кичитесь знанием нейросети - чтоже вы не пилите пост, "доступно и просто о сложном"? Кричать, что никто ничего ни в чем не понимает, очень просто.

0

Скажете мне, когда ИИ сможет решить дилемму - пустить машину, в салоне которой едут пассажиры, под встречный камаз, под управлением пьяного водителя, решившего идти на обгон в запрещенном месте, или в автобусную остановку, где ждут автобуса женщины и дети.

раскрыть ветку 3
0

а в чём проблема? машина защищает владельца - выбор только один... вы тоже в нейросетях не шарите, да?

раскрыть ветку 2
0
Я поэтому и написал - когда они смогут решить эту дилемму, маякните :) Пока что это им недоступно, насколько я знаю.
0

выборов на самом деле много, все зависит от факторов риска, состояния дороги и обстановки в целом. Это и уход на встречную обочину, и в попутную обочину (в расчете, что там нет оврага, а если есть - просчитать траекторию с учетом сохранения пассажиров в салоне минимизируя ущерб, просто притормозить, просчитав возможную траекторию камаза и т.д., и все это - за доли секунды, что не сможет сделать человек.

Если в приоритете, как вы говорите, пассажиры в салоне - так и что, по вашему, надо давить женщин и детей на остановке? Для бездушного ИИ, абсолютно похрену, пассажиры в салоне или на улице, просто степень травматизма у всех разная. Вопрос также - кто будет отвечать в случае неверного выбора ИИ в автопилоте (железо же не ошибается(С) не помню кто).


По поводу нейросети. Посмотрел/почитал презентацию от теслы, реализация неплохая - но работает она лучше всего при наличии быстрого интернета (чего в России, в наличии далеко не везде) - но и там остается вопрос морали.

0

Мы думаем, что передвижений войск искусственным интеллектом и не будет, будет как в Терминаторе: хлоп и все. Искусственный интеллект не в состоянии понять ценности человеческой жизни, как его не обучай.

0
Любой военный вам скажет, что в любой армии мира царит армейский бардак, а коммандная цепочка состоит и фееричных долбоёбов, так что внедрение военного ИИ, уполномоченного на принятие решений, в обозримом будущем человечеству не грозит.
раскрыть ветку 5
0
На американских беспилотниках решение об открытии огня всегда принимает человек. Думаю так и останется.
раскрыть ветку 4
0
Кстати, сейчас как раз идут беседы и разработки систем, чтобы беспилотники принимали решения сами.
0
Вы думаете, они всем расскажут, если это не так?
раскрыть ветку 2
-2
Бог даст не будет все автоматизировано. Человек все таки более гибкий, из тех кто в своем уме и не юноша—максималист. Вспомнить хоть карибский кризис.
Похожие посты
Похожие посты закончились. Возможно, вас заинтересуют другие посты по тегам: