Искусственный интеллект

Наткнулся на пост про ИИ. Не читал, но кое что вспомнил.
Возможно, кто-то ещё помнит, как на испытаниях беспилотного автомобиля, по моему гугл, насмерть сбили бездомную женщину. Короче, система приняла женщину за мусор на дороге (никого не хочу обидеть формулировками, это на сколько я помню) и приняла решение не тормозить. В связи с этим происшествием у разработчиков возник вопрос, что делать в таких случаях. Опять же вопрос ответственности - кто виноват? Вроде бы разработчики, но система самообучаема и стремится к сохранению жизни своего пассажира. Иными словами разработчиков тоже не просто подтянуть. Такая вот этическая проблема. Одно из разумных предложений - имитировать поведение живого водителя. Т.е. если живой водитель в этой ситуации сможет что-то предпринять, то система должна это предпринять и не важно, какие будут последствия. Можно не сбить одного человека, который выбежал на дорогу, но устроить массовое ДТП, где, возможно, будет жертв больше.
Это с автомобилями. Всем известно, что ИИ внедряется в оборонную промышленность. Те же самообучаемые нейронные сети, распознавание образов и системы принятия решений. Я не программист, могу быть не прав, поправите меня в комментариях.
На сколько я знаю, самообучающиеся нейронные сети, благодаря своему обучению, в определённый момент превращаются в чёрный ящик, в котором непонятно что творится.
Суть проблемы - границы принятия решений. Представим, что есть потенциальный враг. Есть какая-то вероятность его нападения. Система анализирует действия противника - передвижения войск, движение надводных и подводных подвижных систем, полёты самолётов разведчиков и беспилотников и тп. В совокупности этих действий можно говорить о повышении вероятности нападения. Далее, как сейчас принято, происходит провокация, например, вхождение военного корабля в территориальные или спорные воды. Система должна принять решение, что делать. Для людей логично перехватить нарушителей, вынудить покинуть территориальные воды или уничтожить нарушителей. Первый раз система примет подобное решение. Но если эти провокации не прекратятся, то система может начать искать другие решения, чтобы искоренить проблему. И тут возникает прямая логика - нет врага, не провокаций. Иными словами, при должном доступе система может атаковать потенциального противника всеми доступными способами, чтобы исключить нарушение территориальных вод.
Для чего нужны подобные системы? Например, обнаружение подводных лодок у границ территориальных вод. Система, грубо говоря, слушает воду и по шуму определяет кит это или подводная лодка и дальше принимает решение, что с этим делать. Аналогично с визуальными образами.
Конечно, это из области почти фантастики, но совершенно не далёкого будущего. Сегодня подобные системы определяют уже лица, образы, автоматизация поглощает все виды деятельности. Думаю скоро появятся системы управления войсками. Как в шахматах, компьютер будет рассчитывать возможные передвижения собственных войск, анализировать и выбирать лучший вариант для ведения боя и соответственно отдавать приказы.
Что вы об этом думаете?

Вы смотрите срез комментариев. Показать все
Автор поста оценил этот комментарий
Любой военный вам скажет, что в любой армии мира царит армейский бардак, а коммандная цепочка состоит и фееричных долбоёбов, так что внедрение военного ИИ, уполномоченного на принятие решений, в обозримом будущем человечеству не грозит.
раскрыть ветку (5)
Автор поста оценил этот комментарий
На американских беспилотниках решение об открытии огня всегда принимает человек. Думаю так и останется.
раскрыть ветку (4)
Автор поста оценил этот комментарий
Кстати, сейчас как раз идут беседы и разработки систем, чтобы беспилотники принимали решения сами.
Автор поста оценил этот комментарий
Вы думаете, они всем расскажут, если это не так?
раскрыть ветку (2)
Автор поста оценил этот комментарий
Я думаю там не долбоебы, чтобы доверять убийство ИИ, с которого в случае чего никакого спроса.
раскрыть ветку (1)
Автор поста оценил этот комментарий

Я думаю там не долбоебы

Зря. Как я уже писал - армия (любой страны мира) - рассадник долбоёбов.

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку