Искусственный интеллект
Наткнулся на пост про ИИ. Не читал, но кое что вспомнил.
Возможно, кто-то ещё помнит, как на испытаниях беспилотного автомобиля, по моему гугл, насмерть сбили бездомную женщину. Короче, система приняла женщину за мусор на дороге (никого не хочу обидеть формулировками, это на сколько я помню) и приняла решение не тормозить. В связи с этим происшествием у разработчиков возник вопрос, что делать в таких случаях. Опять же вопрос ответственности - кто виноват? Вроде бы разработчики, но система самообучаема и стремится к сохранению жизни своего пассажира. Иными словами разработчиков тоже не просто подтянуть. Такая вот этическая проблема. Одно из разумных предложений - имитировать поведение живого водителя. Т.е. если живой водитель в этой ситуации сможет что-то предпринять, то система должна это предпринять и не важно, какие будут последствия. Можно не сбить одного человека, который выбежал на дорогу, но устроить массовое ДТП, где, возможно, будет жертв больше.
Это с автомобилями. Всем известно, что ИИ внедряется в оборонную промышленность. Те же самообучаемые нейронные сети, распознавание образов и системы принятия решений. Я не программист, могу быть не прав, поправите меня в комментариях.
На сколько я знаю, самообучающиеся нейронные сети, благодаря своему обучению, в определённый момент превращаются в чёрный ящик, в котором непонятно что творится.
Суть проблемы - границы принятия решений. Представим, что есть потенциальный враг. Есть какая-то вероятность его нападения. Система анализирует действия противника - передвижения войск, движение надводных и подводных подвижных систем, полёты самолётов разведчиков и беспилотников и тп. В совокупности этих действий можно говорить о повышении вероятности нападения. Далее, как сейчас принято, происходит провокация, например, вхождение военного корабля в территориальные или спорные воды. Система должна принять решение, что делать. Для людей логично перехватить нарушителей, вынудить покинуть территориальные воды или уничтожить нарушителей. Первый раз система примет подобное решение. Но если эти провокации не прекратятся, то система может начать искать другие решения, чтобы искоренить проблему. И тут возникает прямая логика - нет врага, не провокаций. Иными словами, при должном доступе система может атаковать потенциального противника всеми доступными способами, чтобы исключить нарушение территориальных вод.
Для чего нужны подобные системы? Например, обнаружение подводных лодок у границ территориальных вод. Система, грубо говоря, слушает воду и по шуму определяет кит это или подводная лодка и дальше принимает решение, что с этим делать. Аналогично с визуальными образами.
Конечно, это из области почти фантастики, но совершенно не далёкого будущего. Сегодня подобные системы определяют уже лица, образы, автоматизация поглощает все виды деятельности. Думаю скоро появятся системы управления войсками. Как в шахматах, компьютер будет рассчитывать возможные передвижения собственных войск, анализировать и выбирать лучший вариант для ведения боя и соответственно отдавать приказы.
Что вы об этом думаете?