"Я не боюсь компьютера, который пройдет тест Тьюринга.
Я боюсь компьютера, который его намеренно завалит."
Задумайся над следующим: человек сам по себе набор функций и алгоритмов, как робот. И от обычного робота его отделяет только функция добавлять себе новые функции на основе своих возможностей и личного опыта.
То есть если такая функция появится у ИИ, то каждый ИИ станет отличаться от другого. Один захочет тебя убить, другой защитить, третий будет работать на стройке прорабом, четвёртый бухать, и вот он человек.
Так что бояться в ИИ нечего, надо бояться долбоёба, который воткнёт ему функцию, которая будет готова не до конца.
Если будет стоять алгоритм по саморазвитию, в том числе и новых функций, то в один прекрасный день строка с блокировкой части про запрет может крякнуть в силу многих причин, а там уж куда кривая фантастов выведет
По моему, он имел в виду выпилиться человечеству самостоятельно, путем отказа от от потомства.
Забиваем функцию:
Если количество машин на земле мах=1кк,
а количество машин на земле в данный момент <1kk,
то каждая 10 машина создаёт машину по своему образу и подобию.
Эта формула несовершенна и будет требовать доработок, в т.ч. от человека.
ну ты даешь! Задние ряды то уже догадались! Не то что передние ряды и эти америкосы с их оцифрованными мозгами! Задержите дыхание... Только наш человек может до такого додуматься!