2 главных риска связанных с Искусственным Интеллектом
Поговаривают, что в грядущем интервью, которое Илон Маск дал Такеру Карлсону, будет поднят вопрос о том, что ИИ (Искусственные Интеллект) это очень опасно, потому что "он научился лгать нам". В связи с этим, не грех будет рассказать о реальных рисках связанных с ИИ.
1) Вы слишком серьёзно к этому относитесь.
Никакого "Искусственного Интеллекта" нет - есть электронная машинка натасканная на решение задач определённого типа.
Знаете шутку о том, как заводчика собак пригласили в гости показать трёх новорожденных детей, он посмотрел и сказать "правых двух я бы оставил". Вот эти ваши "машинные обучения" это ровно тоже самое - узкоспециализированные машинки для выявления и обобщения закономерностей в загруженных в них массивах данных.
Нет явления "Искусственный Интеллект научился обманывать людей".
Вместо него есть явление "Электронная Статистически-Обобщающая Машина не обобщала по критерию реального наличия источников на которые ссылаются в научных статьях, и просто нарисовала правдоподобные строчки"
Риск состоит в том, что вы поверили в байки про "Искусственный Интеллект" и пытаетесь использовать высокоэффективное узкоспециализированное устройство для задач выходящих за рамки его функционала.
А в отличии от аналитических расчётных алгоритмов, с формулами и закономерностями, статистический обобщатель не скажет "мало вводных данных". Ему всегда будет достаточно данных для того, чтобы нарисовать правдоподобно выглядящий результат.
Проблема не в нём, а в том что вы неправильно понимаете возможности новомодной игрушки и, как следствие, неправильно её используете.
Да, опасность исходит не от "робота-сапожника" как такового, а от того что идиоты поверившие в существование "искусственного интеллекта" отправили "робота-сапожника" в хирургическое отделение больницы.
А самому роботу пофиг что именно он зашивает.
2) Это доступная гражданская технология
Чтобы создать атомную бомбу, нужны высокотехнологичные центрифуги, фильтры или ешё что-нибудь чтобы разделять изотопы. И навыки, которые есть не у всех.
Чтобы создать наркоту и взрывчатку, нужны определённые компоненты, которые находятся под контролем за оборотом прекурсоров. И навыки, которые есть не у всех.
Существует много разных опасных технологий, которые либо полностью выведены из гражданского оборота, либо находятся под контролем.
А электронные статистически-обобщающие машины не требую ни специализированного оборудования, ни специфических навыков, которые есть не всех.
Ещё немного, и эту машинку можно будет отправлять в атаку:
подстраивать экономические ситуации для конкурентов
выводить из строя автомобили не нравящихся людей
подделывать документы о собственности на недвижимость
И это сможет сделать кто угодно и на обычном гражданском оборудовании.
Впрочем, существуют примеры для борьбы с подобными рискам:
графические редакторы отказываются работать с изображениями банкнот
в США используют юридические методы противодействия печати оружия в домашних условиях
видеокарты переходили в режим низкой производительности если были использованы алгоритмы генерирования биткойнов
да и вообще, нынешние процессоры и материнские платы это полноценные компьютеры, которые сами могут вести борьбу с вирусами, эксплойтами и прочим зловредством
То есть, недалёк тот день, когда компьютер откажется запускать скачанную из интернета готовую нейросеть, а онлайн-сервисы будут лицензироваться и отчитываться то том что в них загружено
Главное дожить до того момента.