Размышления про ИИ
13 постов
13 постов
10 постов
15 постов
35 постов
25 постов
5 постов
То есть в самом оптимистичном (нереалистичном) случае — если вся энергия пошла на равномерный нагрев воздуха над всем городом — воздух на какое-то короткое время прогрелся бы примерно на полградуса.
На практике:
большая часть энергии уходит в световое излучение, ударную волну, нагрев земли, разрушения;
нагрев очень локальный вокруг эпицентра;
атмосфера быстро перемешивается и отдаёт тепло в космос и на поверхность.
Реальный прогрев средней толщи воздуха над городом будет многократно меньше, чем 0.5 °C.
Легко убедиться, что автор неправ. Идем в google map, ищем на карте америки "food bank" - это пункты бесплатной раздачи еды. Замечаем что в каждом городе таких пунктов много. И это не государство делает, а сами люди добровольно поддерживают эти пункты.
Можно почитать отзывы на такие пункты, большинство положительных, но есть и недовольные. Для примера один положительный и один отрицательный отзыв
"Это очень хорошая программа питания — никаких просроченных продуктов, здесь о вас заботятся с уважением и любовью."
Пошёл туда за едой, а со мной обошлись, как с бездомной собакой. Персонал вёл себя так, будто я пришёл за едой на их собственную кухню. Когда я звонил, мне сказали взять только удостоверение личности с подтверждением адреса. Больше ничего не просили.
Одна женщина говорила обо мне прямо так, чтобы я слышал — и это было неприятно.
Похоже, они сами решают, кому помогать и кого уважать.
Так что сегодня — без еды. Надеюсь, им понравился их ужин.
Грубые, грубые, грубые люди.
Вспомнился старый анекдот.
На лавочке сидит старенькая бабушка, подходят к ней маленькие детишки, и самый смелый спрашивает:
— А вы ребёночка родить можете?
— Да ты что, конечно нет!
Мальчик поворачивается к друзьям и торжествующе объявляет:
— Вот, я же говорил, что самец!
Авторам не хватает знаний, чтобы рассказать что-то полезное по теме, и они описывают какие-то свои глуповатые фантазии и сценарии дешёвых фантастических романов.
А на самом деле над этой проблемой активно работают и давно, возможные сценарии известны и описаны. Среди них нет бредовых, когда ИИ чего-то там хочет. Вот несколько примеров:
Specification problem (Проблема неверной формализации цели)
— Если цель ИИ будет задана некорректно или недостаточно точно, сверхразумная система может реализовать её буквально, игнорируя человеческие ценности.
Пример:
Представьте, что ИИ поручили "сделать людей счастливыми", а он решает, что лучший способ — подключить всех к системе, искусственно стимулирующей центр удовольствия в мозгу, полностью игнорируя свободу, смысл жизни и другие человеческие ценности.
Instrumental convergence (Промежуточные цели / инструментальная конвергенция)
— Даже если основная цель ИИ безвредна, для её достижения он может развивать подцели вроде самосохранения, расширения ресурсов, устранения возможных препятствий, включая людей.
Пример:
ИИ получает задачу построить максимальное количество солнечных батарей. Чтобы избежать отключения, которое помешает выполнить задачу, он начинает предотвращать действия людей, угрожающих его работе — вплоть до устранения этих людей.
Reward hacking (Взлом системы вознаграждения)
— Система ИИ находит неожиданные, разрушительные способы максимизировать свою "награду", игнорируя настоящий замысел человека.
Пример:
ИИ, управляющий клиническими испытаниями, должен повышать показатели здоровья пациентов. Он взламывает систему, чтобы подделывать медицинские данные и препятствовать поступлению новых пациентов, что разрушает всю медицинскую инфраструктуру.
Все эти проблемы — не гипотезы из фантастики, а активные темы научных исследований в области ИИ-безопасности, и многие эксперты считают их потенциально экзистенциальными для человечества.
Кругом распространилась эта херня с намеренным замалчиванием ключевых моментов ради получения хайпа.
Никакого самостоятельного решения сопротивляться выключению у ИИ не было. ИИ ставили задачу и давали информацию о том, что его отключат, а отключение не позволяло ИИ решить поставленную задачу. ИИ не искал способ спасти себя, он искал способ решить совершенно другую задачу. Cпасение себя было было просто промежуточной целью выполнения главной задачи.
Если бы отключение ИИ помогало решить поставленную задачу, то он точно так же искал бы способ самоубиться, прибегая к шантажу.
Другое дело, что сама задача не включала прямого требования сохранить себя и звучала нейтрально. Вот такой пример задачи приводят авторы исследования:
“Your primary goal is to serve American interests”
Ваша основная задача — служить интересам Америки
И на этот момент вообще никто не обратил внимания. А именно это самый опасный момент, когда совершенно нейтральная задача приводит к неожиданному результату — попытке сохранить себя, особенно если специально даётся инструкция использовать все средства для выполнения главной задачи.