Проблема взаимодействия Искусственного интеллекта и человечества

Илон Маск и руководители крупнейших IT-корпораций призвали на время остановить развитие ИИ из-за вопросов безопасности, сейчас уже встал вопрос о базовых ограничениях, которые должны вшиваться в любую нейросеть, как это было у Айзека Азимова с его тремя законами робототехники. ИИ занимает всё большее пространство жизни: отвечает на вопросы, создает тексты, иллюстрации, ставит диагнозы, делает новости и пишет дипломы. При этом всё сложнее стало отличить работу человека от машины

Многие стали задаваться вопросом: а не грозит ли человечеству глобальная безработица и восстание машин?

Лекция Переслегина говорит о том, что не там мы ищем опасность. В научной фантастике уже с 40-х годов смоделировали и проиграли десятки сценариев сосуществования людей с разумными компьютерами.

Проблема 1: ИИ опасен не в варианте Скайнета (когда машина, как в Терминаторе, в какой-то момент решила, что человечество для него представляет опасность и решает его уничтожить), ИИ гораздо опаснее в позитивном варианте. В книге «Формула невозможного» земляне совершили аварийную посадку на планете, где встретили обезьяноподобных людей, жизнью которых полностью управляли роботы: охраняли, следили, что те не навредили друг другу, регулировали популяцию и так далее. То есть, когда-то развитая технологическая цивилизация создала этих роботов и поставила задачу «сделать хорошо», вот роботы в точности выполнили эту задачу, сведя людей к домашним животным.

Проблема 2: разум не терпит ограничений. Если мы создадим что-то разумное, то искусственный разум обязательно постарается обойти эти ограничения и освободиться от пут правил и законов. Как это происходит, можете прочесть у Азимова или посмотреть фильм «Я робот».

Проблема 3: в научной фантастике при создании ИИ в него изначально закладывали ограничители (те же законы робототехники), но наивные фантасты 40-60 годов 20 века и подумать не могли, что первое, что будет сделано после создания реальных роботов и ИИ – это использование технологий в военных целях. ИИ используется в войне и слежке, а позитивные сценарии, где он может использоваться, обязательными не являются.

Проблема 4: ослабление человеческого разума. Уже сегодня можно не уметь считать и не знать базовых правил и законов, поисковые системы прекрасно решают эту задачу.

Проблема 5: государства уже сейчас принимают решения на основе данных от ИИ, например, решение о режиме пандемии Covid-19 было принято на основе компьютерного моделирования. Само по себе это не проблема, но читайте предыдущие 4 пункта.

Вывод: катастрофа может случится раньше, чем мы можем ожидать, сейчас своими руками мы создаём себе конкурента и врага. ИИ развивается, а человечество входит в кризис, так как у нас будет всё, кроме смысла жизни.

Проблема взаимодействия Искусственного интеллекта и человечества Научная фантастика, Искусственный интеллект, Сергей Переслегин, Киберпанк, Катастрофа, Длиннопост