Беспредел уровня рисков в разработке общего ИИ1
Я разработчик машинного обучения в области компьютерного зрения. Я посвятил свою карьеру автоматизации, чтобы наша цивилизация могла пользоваться большим количеством благ, прикладывая меньшее количество усилий. Я писал алгоритмы обучения нейросетей, которые позволяют роботам доставщикам замечать детей и объезжать их. Я обучал нейросети ловить мошенников, подделывающих фотографии для банков и для маркетплейсов. Я писал алгоритмы, детектируюшие брак на заводах производства медицинских товаров. И вот как раз на одном из таких заводов я столкнулся с вполне стандартной бюрократией. Бла бла бла, надо думать о безопасности. И таблица, как это правильно делать. Суть таблицы сводилась к тому, что если изменение процесса производства вызывает уровень риска выше, чем 0.01% матожидания смертей в год, то такие изменения не допускаются. Да, при расчёте рисков приходится вводить допустимый уровень риска смерти. Убивать людей нельзя. Рисковать убийством людей - тоже нельзя. Но совсем без рисков обойтись невозможно. И вот этот самый порог расчётного количества смертей определён как 10^-4 в год. Это не только в той организации так, это в целом глобально по всей планете так, порог разный, где-то 10^-3, где-то строже это правило выполняется, где-то менее строго. Во многих странах это закреплено законодательно, например в Британии. Хотите построить гидроэлектростанцию? Перемножьте расчётную вероятность того, что она рухнет, на число людей в области затопления - и если ожидаемое число жертв в год выше 10^-4, то план строительства не будет одобрен - укрепляйте конструкцию. То же самое с атомными реакторами, и прочими конструкциями, создающими риски для населения. Конечно где-то проще закрыть на это глаза, где-то коррупция, где-то дешевле оплатить штраф, но общее направление такое.
А теперь общий искусственный интеллект. В науке нет консенсуса о том, насколько он безопасен. Теоретические изыскания о контроле сильного общего ИИ говорят об отсутствии способов гарантировать сохранение контроля. Я не стану расписывать всю логику теории контроля сильного ИИ в этом посте, хотя мне много чего есть сказать на этот счёт. Если будет интерес - напишу. Скажу лишь то, что больше половины респондентов среди исследователей искусственного интеллекта считают, что риск того, что сильный ИИ уничтожит человечество в ближайшие 100 лет превышает 5% https://aiimpacts.org/2022-expert-survey-on-progress-in-ai/ . Главы лабораторий оценивают этот риск в 10%-20%+ https://en.m.wikipedia.org/wiki/P(doom). И не стоит ориентироваться на цифру 100 лет - сильный общий искусственный интеллект появится гораздо раньше. Больше половины пользователей платформы предсказаний metaculus считают, что он появится до 2031 года https://www.metaculus.com/questions/5121/date-of-artificial-...
И вот всё это вызывает у меня вопрос. Кем возомнили себя разработчики общего искусственного интеллекта, что решили, что их индустриальная отрасль настолько важнее всех других отраслей, что они могут себе позволить превышать допустимые пределы подвергания окружающих опасности не в 2 раза, не в 10 раз и не в 1000 раз, а в триллион раз?
Искусственный интеллект
3.5K постов10.7K подписчиков
Правила сообщества
Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать :)
Разрешено:
- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.
- Делиться статьями, понятными большинству аудитории Пикабу.
- Делиться опытом создания моделей машинного обучения.
- Рассказывать, как работает та или иная фиговина в анализе данных.
- Век жить, век учиться.
Запрещено:
I) Невостребованный контент
I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.
I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.
I.3) Добавлять посты, которые содержат лишь генеративный контент или нейросетевой Арт без какой-то дополнительной полезной или интересной информации по теме, без промтов или описания методик создания и т.д.
II) Нетематический контент
II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.
II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".
II.3) Создавать контент, входящий в противоречие с правилами Пикабу.
III) Непотребный контент
III.1) Эротика, порнография (даже с NSFW).
III.2) Жесть.
За нарушение I - предупреждение
За нарушение II - предупреждение и перемещение поста в общую ленту
За нарушение III - бан