Ведущий философ говорит, что этот вопрос «больше не относится к научной фантастике», поскольку предсказывается рассвет сознания ИИ к 2035 году
«У нас будут субкультуры, которые, по мнению других, совершают огромные ошибки».
Значительные «социальные разломы» между людьми, которые считают, что системы искусственного интеллекта обладают сознанием, и теми, кто настаивает, что технология ничего не чувствует, надвигаются, заявил ведущий философ.
Эти комментарии сделал Джонатан Бирч, профессор философии Лондонской школы экономики, и они поступают в то время, когда правительства готовятся собраться на этой неделе в Сан-Франциско, чтобы ускорить создание рамок для борьбы с самыми серьезными рисками ИИ.
На прошлой неделе трансатлантическая группа академиков предсказала, что рассвет сознания в системах ИИ вероятен к 2035 году, и один из них теперь заявил, что это может привести к «субкультурам, которые считают друг друга совершающими огромные ошибки» относительно того, должны ли компьютерные программы иметь такие же права на благополучие, как люди или животные.
Бирч сказал, что он «беспокоится о серьезных социальных расколах», поскольку люди расходятся во мнениях о том, способны ли системы ИИ на самом деле испытывать такие чувства, как боль и радость
Дебаты о последствиях разумности в ИИ имеют отголоски научно-фантастических фильмов, таких как «Искусственный интеллект» Стивена Спилберга (2001) и «Она» Спайка Джонза (2013), в которых люди сталкиваются с чувствами к ИИ. Представители по безопасности ИИ из США, Великобритании и других стран встретятся с технологическими компаниями на этой неделе, чтобы разработать более сильные рамки безопасности по мере быстрого развития технологий.
Уже существуют значительные различия в том, как разные страны и религии рассматривают разумность животных, например, между Индией, где сотни миллионов людей являются вегетарианцами, и Америкой, которая является одним из крупнейших потребителей мяса в мире. Взгляды на разумность ИИ могут разделиться по аналогичным линиям, а взгляды теократий, таких как Саудовская Аравия, которая позиционирует себя как центр ИИ, могут также отличаться от светских государств. Этот вопрос может также вызвать напряженность внутри семей, где люди развивают близкие отношения с чат-ботами или даже с аватарами умерших близких на основе ИИ, вступая в конфликт с родственниками, которые считают, что только живые существа из плоти и крови обладают сознанием.
Бирч, эксперт по разумности животных, который стал пионером в работе, приведшей к растущему числу запретов на разведение осьминогов, был соавтором исследования с участием академиков и экспертов по ИИ из Нью-Йоркского университета, Оксфордского университета, Стэнфордского университета и компаний Eleos и Anthropic AI, которое утверждает, что перспектива систем ИИ с собственными интересами и моральной значимостью «больше не является вопросом только для научной фантастики или отдаленного будущего».
Они хотят, чтобы крупные технологические фирмы, разрабатывающие ИИ, начали серьезно относиться к этому, определяя разумность своих систем, чтобы оценить, способны ли их модели испытывать счастье и страдание, и можно ли им причинить пользу или вред.
«Я очень беспокоюсь о серьезных социальных расколах по этому поводу», — сказал Бирч. «Мы будем иметь субкультуры, которые считают друг друга совершающими огромные ошибки... [могут возникнуть] огромные социальные разломы, где одна сторона видит, что другая очень жестоко эксплуатирует ИИ, в то время как другая сторона считает первую обманывающей саму себя, думая, что там есть разумность».
Но он отметил, что компании ИИ «хотят действительно сосредоточиться на надежности и прибыльности... и они не хотят отвлекаться на эти дебаты о том, что они могут создавать не просто продукт, а фактически новую форму сознательного существа. Этот вопрос, представляющий высший интерес для философов, они имеют коммерческие причины умалять».
Одним из методов определения того, насколько сознателен ИИ, может быть следование системе маркеров, используемой для руководства политикой относительно животных. Например, осьминог считается обладающим большей разумностью, чем улитка или устрица.
Любая оценка фактически будет спрашивать, может ли чат-бот на вашем телефоне на самом деле быть счастливым или грустным, или страдают ли роботы, запрограммированные выполнять ваши домашние дела, если вы плохо с ними обращаетесь. Нужно будет даже учитывать, имеет ли автоматизированная система склада способность испытывать подавленность.
Другой автор, Патрик Бутлин, научный сотрудник Института глобальных приоритетов Оксфордского университета, сказал: «Мы можем определить риск того, что система ИИ попытается сопротивляться нам таким образом, который будет опасен для людей», и может быть аргумент в пользу «замедления разработки ИИ» до тех пор, пока не будет проведено больше работы по сознанию.
«Такие оценки потенциального сознания не проводятся в настоящее время», — отметил он.
Microsoft и Perplexity, две ведущие американские компании, занимающиеся созданием систем ИИ, отказались комментировать призыв академиков оценить их модели на разумность. Meta, OpenAI и Google также не ответили.
Не все эксперты согласны с надвигающимся сознанием систем ИИ. Анил Сет, ведущий нейробиолог и исследователь сознания, заявил, что оно «по-прежнему далеко и может быть вообще невозможно. Но даже если это маловероятно, было бы неразумно полностью отвергать такую возможность».
Он различает интеллект и сознание. Первое — это способность делать правильное дело в нужное время, второе — это состояние, в котором мы не просто обрабатываем информацию, но «наши умы наполнены светом, цветом, оттенками и формами. Эмоции, мысли, убеждения, намерения — все это ощущается для нас особым образом».
Однако большие языковые модели ИИ, обученные на миллиардах слов человеческого письма, уже начали показывать, что они могут быть мотивированы по крайней мере понятиями удовольствия и боли. Когда ИИ, включая ChatGPT-4, было поручено максимизировать очки в игре, исследователи обнаружили, что если возникал выбор между получением большего количества очков и «испытыванием» большего количества боли, ИИ выбирали первое, как показало другое исследование, опубликованное на прошлой неделе.