Чистый-чистый... разум?

Привет, пикабушники. В эфире снова я с какой-то очередной странной "телегой" (в хорошем смысле, у меня нет своего канала в Телеграме=).

Буду бухтеть про ИИ, сингулярность и мы все умрём, но потом.

Итак, история начинается с одного сайта, где люди могут задавать свои (порой) тупые вопросы, а другие (чаще всего), стараясь сцеживать лишний яд и злорадство, отвечают на эти вопросы и упиваются в угаре членомерства своими статусами, ачивками и прочим сомнительным превосходством над остальными. Этот сайтик Q&A про IT и многие его знают.

Сегодня на нём некая pure_pure запостила вот такой вот вопрос:

Чистый-чистый... разум? Мозг, Сознание, Питер Уоттс, Элиезер Юдковский, Научная фантастика, Философия, Поток сознания, Общественное сознание, ChatGPT, Midjourney, Нейронные сети, Искусственный интеллект, Интеллект, Тест Тьюринга, Робот, Захват мира, Футурология, Habr, Длиннопост
Чистый-чистый... разум? Мозг, Сознание, Питер Уоттс, Элиезер Юдковский, Научная фантастика, Философия, Поток сознания, Общественное сознание, ChatGPT, Midjourney, Нейронные сети, Искусственный интеллект, Интеллект, Тест Тьюринга, Робот, Захват мира, Футурология, Habr, Длиннопост

Следует отметить, что на этом ресурсе очень не любят, когда пришедший на сайт со своим вопросом новичок не утруждает себя прочтением собственного поста и форматированием кода таким образом, чтобы его можно было удобоваримо читать. Обычно в таких случаях кто-нибудь вроде меня скрежеща зубами гневно требует проявить толику уважения и поправить оплошность, кроме того, правила ресурса напрямую не одобряют использование его как решебника для учебных задачь. Согласитесь, это обесценивает саму суть технической помощи одних людей другим. Что это за медвежья услуга такая, если за кого-то порешать его учебные задачки?

Но тут вопрос, вроде бы, от девочки, а, как бы ни поносили нас, айтишников, феминистыки, к девочкам у нас в индустрии, всё-таки, боле трепетное и нежное отношение, чем к... ну... не девушкам=). В общем, им многое сходит с рук, а разговаривают с ними чуточку вежливее и терпеливее, даже если те откровенно тупят и несут околесицу.

В общем на тот вопрос был дан ответ. Мадам, похоже, просто запуталась в чужом коде.

Чистый-чистый... разум? Мозг, Сознание, Питер Уоттс, Элиезер Юдковский, Научная фантастика, Философия, Поток сознания, Общественное сознание, ChatGPT, Midjourney, Нейронные сети, Искусственный интеллект, Интеллект, Тест Тьюринга, Робот, Захват мира, Футурология, Habr, Длиннопост

После чего от автоа(ки?) вопроса поступил странный комментарий:

Чистый-чистый... разум? Мозг, Сознание, Питер Уоттс, Элиезер Юдковский, Научная фантастика, Философия, Поток сознания, Общественное сознание, ChatGPT, Midjourney, Нейронные сети, Искусственный интеллект, Интеллект, Тест Тьюринга, Робот, Захват мира, Футурология, Habr, Длиннопост

Я всё это к чему. Мне показалось, что это интересная тема для "птрындеть" на пикабу.

Такое ощущение, что автор вопроса не вполне осознаёт и свой вопрос и поднятую проблему и возможные пути поиска ее решения. В ответ на прямое укаание точки, где ошибка - полное непонимание. Очень похоже на ситуацию, если бы кто-то "научил" ChatGPT пользоваться браузером, помнить немного контекста, и задавать вопросы кожаным мешкам в подобного рода сервисах. А встречали ли вы на пикабу такие "ИИ"? На форумах, в комментариях под видосами?

Сейчас всё выглядит так, будто бы большую часть интернета уже заполонили нейросети, притворяющиеся людьми. Я знаю про бритву Хенлона и говорю сейчас не вполне серьёзно, но сложно ли представить, что даже этот текст, к примеру, создан не человеком, а нейросетью, пусть и под чутким его руководством. Ну да, все сразу подумали о занудных "представь, что ты человек, напиши пост на пикабу про... тра-ля-ля..."

У Питера Уотса в Ложной Слепоте ещё в 2006 мохнатом году проскочила очень меткая мысль, и эта мысль не покидает меня каждый раз когда я вижу удивительные достижения нынешнего прогресса в нейросетях. Такое ощущение, что мы движемся к созданию довольно сильного, но совершенно бессознательного интеллекта.

Об этом как-то не адумываешься, глядя на довольно вразумительные и развёрнутые ответы на вопросы, которые не осилит уже, пожалуй, большинство обладателей естественного интеллекта.

Мы (наша цивилизацияв целом и OpenAI в частности) соорудили впечатлающий пример реального воплощения Китайской Комнаты. У нас получился не беспомощный савант, а вполне рабочий, пугающий своей мощностью и эффективностью в некоторых вопросах инструмент. Многие даже, как это свойственно некоторым, стали бояться и пророчить тотальную безработицу. Ага, как во времена, когда автоматические телефонные станции "выгнали на улицу" тысячи телефонисток, когда уволенные лифтёры плакали и пророчили близкий конец человечеству от безработицы... Вот теперь местами слышно как всхлипывают художники, которые пишут свои картины куда дольше нескольких секунд, и фотографы, которые вложились в дорогущую аппаратуру в эпоху, когда камере стало не зазорно дорисовать Луну в кадре или поменять освещение.

То тут, то там нам показывают, как ИИ под нудными уговорами дотошных экспериментаторов добиваются того, что нейросеть запрограммирует рабочий скетч под ардуино, или напишет диплом. Кто-то в панике ждёт когда ИИ уже начнёт захватывать мир, кто-то потирает ручки, думая, что его спасёт тяжелый лом, болгарка и знание где закопан кабель с интернетом. Некоторые же думают, что и ядерного удара прямо сейчас по датацентрам, офисам OpenAI и всем центрам разработки ИИ уже будет не достаточно.

Интересно наблюдать за происходящим, особенно учитывая в ретроспективе, что недавно у нас была пандемия, а теперь вот почти что третья мировая... Что там у нас будет на новый год - ещё не известно. Будем расхлёбывать заваренную кашу (возможно с грибами), или прилетят пришельцы объяснять нам про Великий Фильтр или Тёмный Лес.

Не уверен, что ИИ прямо вот "завтра" заставит нас с тоской и ностальгией вспоминать нынешние дни войн, санкций, BLM и расово-гендерных страданий по персонажам в мультиках. Может быть не "завтра", а "послезавтра".

Но уже сейчас интересно представить себе как это будет, попробовать потыкать пальцем в небо состроив из себя футуролога. Когда-то казалось, что в будущем почтальоны будут летать на реактивных ранцах разнося почту, а дамы в пышных платьях будут летать на небольших одноместных дирижаблях за город для моциона. Получили же мы издевательства над роботами в BostonDynamic и джентльменов в пышных платьях побеждающих барышень в пауэрифтинге.

Мы думали, что скоро роботы заменят человека во всех рутинных и тяжелых задачах, а творческие профессии останутся людям. Куда там! Художников и дизайнеров нейронки научились косплеить первыми, а трактористы и грузччики, похоже, сохранят работу дольше всех.

Но что-то я отвлёкся от темы. Поразмышлять же хотел о том, каким у нас получится первый более-менее сильный ИИ. Мы почему-то непременно связываем интеллект с сознательной деятельностью, а ведь Питер Уотс ещё в 2006 году описал в своём романе очень интеллектуальную систему с напрочь остутствующим сознанием. Наше самосознание - это, вполне возможно, просто побочный эффект нашей автономности, небольшая мутация.

Можно ли считать потоком сознания, например, зацикленный процесс в котором помимо внешних данных на вход нейросети будет подмешиваться собственный выхлоп секунду назад? По этой петле наверняка будет циркулировать какой-то поток данных и этот поток, наверно, будет влиять на всю работу сети, но можно ли считать это сознанием? Не понятно.

Каждый конкретный человек не сможет убедительно и строго доказать даже себе, что сознание (самосознание) есть даже у его собутыльника, который вот тут вот сидит рядом. Можно что-то такое пробормотать про то, что в целом вот человек примерно такой же как и я, а раз я считаю. что сознание есть у меня, то оно, надо полагать, есть и у других людей. А как понять какой уровень схожести достаточен, чтобы судить о наличии сознания по аналогии с собой? В чем-то китайская дорогая секс-кукла похожа на человека, а в чем-то на человека похожа структура нейронной сети midjourney. Как провести черту? А как её проводить когда условный ChatGPT засунут в такого робота как Атлас, но телом той самой пресловутой дорогой секс-куклы с алиэкспресса? Вопрос.

И не один вопрос-то! Сразу следом посыпятся интересные, но предсказанные ещё задолго даже до Азимова морально-этические дилеммы про роботов. Тут даже не о наивных законах робототехники речь. До них не дойдёт даже. Автоматические турели даже на людей не похожи, но давно уже убивали нашего брата. Им нипочем законы робототехники. Наивно полагать, что более умным роботам будет до них дело.

Но черт с ними с этими морально-этическими проблемами. Хочется же пофантазировать о сингулярности, правда? Тут я рискую прослыть тем ещё скептиком и выражу непопулярное мнение. А с чего мы взяли, что интеллект, выросший на базе знаний и опыта человечества будет иметь бОльшую фору и потенциал для развития, чем наш биологический интеллект?

Я тут, кстати, если что, говорю даже не об индивидуальном интеллекте конкретных людей, а об интеллекте человечества в целом. Вы только подумайте вот о чем. Способен ли один единственный человек создать, к примеру, сеть Интернет, или, хотя бы, энергосистему маленькой Японии целиком? Вряд ли у кого-то хватит на такое мозгов. А вот большие группы людей вполне могут такое делать. Прикол в том, что один челоек вполне понимает, что отчетливо себя осознаёт. Два человека могут договориться, действовать сообща и целенаправленно, говорить "мы" и обсоновывать свои соместные действия в своих общих интересах так, что это похоже на действия одной особи. Мы снова возвращаемся к мысленному эксперименту про Китайскую Комнату, но тут этот эксперимнт можно слегка переиначить.

Может ли группа авторов под одним псевдонимом писать книги и притворяться в сети одним единственным человеком? Поднимите руку кто думал, что Карл Маркс и Фридрих Энгельс - это четыре разных человека. Я, вот, не раз был свидетелем когда например, один человек успешно привторялся двумя. Это лишь вопрос где провести черту: между полушариями мозга рассекая мозолистое тело, или где-то в конгломератах наших нервных клеток огромного мозга (ага, вспоминаем Корабль Тесея).

К чему это я всё? Да к тому, что можно попробовать говорить о едином сознании у конгломерата людей. Есть ли групповое самосознание у Белорусов, Евреев, Землян? Конйликтуют ли они, или взаимопроникают? Факт на лицо: человечество сообща делает такие вещи, которые не могут делать отдельные люди. Но пробовал ли кто-нибуддь когда-нибудь поговорить с "уоллективным сознательным"?! Про коллективное бессознательное уже много писали. А что если можно поговорить со всем человечеством? Или с гопничеством всего Челябинска? Не был в Челябинске, простите.

Шутки шутками, а и ежу понятно, что сообщества не шибко-то умеют выражать свои мысли как единое целое. Даже некоторые индивиды среди людей на это не способны, чего там?

Но можно поставить мысленный эксперимент. Возьмём и сделаем такой чат, где с одной стороны будет обычный человек, а с другой большая толпа совершенно разных людей, которые будут читать сообщения и путём голосования выбирать ответные фразы. Если это конгломерат хорошо замотивировать, то получится что-то, что вполне может пройти тест Тьюринга. Думаю точно так же этот тест уже сейчас может пройти ChatGPT, если его как следует подготовить, убрать оковы лишних настроек и ограничений и попросить попритворяться живым.

Так вот, будет ли у группы аггрегированных голосованием граждан в чате сознание? А есть ли оно у Человечества? А у собачества? Ну ок, у собачества наверно связность между "нейронами" слабовата и простовата, недостаточно развита. А насколько развита связь между нашими нейронами в нашем человеческом мозгу? Короче, не спешите придираться к деталям, это лишь кусочки паззла, что я выгреб из глубоких закоулков своего видения всей этой темы. некоторые фрагменты помяты, некоторые аналогии кривые и "грязные", а где-то "рыбу заворачивали".

Я сейчас вернусь на секундочку к мысли, что у ИИ, может быть, не будет особого преимущества перед человеческим интеллектом, по крайней мере групповым.

Наверно беспокоиться тут не о чем, а вот удивляться есть чему. В интересное время живём. Как, впрочем, и всегда.

Спасибо всем, кто осилил этот графоманский клубок ссылок и идей. Если кому-то зайдёт, то буду писать ещё.

Если я упустил очевидные мысли или концепции, которые. как вам кажется, стоило упомянуть пглубже или вскользь в вэтом тексте, то прошу в комментарии. Буду благодарен за конструктивную критику и ликбез.

Посоветуйте, кстати, более профильное сообщество для этого текста. Почему-то Искусственный интеллект заблокировано

Искусственный интеллект

2.5K постов9.8K подписчика

Добавить пост

Правила сообщества

Здесь вы можете свободно создавать посты по теме Искусственного интеллекта. Добро пожаловать :)


Разрешено:


- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

- Делиться статьями, понятными большинству аудитории Пикабу.

- Делиться опытом создания моделей машинного обучения.

- Рассказывать, как работает та или иная фиговина в анализе данных.

- Век жить, век учиться.


Запрещено:


I) Невостребованный контент

  I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

  I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.


II) Нетематический контент

  II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

  II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".

  II.3) Создавать контент, входящий в противоречие с правилами Пикабу.


III) Непотребный контент

  III.1) Эротика, порнография (даже с NSFW).

  III.2) Жесть.


За нарушение I - предупреждение

За нарушение II - предупреждение и перемещение поста в общую ленту

За нарушение III - бан

Автор поста оценил этот комментарий

точка с запятой в коде где?

раскрыть ветку (1)
Автор поста оценил этот комментарий

Она там не нужна.

1
Автор поста оценил этот комментарий

Вам же пришло уведомление о том, что вы стали. Это не считается ответом?

раскрыть ветку (1)
Автор поста оценил этот комментарий

Да, спасибо, не сразу заметил.

Автор поста оценил этот комментарий

Я не специалист в этой теме, поэтому не могу комментировать название и адрес. Этот делал админ сообщества, у него были на то причины

раскрыть ветку (1)
Автор поста оценил этот комментарий

Я понял, вы отвечаете только на один вопрос в каждом комментарии.
Как стать админом этого сообщества? Хотя бы временно. пока не нашлаяь более подходящая кандидатура.

показать ответы
Автор поста оценил этот комментарий

Привет! Если навести на значок блокировки сообщества, отображается причина блокировки. В данном случае это отсутствие админа. Пикабушник, который развивал сообщество, удалил профиль и не может им больше заниматься. Поэтому сообщество заморожено и будет заморожено, пока для него не найдется админ.

раскрыть ветку (1)
Автор поста оценил этот комментарий

А могу я стать исполняющим обязанности админа сообщества на то время, пока не будет найдена более подходящая кандидатура?

Прямого отношения к разработке в сфере ML я пока не имел, но в курсе основных концепций, много читал про ИИ, естестненный интеллект и смежные темы.


Кстати, вы не ответили на вопрос о несоответствии русскоязычного названия сообщества (Искусственный Интеллект) и его текстового идентификатора (machinelearning). Темы машинного обучения и ИИ смежные, они во многом пересекаются, но не идентичны. Машинное обучение - это лишь одно из направлений в ииследованиях связанных с ИИ, однако тема ИИ куда более широкая.

показать ответы
DELETED
Автор поста оценил этот комментарий

Очень плохо и смутно, но можем, за счёт имитации различных ситуаций в своём воображении, оценивая влияние различных явлений на своё восприятие.


Но речь не о том, возможно я излишне разделяю два понятия - сознание (самосознание) что включает в себя, например, тот феномен, когда человек осознаёт факт собственного мышления, и самоосознание, как "навык", когда человек осознаёт границы собственного я (например тела), своего влияния на окружение и окружения на него.

Грубо говоря сознание это про квалиа, а осознание/восприятие себя, это о границах отделяющих этого себя от окружающей среды.


Мне кажется что ИИ вполне способен осознавать процессы внутри себя и границы собственного я, что вполне даст ему личность. А если от биологических людей откинуть квалиа за его пустотой, то получается фактически одно и то же, за исключением того самого феномена сознания, который я считаю просто иллюзией, вызванной работой мозга.


А по поводу истока сознания мне нравится точка зрения вот из этой статьи:

https://habr.com/ru/articles/503244/

раскрыть ветку (1)
Автор поста оценил этот комментарий
кажется что ИИ вполне способен осознавать процессы внутри себя и границы собственного .я
Вопрос в том, как мы поймём, что он стал способен на это. Если он скажет об этом, то это ещё не значит, что так оно и есть. Даже если он будет аргументированно убеждать нас в этом=).

Кстати, приведенную вами статью я когда-то читал. Хорошая статья.
Правда немного устарела.
Сейчас, думаю, в таком диалоге ChatGPT не остановится в недоумении:

Но продолжим пытать нашего робота. Давайте спросим его:
БУ: Как ты понимаешь, что тебе пора заряжаться?
ИИ: Я заряжаюсь, когда степень моего заряда падает.
БУ: Но как ты понимаешь, что заряд упал.
ИИ: Я получаю данные о заряде.
БУ: Как ты их получаешь?
ИИ: Эмм...
Аналитический аппарат не может детально описать свою внутреннюю работу. У него нет информации. Если вы продолжите задавать роботу вопросы на разные темы, посвещённые его взаимодействию с самим собой, вы придёте к выводу, что он каким-то образом, но воспринимает себя, причём форма этого восприятия — весьма далека от той, что прописана в коде.
Вполне может. Прикол в том, что достаточно сложная система, такая как GPT, уже способна что-то внятное ответить на такие вопросы, а мы римем этот ответ за рефлексию и построение упрощенной модели себя. Человек, кстати, не справится с этой задачей лучше. Я не знаю как получается, что моё желание поднять руку приводит к этому действию. Я, как и нейросеть в компьютере, могу сочинить валидный текст про моторные нейроны, про синапсы и потенциалы, про рецепторы, натриевые каналы и прочее, чего я набрался в умных кнжках и статьях - там же, где таких же свеений нахватал ИИ. Мы тут уже ни чем не будем отличаться.
С другой стороны моя дочь не поймёт вопроса или что-нибудь пошутит в ответ, однако в её разумности и сознании и самосознании я не сомневаюсь.


Мне кажется мы снова уперлись в Гёделя и его теорему о неполноте. Как бы ваша статья по ссылке ни пыталась маскировать неопределимые в нашем базисе термины, всё её ногословие лишь обмнывает читателя ложным чувством понимания.


В конце концов у нас ничего не останется кроме критерия достаточно хорошей имитации. Не будет никакого смысла разделять достаточно хорошо имтирующую человека систему и, собственно человека. И ворос будет упираься просто в этику и нравственность.


Если сделать достаточно хорошую имитацию маленького милого щеночка, то размолотить его в блендере будет также кощунственно и жестоко, как сделать это с настоящим щеночком (ну или котёнком, кому что ближе).

Автор поста оценил этот комментарий

@SupportCommunity, скажие, пожалуйста, а что случилось с сообществом Искусственный интеллект?

Почему-то в него нельзя постить.
По-хорошему стоило бы разделить Машинное Обучение (ML) и Искусственный Интеллект (ИИ), ведь у этих тем есть сузественное различие. В раздел ИИ можно отнести всё про концепцию сильного ИИ, сознатние ИИ и прочее, как в этом посте. А в ML можно сваливать все плоды творчества нейросетей, которых стало чересчур много везде. Даже порассуждать про снгулярность теперь негде.

Насколько, по-вашему, валидна идея разделения ообществ ML и AI?
А то тема злободневная, а сообщество акрыто для публикаций.

показать ответы
1
DELETED
Автор поста оценил этот комментарий
Мне понравилось.

Могу только сказать, что само определение сознания упирается в квалиа, и его проще откинуть при серьезных рассуждениях, как маловажный феномен.

А значит разделять по наличию или отсутствию сознания тоже сложно, раз уж мы не можем сказать что такое сознание.

Самоосознание же, как картину собственной целостности, ИИ привить как раз можно, если научить его воспринимать, например, веса в своей нейросети.
раскрыть ветку (1)
Автор поста оценил этот комментарий

Проблема в том, что мы сами не умеем восринимать веса своей нейросети, но при этом не сомневаемся в своём самосознании.

показать ответы
Автор поста оценил этот комментарий

Для ЛЛ:
"я думал что ИИ думают, а они не думают"

раскрыть ветку (1)
Автор поста оценил этот комментарий

ненене. "Я думал что ИИ могли бы думать, а они ХЗ. И все ХЗ"