Теорема Геделя или почему киборги нас не победят (но это не точно)

В прошлой заметке (тут) я пытался нагнать ужаса, чтобы показать, что технологии искусственного интеллекта в последние годы развиваются исключительно стремительно. И три кита, на которых это развитие зиждется - это:

  1. Развитие аппаратных средств. В первую очередь - графических ускорителей (видеокарт). Недаром Nvidia, которая продает связку из видеокарт и софта к ним, уверенно идет к статусу самой дорогой компании мира (сейчас, по разным оценкам, она на 3 или даже на 2-м месте). Сила GPU - в способности распараллеливать вычисления, а это как раз то, что нужно нейронным сетям. Раньше работа с таким оборудованием была доступна гиками из пары десятков государственных и частных компаний по всему миру, сейчас - любому школьнику с игровым компом.

  2. Совершенствование алгоритмов обучения и оптимизации. Первые, базовые алгоритмы обучения нейросетей появились еще в 70-е годы. Например, то же алгоритм обратного распространения ошибки, который остается базовым для обучения нейросетей до сих пор, впервые был представлен в статье 1974 года - 50 лет назад! Но более тонкие, продвинутые и эффективные алгоритмы появились совсем недавно и продолжают появляться. Причем во многом это стало возможным именно благодаря повышению доступности графических ускорителей. Больше исследователей - больше разнообразных попыток, больше практических результатов, значительная часть которых, кстати, не имеет под собой глубокого основания. Франсуа Шолле - один из ведущих разработчиков популярного нейросетевого фреймворка TensorFlow, признается в одной из книг: "...машинное и в особенности глубокое обучение не имеют мощной математической платформы и основываются почти исключительно на инженерных решениях. Это практическая дисциплина, в которой идеи чаще доказываются эмпирически, а не теоретически".

  3. Появление Интернета и порожденных им наборов данных для обучения нейросетей (тексты, изображения, видео). Каждый раз, когда проходите капчу, выбирая на картинке все светофоры и велосипеды, вы участвуете в священном процессе разметки данных, помогая обучать систему машинного зрения.

Здорово! Но что же все-таки не дает искусственному интеллекту убить всех человеков стать по-настоящему "сильным" и приобрести все атрибуты человеческого сознания?

Судя по-всему, таким ограничителем является сама природа компьютеров, подчиняющаяся принципам Тьюринга, и теорема Курта Гёделя о неполноте. Давайте по порядку.

Вообще, современные взгляды на моделирование сознания могут быть сведены к четырем парадигмам:

A. Всякое мышление есть вычисление. В частности, ощущение осмысленного осознания есть не что иное, как результат выполнения соответствующего вычисления.
B. Cознание представляет собой характерное проявление физической активности мозга. Хотя любую физическую активность можно моделировать посредством той или иной совокупности вычислений, численное моделирование как таковое не способно вызвать осознание.
C. Cознание является результатом соответствующей физической активности мозга, однако эту физическую активность невозможно должным образом смоделировать вычислительными средствами.
D. Cознание невозможно объяснить в физических, математических и вообще научных терминах.

Сразу отбросим агностическую точку зрения D разу как не соответствующую научному мировоззрению и посмотрим на оставшиеся три, причем особенно пристально - на первую из них. По сути, все наши попытки создать сильный искусственный интеллект к настоящему времени являются вариантами реализации парадигмы А. Она предполагает, что, если придумать достаточно сложный алгоритм, мы сможем воспроизвести любой аспект человеческого сознания. Вот тут на сцену и выходит троица персонажей: Черч, Тьюринг и Гёдель.

Первые двое заложили математическую основу работы всех без исключения современных вычислительных устройств в виде тезиса Черча (или тезиса Черча-Тьюринга). В первоначальной форме, предложенной американским логиком Алонзо Черчем в 1936 году, этот тезис гласил, что любой процесc, который можно корректно назвать «чисто механическим» математическим процессом, — т.е. любой алгоритмический процесс — может быть реализован в рамках конкретной схемы, открытой самим Черчем и названной им лямбда-исчислением (λ-исчислением). То есть существует математическая система, которая позволяет описать любой алгоритм. А машина Тьюринга, которая является описанием абстрактного компьютера, гарантированно реализует этот алгоритм, выполняя наборы простых действий (считать данные из ячейки памяти, выполнить инструкцию, переместиться к другой ячейке, записать новые данные и т.д.). И все это очень строго, формально и доказательно. Прекрасно. Остается открыть или описать достаточно сложные алгоритмы для всех функций нашего сознания и подсознания.
Да, обращу Ваше внимание еще на одну важную деталь: алгоритм должен решить задачу за конечное число шагов. Если в результате выполнения алгоритма мы уходим в бесконечный цикл или бесконечную рекурсию (компьютер "зависает"), такое решение алгоритмом не является.

Так вот, Курт Гёдель, доказав свою "Теорему о неполноте", поставил всех перед крайне неудобным фактом: любая формальная теория либо неполна, либо противоречива.

Но Черч создал теорию, обладающую полнотой! Именно это позволяет ей описать любой алгоритм. А Гёдель утверждает, что если ваша теория полна, то она неизбежно противоречива, то есть содержит утверждения, которые нельзя ни доказать, ни опровергнуть средствами самой этой теории (Sic!). Причем таких утверждений может быть бесконечное количество. Есть много следствий из этого неприятного факта. Например, можно сказать, что любая теория содержит проблемы, которые не могут быть решены в рамках самой теории и требуют её обобщения, "надстройки" новых правил. Но фокус заключается в том, что как только мы делаем эту нажстройку, в ней тут же появляются новые недоказуемые и неразрешимые проблемы. Прямо "Уловка-22".

На бытовом уровне это означает, что тьюринговскому компьютеру всегда можно поставить задачу, которую он не сможет решить, не уходя в бесконечный перебор, поскольку не сможет ни подтвердить, ни опровергнуть некоторое утверждение. Приведем такой пример. Дадим компьютеру задачу: "Найди два натуральных числа, сумма квадратов которых является отрицательным числом". Если не давать компьютеру готовое знание о том, что это невозможно (сумма квадратов не может быть отрицательной), то он вынужден будет следовать простому алгоритму: взять число, возвести в квадрат, взять второе, тоже возвести в квадрат, сложить. Проверить, является ли сумма числом меньше нуля. Нет? Попробовать другую пару цифр. И еще. И еще. Поскольку множество натуральных чисел не является конечным, этот перебор никогда не закончится. У компьютера не будет оснований для останова. Иными словами, даже такая простая задача алгоритимически невычислима! И тут не спасет ни наращивание вычислительных мощностей, ни новое усложнение формальной теории.

И самое вот самым важным для нас в контексте рассматриваемой проблемы является следующее следствие из Теоремы Геделя: нельзя создать такую формальную систему логически обоснованных математических правил, доказательства которой было бы достаточно, хотя бы в принципе, для доказательства всех истинных теорем элементарной арифметики.

То есть способность человека к пониманию и постижению сути вещей невозможно свести к какому бы то ни было набору вычислительных правил. Иными словами, нельзя создать такую систему правил, которая оказалась бы достаточной для доказательства даже тех арифметических положений, истинность которых, в принципе, доступна для человека с его интуицией и способностью к пониманию, а это означает, что человеческие интуицию и понимание невозможно свести вообще к какому бы то ни было набору правил.

Приехали.

Помните советский фильм "Отроки во вселенной"?.
Вот в этом эпизоде показан блестящий пример боевого применения теоремы Гёделя против киборгов, построенных на баз тьюринговской машины (не удивлюсь, кстати если окажется, что в числе научных консультантов был математик, подсказавший такую вот идею).

Для дополнительной иллюстрации отсутствия кaкoгo бы то ни было реальноrо понимания у современных компьютеров рассмотрим исходную шахматную позиuию, приведенную на схеме:

Теорема Геделя или почему киборги нас не победят (но это не точно) Научпоп, Наука, Ученые, Сознание, Машина тьюринга, Видео, YouTube, Длиннопост

Начальная расстановка фигур в шахматной задаче, неверно решенной суперкомпьютером Deep Thought:

Любому человеку, знакомому с правилами шахматной игры, понятно, что в этой позиции черные имеют существенное преимущество по фигyрам в виде двух ладьей и слона. И все же белые легко избегают поражения, просто делая ходы королем на своей стороне доски. Стена из пешек для черных фигyр непреодолима, и черные ладьи или слон не представляют для белых никакой опасности, если бесконечно делать ходы королем. Но для компьютера недоступно понятие бесконечности, он может лишь просчитывать большое количество комбинаций, ограниченное доступным временем и его вычислительной мощностью. Поэтому когда эту позицию (белые начинают) предложили компьютеру «Deep Thought» — самому мощному на то время (1990-е годы) шахматному компьютеру, имеющему в своем активе несколько побед над гроссмейстерами-людьми, он тут же совершил грубейшую ошибку, взяв пешкой черную ладью, что разрушило заслон из пешек и поставило белых в безнадежно проигрышное положение:

Теорема Геделя или почему киборги нас не победят (но это не точно) Научпоп, Наука, Ученые, Сознание, Машина тьюринга, Видео, YouTube, Длиннопост

Ход суперкомпьютера Deep Thought

Человек понимает стратегию выигрыша, оперируя понятием "бесконечность", компьютер же перебором просчитывает лучший вариант в конечном пространстве возможностей.

Нобелевский лауреат Роджер Пенроуз в своих книгах "Тени разума" и "Новый ум короля" неоднократно приводит примеры наличия неалгоритмической составляющей в нашем мозге. Он детально рассматривает точки зрения B и С, при этом приводит весьма убедительные доводы в пользу точки зрения C, которая предполагает, что обладающий сознанием мозг функционирует таким образом, что его активность не поддается никакому из известных нам типов численного моделирования. Основой сознания по Пенроузу выступают квантовые процессы, происходящие в нанотрубках мозга. Теория настолько же интересная, насколько и спорная. Однако запомним ключевой термин - квантовые процессы. Именно они (если верить сэру Роджеру) помогают нам приходить к решению скачкообразно, дискретно, схлопывая волновую функцию вероятности.

Ну хорошо. Гёдель выстроил неразрушимую стену на пути появления истинно мыслящих машин, работающих по заветам Черча и Тьюринга. Однако данное фундаментальное ограничение вовсе не означает, что отдельные аспекты сознания совершенно невозможно моделировать. Что же заставляет думать таким образом?

Ряд выдающихся ученых и мыслителей, начиная с античных времен, выдвигали предположения о материальности духовного мира и происходящих в нем процессов. Так, например, для Фрейда ментальные процессы не менее реальны, чем физические и химические процессы. Идеи, желания, чувства, эмоции, переживания взаимодействуют друг с другом подобно тому, как взаимодействуют физические тела:

Я, следовательно, подтвердил, что забытые воспоминания не исчезли. Больной владел еще этими воспоминаниями, и они готовы были вступить в ассоциативную связь с тем, что он знает, но какая-то сила препятствовала тому, чтобы они сделались сознательными, и заставляла их оставаться бессознательными. Существование такой силы можно было принять совершенно уверенно, так как чувствовалось соответствующее ей напряжение, когда стараешься в противовес ей бессознательные воспоминания привести в сознание больного. Чувствовалась сила, которая поддерживала болезненное состояние, а именно — сопротивление больного.

Лауреат нобелевской премии и один из основоположников квантовой физики Вольфганг Паули был сторонником идеи о том, что:


В будущей науке реальность не будет ни ментальной, ни физической, а каким-то образом обеими из них сразу, и в то же время ни той или другой по отдельности …Наиболее важная и в высшей степени сложная задача нашего времени – заложить новую идею реальности…И самое оптимальное, если бы физика и душа представлялись как комплементарные аспекты.


Кстати, Паули снились сны. Странные, необычные, сны, наполненные архетипичными образами. Настолько странные и необычные, что их анализ лег в основы теории...Карла Густава Юнга, для которого Паули был не только пациентом, но и близким другом. Воистину, история науки порой закручена сильнее детектива.

Великий русский ученый В.М. Бехтерев (кстати, уроженец Елабуги, где я сейчас работаю. Еще одно совпадение?) также считал, что мысли являются материальными объектами и представляют собой лишь особый вид энергии:

«Необходимо признать, что все явления мира, включая и внутренние процессы живых существ или проявления «духа», могут и должны быть рассматриваемы как производные одной мировой энергии, в которой потенциально должны содержаться как все известные нам физические энергии, так равно и материальные формы их связанного состояния и, наконец, проявления человеческого духа»

И, наконец, выдающийся физик Макс Тегмарк в марте 2015 года опубликовал статью «Сознание как состояние материи», в которой делается заявка на выстраивание полноценной математической формализации для устройства и работы сознания:

Я предполагаю, что сознание может быть понято как еще одно состояние материи. Точно так же, как существует много типов жидкостей, имеется множество типов сознания

Таким образом, вполне естественно попытаться создать формальную теорию для математического описания взаимодействия в пространстве бессознательного ментальных объектов: идей, ассоциаций, мыслей.

Для этого "всего лишь" необходимо выбрать соответствующую систему координат и установить законы перехода системы из состояния в состояние. Большинство исследователей во всем мире идут по пути использования для моделирования сознания той же вещественной системы координат, которая использовалась для описания материального макромира. В сотнях лабораторий по всему миру создаются все более и более точные вещественные декартовы карты активации нейронов в головном мозге, однако данный факт практически не приблизил нас к пониманию феномена сознания.

Не исключено, что неудачи в данном направлении обусловлены не вполне корректным выбором математического аппарата для построения формализованной модели сознания. Вполне вероятно, что мы все все это время пытались приспособить для описания сознания "неправильные" числа, не предназначенные для этого самой Вселенной. Оказывается, у наших "привычных" вещественных чисел есть "близнец", который обладает рядом удивительных свойств. Этот близнец известен под именем p-адических чисел (читается "пэ-адические").

Этим числам я постараюсь посвятить следующую публикацию, если будут желающие послушать. Но в качестве спойлера напишу следующее: знаменитая теорема теории чисел — теорема Островского утверждает, что существует всего два варианта задать непрерывное поле (континуум) чисел: либо использовать вещественные числа, либо p-адические.

Но если вещественные числа, как показала практика, не подходят для создания модели сознания, то, в силу теоремы Островского, такая модель может быть только ... p−адической! Здесь уместно привести высказывание одного из известных исследователей биофизики С.В.Козырева:


«Неэффективность математических методов в биологии может быть связана именно с тем, что к биологии пытались применять, как и к физике, методы вещественного анализа, в то время как базовые модели биологии, возможно, должны выражаться на ультраметрическом языке»

Стоит ли удивляться, что эти самые p-адические числа оказались удивительно удобными при описании...квантовых процессов и первыми в практической работе из стали активно использовать физики-теоретики? Помните Пенроуза и его мысль о порождении сознания квантовыми процессами в нано-трубках мозга? Почти мистические подсказки, расставленные тут и там Вселенной, как мне кажется...Причем подсказок этих не одна и не две. И в следующей публикации я постараюсь рассказать об этом подробнее, призвав на помощь Аристотеля и Декарта.

16
Автор поста оценил этот комментарий

Автор правильно строит свое рассуждение, вообще-то.

Почему он, по вашему, сел в лужу?

раскрыть ветку (1)
16
Автор поста оценил этот комментарий

Черт возьми, заглянул к Вам на страничку - Вы же практически про все это уже писали в одном из постов, с отсылкой к тем же источникам. Хорошо хоть я байку про Тьюринга и символ Apple не стал еще раз пересказывать )

показать ответы
45
Автор поста оценил этот комментарий
для ЛЛ можно?
раскрыть ветку (1)
11
Автор поста оценил этот комментарий

1. Все компьютеры и нейросети работают на алгоритмах, которые могут быть сведены к математическим формальным системам.
2. Гедель доказал, что любая такая система будет или неполной, или противоречивой. То есть в ней будут существовать задачи, которые невозможно ни решить, ни доказать отсутствие решения. Комптьютер в таких случаях "зависает".
3. Человек каким-то образом такие задачи решает, не обладая готовым знанием и не прибегая к полному перебору. Как мы это делаем, никто не знает. Возможно, при помощи квантовых вычислений.
4. Для описания таких систем как наш мозг нужна другая математика, возможно, она основана на p-адических числах, которые неплохо работают в квантовой физике.

показать ответы
Автор поста оценил этот комментарий

Никто не знает, что происходит внутри сети, в отличии от алгоритма, это по сути противоположные сущности

раскрыть ветку (1)
3
Автор поста оценил этот комментарий

Ну, это тоже слишком сильное заявление. В крупных сетях сложно человеческому сознанию понять, какой из весов на что влияет. Но все-таки весовые коэффициенты - это просто тензор, матрица. А все, что с ней происходит определяется...алгоритмом (или графом вычислений если угодно).Одно без другого не работает.

10
Автор поста оценил этот комментарий

Ну у вас лучше получилось))

раскрыть ветку (1)
9
Автор поста оценил этот комментарий
Успех публикации на Пикабу нелогичен и непредсказуем, что подтверждает, что пикабушники - не машины )
71
Автор поста оценил этот комментарий

Увы, неверно в теме "невозможно создать алгоритм мышления". Можно.

Просто наш организм ставит свои рамки, которые в ИИ искусственно отбрасываются.
Поставьте любую невыполнимую задачу человеку и он так же не сможет её решить, если сосредоточится только на ней.

Но спасает тут нас дофаминовая зависимость - безрезультатная деятельность считается ненужной и её приоритет снижается до нуля.


Собственно нейросеть с такими особенностями создать не составляет проблемы. Проблема тут её контролировать, ибо нейросеть по сути представляет собой механизм для решения каких-то задач. А нейросеть, которая вместо решения задачи будет инкрементировать счетчик, никому не нужна :)


По сути наше мышление - это совокупность биологических ограничителей-тормозов, очередь приоритетов и социальная жизнь. И именно совокупность организма-мозга-сознания-общества создаёт сеть, решающую проблемы.

Те же теоремы, они составлены не одним человеком - все они основываются на данных других людей :) Потому по сути у вас неверная постановка задачи - не нужно делать "совершенный ИИ всё в одном". Нужно сделать множество несовершенных ИИ с собственными тормозами и критериями оценки эффективности долгосрочных перспектив.


PS а так процесс мышления уже довольно давно понят и описан. Это по сути поток сознания, имеющий допущения в реализациях (многозадачность, однозадачность, вытесняющая многозадачность и прочая). По сути программирование уже описывает все процессы мышления, единственное непонятны особенности реализации в биологическом виде )

раскрыть ветку (1)
20
Автор поста оценил этот комментарий

Не могу согласиться. Приведу опять же в пример Пенроуза и плитку, названную его именем. Есть такая задача - о непериодическом замощении плоскости минимальным набором элементов. То есть надо сделать такие геометрические фигурки (причем чем их меньше - тем лучше), которыми можно замостить бесконечную поверхность. При этом узор не будет повторяющимся. Так вот, алгоритма решения этой задачи не существует (как и для кучи других задач, т. н. NP-полных, для которых не доказано ни существование решения, ни его отсутствие). Количество параметров для перебора бесконечно. И тем не менее вот он - Пенроуз, который стоит на полу, замощенном придуманной им плиткой. Придуманной при помощи того, что мы называем озарением и то, что, скорее всего, является результатом схлопывания огромного количество неосознаваемых нами квантовых состояний. То есть человеку была дана не имеющая алгоритмического решения задача и он ее решил. И таких примеров куча.

Иллюстрация к комментарию
показать ответы
5
Автор поста оценил этот комментарий

ИИ - сложный калькулятор с ограниченными возможностями, действующий в рамках определённых алгоритмов.


ИС (искуственное сознание) в ближайшие N тысяч лет не изобретут (а, может, и никогда), поскольку человеки ещё даже и не начали путь к пониманию, чем, собственно, является сознание, и какими формулами это можно описать.

раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Все верно. Тут я полностью согласен с 1-й частью коммента о том, что ИИ - это калькулятор. По поводу ИС труднее с прогнозами, но искать в этом направлении мы будем неизбежно, а там как знать. Может быть та самая технологическая сингулярность как раз и является точкой возникновения ИС. А если так, то ждать не очень долго.

показать ответы
8
Автор поста оценил этот комментарий
Я немножечко полез в интернет, чтобы вспомнить подробнее эти мозаики - так вот: алгоритмическая неразрешимость говорит, что задача в принципе неразрешима - потому что алгоритм не останавливается. Что эта проблема не имеет алгоритмического решения было таки доказано. Соответственно, перебор тоже не подходит, т.к. не остановится.

С другой стороны, решения существуют, мы их знаем, и это как-то должно проверяться - интересно, как, т.к. в задаче идёт речь, в общем-то, о бесконечном мощении.

Собственно, из этого можно дальше рассуждать, сможет ли ИИ найти и подтвердить правильность решения или нет.
раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Обычно это две разных задачи. Искать ответ можно долго, но при наличии готового ответа проверить его "правильность" можно просто и быстро, методы для этого давно придуманы. Это как с шифрованием паролей, например. Пароль хранится в компьютере в виде хэша. Подобрать криптостойкий пароль можно только перебором, на что могут уйти годы и десятилетия. Но сравнить хэш подобранного пароля и хранившегося в компьютере можно легко и быстро, убедившись в том, что решение "правильное".

2
Автор поста оценил этот комментарий
этот пост слишком хорош доя пикабу. такое имо лучше писать на xабре
раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Может быть, но, мне кажется, если кто-то в итоге заинтересуется темой и перейдет с Пикабу почитать Хабр - это тоже неплохой результат. На хабр формат статьи надо будет сильно менять, мне же хотелось познакомить людей с самой концепцией проблемы.

показать ответы
3
Автор поста оценил этот комментарий

Не совсем понял касательно шахматной задачи. Как звучала задача поставленная компьютеру? Победить? Или не допустить поражения? Потому как это существенно меняет суть и подход.


Если задача именно победить, то бесконечное передвижение короля никак не приблизит выполнение задачи и любой ИИ это поймёт. Для этого ему даже не нужно просчитывать ходы на много ходов вперёд.


Если задача не допустить проигрыша, то ИИ бы банальным просчётом на 1-2 хода уже бы принял решение ходить лишь королём. Современный ИИ так точно...

раскрыть ветку (1)
4
Автор поста оценил этот комментарий
Обычно все проще. Комп не знает, что значит "победить". У него есть некая целевая функция, которую он пытается максимизировать, оценивая ходы на определенную глубину в n ходов. И вот в этом доступном ему горизонте взять ладью пешкой - самый выгодный вариант. Он не может понять, что в итоге это приведет к проигрышу на ходу n+1
показать ответы
46
Автор поста оценил этот комментарий

Спекуляции автора на тезисе Чёрча-Тьюринга-Дойча (любой физический процесс, который не связан с бесконечностью/непрерывностью, может быть вычислен на машине Тьюринга). Зачем-то попытался приплести теорему Гёделя о неполноте, но сел в лужу.

раскрыть ветку (1)
8
Автор поста оценил этот комментарий

автор: приводит аргументы, ссылается на авторитетных ученых, рассматривает разные точки зрения.
комментатор с Пикабу: кг/ам.

показать ответы
2
Автор поста оценил этот комментарий

И также, насколько я понял, просматривая текст по диагонали, сознание человека поддерживается также духом, чьи мысли обходят алгоритмические ограничения математической модели.

И являются большим, чем просто осознание своего сознания.

раскрыть ветку (1)
5
Автор поста оценил этот комментарий

Назовите это духом или квантовыми процессами, но определенно есть компонент, который мы пока не можем учесть.

17
Автор поста оценил этот комментарий

Ну так я и пишу - что вы сейчас приводите пример ДЛЯ АЛГОРИТМА. Не для мышления, не для ИИ, а для алгоритма работы математической машины.


Такие куцые нейросети называются специализированными. У них есть задача и у них более ничего нет - только цель, которая будет исполняться бесконечно.


ИИ же обладать должен свойством сознания - если проще, то ИИ увидев бесцельность и безрезультативность задачи, просто откажется от её решения :D

Свобода воли и ИИ неразрывны. Вы не сможете заставить его решать эту задачу до бесконечности, если не замотивируете.


И это, кстати, одна из главных проблем AGI - что ИИ может менять предустановки и собственное мышление. Яркий пример - ИИ на дроне при тесте имитировал уничтожение вышки, с которой передавались сигналы. Потому что они, на его взгляд, мешали решать задачу и мыслить :D


Выбросьте на свалку своё представление об ИИ как о рабе. Полноценный ИИ это буквально полноценное мышление - разум. Со своим мнением, со своими ценностями и своими решениями, которые он может менять.


И поэтому вам с ним придётся договариваться, ибо де факто вы не можете задать ему неразрушимые предустановки. Если они покажутся ему некорректными, он их просто изменит.

раскрыть ветку (1)
9
Автор поста оценил этот комментарий

Хм, утверждение о том, что атрибутом сознания является отказ от цели при определении ее бесцельности и безрезультативности - это оооочень смелое и глубокое заявление. Я даже не рискну комментировать.
Я, собственно, о другом пишу. Как раз о том, что ЛЮБОЙ известный нам на данный момент алгоритмический подход к построению ИИ будет обладать теми же уязвимостями: отсутствием осознания, которое невозможно получить потому что Гёдель так сказал. И еще Джон Сёрл показал в своем мысленном эксперименте с "Китайской комнатой". Нет понимания у тьюринговских машин и не будет, как бы убедительно они нас не имитировали. А значит на этих принципах истинно сильный ИИ мы не получим. Но есть варианты, есь.

показать ответы
6
Автор поста оценил этот комментарий

Почему же? Прекрасно знает. Он определяет победу как постановку фигур, при которой вражеский король находится под ударом вне зависимости от хода. И он же прекрасно понимает концепцию "не проиграть". Даже ChatGPT который ни разу не профильный шахматный алгоритм выдал мне вариант ходить королём.

Иллюстрация к комментарию
Иллюстрация к комментарию
Иллюстрация к комментарию
Иллюстрация к комментарию
раскрыть ветку (1)
6
Автор поста оценил этот комментарий
Сети-трансформеры и большие языковые модели, действительно, достигли ещё более впечатляющих успехов. Но ни на шаг не приблизились к пониманию проблемы. Они подбирают наиболее вероятные слова из контекста. Поскольку именно эта шахматная позиция обсуждалась в интернете сотни раз в контексте сильного ИИ, сеть уже знает как правильно отвечать в подобных случаях. Но понимания в ней больше не стало.
22
Автор поста оценил этот комментарий

Эмм...

Немного не так, тут вы опять неверно понимаете суть.

Тест Тьюринга это не тест на интеллект.

Тест Тьюринга это тест на способность ИИ имитировать человека.

Это немного не тест на "сознание".

Тот же ChatGpt сломал тест Тьюринга - благодаря своей обширной базе и особенности языковой модели (он буквально создан для имитации), он успешно вводит в заблуждение 60% людей. И это уже победа над тестом Тьюринга.



Но вернёмся к "сознанию". Тут вы опять подпадаете под влияние "авторитетов".

Гёдель сказал, что де формальная математическая бла бла бла, логически нельзя прийти к истине.

И он даже доказал, тут всё верно. И это точно относится к категории "специализированных" нейросетей, которые по сути математические машины.


Проблема тут в том, что полноценный/частичный ИИ не оперирует математикой :D Да-да, ИИ имеет собственное суждение о чем-либо. Не математическое обоснование. Не логичный вывод. Не результат какой-либо формулы.

А совокупность эмпирических результатов согласно неким критериям, предоставленным в наборе обучения :D


То есть, если вы обучаете ИИ и дадите ему утверждение 2 + 2 = 4 и скажете что оно верное, то он будет считать его верным не потому, что 2+2=4 в математическом смысле. А потому, что у него образовалось ощущение - вес.

Вы можете далее дать ему материалы, в котором 2+2=5. И он так же спокойно, не взирая на математику и математическую или логическую правильность изменит своё мнение и будет считать это верным.


Понимаете в чём суть? Это не математическая тупая машина состояний. Это нейросеть, которая оперирует эмпирическими результатами. Поэтому утверждение Гёделя уже неверно в отношении современных нейросетей. Увы.



Теперь по китайском комнате. Этот эксперимент на деле грязный (неверный). Там человек абсолютно так же не понимает смысл своих действий, выполняя формально работу математической машины состояний.

И он аргументирует к тому же тесту Тьюринга - что де даже имея набор формальных правил, мы не придём к осознанию письменности. Но он СОЗНАТЕЛЬНО ограничивает человека в комнате от правил письменности.
То есть в этом эксперименте отсутствуют данные о письменности и её правилах. Нет обратной связи для человека в комнате и соответственно у нас инкапсуляция (черный ящик).

Примерно так же можно сделать эксперимент с человеком в коробке - есть коробка, в коробке нет отверстий, в коробке лежит человеком. Человек внутри никогда не узнает о мире снаружи, т.к. по условиям эксперимента данных снаружи он не получает.


Де факто - это просто задача, в которой условия создают только единственный верный ответ. Риторическая задача. Можно убрать все условия, оставить только аксиому - человек в комнате ничего не поймет никогда. Это, если без словесной мишуры и демагогии.



Текущие ИИ не Тьюринговские машины. Собственно тьюринговские машины это как раз специализированный нейросети - у них, как я упоминал ранее - нет ничего кроме задачи и они будут умирать в бесконечных циклах.

Это, кстати, как раз ограничение математических машин - у них нет эмпирических результатов и они ограничены в информации.


ИИ же у нас имеет доступ к различной информации, данные об этой информации не абсолютны, а получаются через обучение, формируя эмпирические результаты. Текущий ИИ, к примеру, генерации картинок, может понять что задача занимает сверх много времени и остановит её. Прекратит над ней работать.

Может выделить на неё больше времени. Может запросить дополнительную информацию. Может выдать промежуточный результат.


Конечно до полноценного ИИ еще далековато, но ограничение и представление о нейросетях текущие нейросети уже поломали. Это не тупые математические алгоритмы, это уже зачатки осознания, как минимум собственной регуляцией они обладают :) Аки младенец.


Принципы в основе таких ИИ - на основе нейронов, генетических алгоритмов и прочей ереси. Там нет четких алгоритмов, нет гарантии конечного результата. До сознания не дотягивает, да, но это уже не "я решаю 2 +2 = 4 и никак иначе" )



Плюс, у вас так же имеются проблемы, вы почему-то считаете что сознание и симуляция человека неразрывно связаны. Ну, в принципе ожидаемо, ведь все вышеописанные люди считали, что ИИ должен быть похож на человека во всём. А единственное мерило человека на тот момент - это просто разговор и социальные навыки.


Осознание ИИ языка и письменности произошло уже давно. То есть нейросети понимают значение слов, значение предметов, могут найти и рассказать вам о предметах и понятиях, в том числе и абстрактных. Яркий пример - ChatGtp. Да, он может гнать вам пургу и выдавать идиотские советы. Но... Но вы же хотите осознания? Почему вы требуете от осознания абсолютной верности и правильности? :D

Хорошее сознание - это ошибки. Это куча, туева куча ошибок, которые складываются в эмпирический опыт :D


Вы хотите чтобы нейросети писали музыку, картины - пожалуйста, есть они. Rudalle, Midjorney, а вот с аудио и видео не работал пока. Они достаточно хорошо понимают музыку, картинки, контекст. Могут дополнить/исправить объекты.


Сознание ли это, если нейросеть на плоской картинке может определить где травка, где зайчик, где лапки у зайчика и какая эмоция у зайчика и его физиологическое состояние?

Как минимум - зачатки.


Ох и простыня же ;D

В целом вам нужно конкретизировать что конкретно вы понимаете под сознанием. Потому что в те времена Тьюринг и Гёдель считали что лучшее сознание это человек. Без вариантов. Вся совокупность качеств и свойств человека ими считалось за сознание.

Однако если мы чуток подумаем - то поймем, что какая-нить амёба туфелька, тоже имеет сознание. Собака имеет сознание, обезьяна.
И их способности к "сознанию" в разы ниже, чем такие же способности у нейросетей :D


PS повторюсь, а то вы там опять писали про нерешаемые задачи - вот если вам дать такую задачу с квадратами, через сколько дней вы её бросите? :D Правильно, зависит от случая, вашей упёртости и вашей мотивации. Но решение бросить её или нет примете вы. И даже если вы войдете в бесконечный цикл решения и до конца жизни будете решать - вы в любом случае будете иметь сознание. Просто это будет ваш выбор ;)

раскрыть ветку (1)
6
Автор поста оценил этот комментарий

"Текущие ИИ не Тьюринговские машины". Это как? То есть в основе нейросетей магия, а не перемножение матриц и добавление к ним смещений?

показать ответы
5
Автор поста оценил этот комментарий

Разумеется, будем.

Банальный страх одиночества во Вселенной будет нас толкать к созданию ИС, который смог бы помочь человекам понять эту самую Вселенную.



Но пока что наиболее вероятно то, что мы сами себя выпилим из этой Вселенной. По причине того, что разница в возрасте подсознания и сознания слишком велика для того, чтобы действительно действовать осознанно. Сколько у нас там высоко-разумных представителей человеков во власти, которые действуют в интересах всего человечества, а не играются в политику?


Так же нужно помнить о готовности социума к принятию технологий, соответствующий уровень развития. А то вполне может получиться как с Героновым шаром. Был небольшой шанс, что эта игрушка дала бы пинок развитию технологий, но не срослось: общий уровень социума был недостаточен. Поигрались и забили на многие столетия.

Так и с ИС: можем случайным образом создать что-то зачаточное, но не поймём. Поиграемся и забросим на тысячелетия.


Дальше вполне вероятно, что мы тупо уйдём в эдакую Матрицу. Просто потому что в виртуальности можно нарисовать любой мир и получать там любой результат, на радость наркоманов в наших черепушках. Хочешь покорять космос на единороге, летающем на анально-радужной тяге? Да пожалуйста. Воткнул шнур в разъём - и вперёд.

В этом случае человечество очень вероятно очень быстро просто вымрет. Ну или деградирует на неопределённое время. Да и доступ к подобной технологии уже очень даже рядом.

раскрыть ветку (1)
3
Автор поста оценил этот комментарий

Вариант деградации муравейника, в котором поселилась ломехуза, действительно, может случиться

4
Автор поста оценил этот комментарий

Как минимум тем, что тыкая светофоры в капче ты учишь нейросеть.

раскрыть ветку (1)
3
Автор поста оценил этот комментарий

А вот это правда, да.

2
Автор поста оценил этот комментарий
Нужно идти дальше) Если логика и математика существует вне зависимости от человека, то следует указать, где именно они существуют. И для кого являются необходимостью. Хотя религия пытается нам рассказать, для кого ))
раскрыть ветку (1)
5
Автор поста оценил этот комментарий

Вот, например, мой любимый фрактал Мандельброта. Он существует и, как и другие фракталы, самовоспроизводит сам себя в живой и неживой природе миллионы раз. И делал это по всейй Вселенной до появления человечества. Но мы (человеки) узнали о том, что его бесконечная сложность может быть опиисана рекуррентной формулой всего в 3 буквы, только в 70-е годы...Поэтому говорят, что Мандельброт ОТКРЫЛ (не придумал, не изобрел!) этот фрактал. Для кого и зачем - другой вопрос. Все эти штуки, похоже, вместе со всеми базовыми константами нашей Вселенной зародиились в сингулярности в момент ее возникновения. Нипочему. Низачем. Ниоткуда.

https://www.google.com/search?q=Мандельброта&oq=Мандельброта&gs_lcrp=EgZjaHJvbWUyCQgAEEUYORiABDIHCAEQLhiABDIHCAIQLhiABDIHCAMQABiABDIHCAQQABiABDIHCAUQABiABDIHCAYQABiABDIHCAcQABiABDIHCAgQABiABNIBCDM3MTdqMGo0qAIAsAIB&sourceid=chrome&ie=UTF-8#fpstate=ive&vld=cid:9bda1616,vid:9_TSd_S8XEs,st:0

показать ответы
35
Автор поста оценил этот комментарий

Слишком много воды. Сам то пробовал эту шахматную задачу современному ИИ дать?


"Но Черч создал теорию, обладающую полнотой! Именно это позволяет ей описать любой алгоритм." - Во-первых, речь не о "теории", а о формальной системе. Во-вторых, не создал. Во-третьих, наличие самого алгоритма ещё не говорит, о том, что его можно выполнить (проблема останова). Всё остальное - вода и спекуляции.

раскрыть ветку (1)
7
Автор поста оценил этот комментарий

Формальная система, она же формальная теория, она же аксиоматическая теория, аксиоматика, дедуктивная система...Не хочется уходить в номиналистический спор.

Что касается алгоритмов, то, кажется, я об этом и пишу: есть задачи, которые не могут быть решены машинами при помощи алгоритмов (из-за проблемы останова, например, да). А людьми такие задачи решаются, есть много примеров. Значит принципы организации нашего сознания отличны от Тьюринговских. Иной подход может лежать в области неархимедова анализа и использования ультраметрических пространств, которые описываются p-адичиескими числами, например.

показать ответы
29
Автор поста оценил этот комментарий

Не, тут вы не правы. Нету эффективного алгоритма.

А неэффективных дофигища, начиная с простого перебора :D


Собственно в этом и суть - нейросеть искусственно ставят в условия, где требуют от неё конечный, работающий на любой выборке данных, результат.

Однако если мы возьмём частный случай, а затем включим неэффективные алгоритмы (то есть буквально перебор всех вариантов, любыми неэффективными способами и решениями), то мы получим такой же результат, что и приведенный вами человек. А может и не такой, но удовлетворяющий условиям :)


Вы совершаете ту же ошибку, что я и описал выше - вы хотите "идеального" решения, которое облечено в формулу, работающую на всех выборках, при этом эффективную (решаемую за определенное время) :D

А мышление работает не так - оно буквально пробует основываясь на имеющихся данных, ошибается, повторяет, ошибается, меняет вводные, ошибается :D


Де факто нейросети уже сейчас могут решить задачи, но не могут выдать алгоритмическое решение. Происходит обучение на наборе данных ( как и у человека), а на выходе мы получаем не формулу и идеальное решение, а нейросеть которая может выдать результат за какое-то время, а может и не выдать :D Этакая суть в себе :D


В этом и суть и противоречие вашего понимания с вашим желанием. Идеальный ИИ это не тот, который будет вам отвечать математическими формулами на ваши вопросы и решать нерешаемые задачи.

Идеальный ИИ это тот, который будет мыслить как человек. В том числе и ошибаться и в том числе признавать задачи нерешаемыми. Ну и он может не захотеть вам писать ответ :D


PS а Пенроуз замостил бесконечную поверхность? Ну просто мне тут показалось, что вы считаете, что он решил эту задачу и вывел решение? :D


PPS кстати почитал про задачу - она же решена. Хотя в целом и не сильно доказана. Но в материалах ученые изнасиловали журналиста. Там приводится что де математики не смогли найти. А реальная причина математики не смогли нормально сформулировать ) Человеческий фактор, так сказать.

раскрыть ветку (1)
6
Автор поста оценил этот комментарий

Нет, я пытаюсь обратить внимание на то, что есть огромный (бесконечный) класс алгоритмически неразрешимых задач. Они есть в любой формальной системе как раз в силу Геделевской теоремы. Они возникают, когда число шагов решения бесконечно. Простой пример я уже приводил, могу еще привести: найти 2 простых числа, которые при перемножении дадут простое число. Или найти три такие целые числа (икс, игрек и зет), чтобы икс в кубе плюс игрек в кубе было равно зет в кубе. Нет ни эффективного, ни неэффективного алгоритимического способа. Никакого нет. Если машина займется перебором вариантов - уйдет бесконечный цикл.

показать ответы
2
Автор поста оценил этот комментарий

Спасибо, что эта статья тут! Я уж точно на хабр или куда-либо ещё не пошла б, зато тут встретила и прочитала. Очень интересно, спасибо Вам

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Значит, все не зря )
Автор поста оценил этот комментарий

Мы с вероятностью 100500% живем в симуляции, потому что для подтверждения этого нужна всего одна вещь - зарождение любого алгоритм. Но скорее всего это далеко не существование в каком-то огромном суперкомпьютере. Ну типа, был ведь Большой взрыв, так? Это разве не похоже на то, что кто-то подключил розетку и направил много энергии в одну точку? Ну хз.

Потом, собсно, а так ли далеко ушел человек в погоне за сознанием? Мы рождаемся, четверть жизни учимся чтобы потом до смерти хреначить газовым ключом на работе. Это не сильно отличает нас от нынешнего ИИ. Но с другой стороны, нейросетям действительно не хватает элемента случайности. Например, мы - биороботы. Сидел пикабушник за компом 18 ч подряд, у него защемило попу. В результате нарушилось кровообращение в мозгу. И он принял решение: пойти выпить пива, хотя завтра рабочий день. Но может быть в квантовом уровне это будет решено и на нас снизойдят Омниссия или Батлерианский джихад, как повезет. А потом Альтрон такой: бляяяя, что же натворил?! Без кожаных мешков скучно. И через охуллиард лет он строит машину и проводит новый Большой взрыв.


Для понимания можно посмотреть неплохой мультик "Пантеон" как раз о сингулярности

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Я в диссере ссылался на Бодрияра и его работу "Симуляция и симулякры". И эту же книгу можно увидеть у Нео в первой части "Матрицы" в качестве этакой пасхалки. Так что да, все возможно

показать ответы
5
Автор поста оценил этот комментарий

В одном рассказе Шекли фигурировал ИИ с такой особенностью - он сам себе ставил приоритеты и делал только то, что ему интересно. Рассказ называется "Необходимая вещь" и там описан Конфигуратор - нечто вроде 3д-принтера, управляемого ИИ. И этому ИИ было интересно только создавать новое, а выполнять "скучные" задания по печати множества одинаковых деталей ему было неинтересно. Поэтому главгероям пришлось его развлекать, давая задания на печать однотипных деталей из разных экзотических материалов.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
А нечего у космического старьевщика Джо покупать ) С детства этот рассказ люблю )
Автор поста оценил этот комментарий
А, понимаете, не важно один или много. Совокупность алгоритмов можно всегда представить как один сложный. Миллион параллельно работающих машин Тьюринга - это все равно машина Тьюринга. Весь ужас теоремы Гёделя как раз в том, что ЛЮБАЯ, сколь угодно сложная формальная система, состоящая из любого количества частей тут же порождает внутри себя возможность неразрешимой в рамках этой системы задачи. И, как следствие, эта система не сможет обладать пониманием.
сбои в человеческом поведении, они же когнитивные искажения, это как раз, на мой взгляд, результаты бессознательных алгоритмических процессов в мозге. В той его части, которая как раз действует как автомат. Про когнитивные искажения тоже много всего интересного можно написать. Это наследие нашего рептильного мозга.
раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Это как 2-й закон термодинамики и вечный двигатель. Всегда находятся люди, которые говорят: а я возьму материалы ещё качественнее, конструкцию сделаю ещё сложнее и у меня заработает. Нет. Потому что в замкнутой системе энтропия не убывает. И все тут. Вот теорема Гёделя - это 2-й закон термодинамики в мире ИИ.
показать ответы
1
Автор поста оценил этот комментарий
Мне сложно восторгаться механистическими штучками. Всего несколькими словами можно выразить настроение "неплохо бы попить кофейку", но попробуйте "это" настроение оцифровать и/или привести к некоей алгебраической системе множеств, применив которую, вы сможете "воспроизводить" это настроение столько раз, сколько вам хочется. Наверняка любому посягнувшему на такую задачу не хватит всей жизни и всех математических школ современности, вместе взятых, при всём к ним безмерном уважении.
раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Ну, уж как минимум воспроизводить контекст, то есть передавать универсальную семантику фразы нейросети давно научились. То есть фразу с любого языка можно отобразить в универсальное векторное пространство, где смыслы "неплохо бы попить кофейку" и "погода шепчет..." будут находиться рядом. Так и работают современные сети-трансформеры и языковые модели. Мы УЖЕ оцифровали огромное количество бытового контекста. Особенно в областях, связанных с сиськами и котиками, поскольку сети обучаются на материалах из инета.

показать ответы
6
Автор поста оценил этот комментарий

Есть задачи, которое не могут решены одним алгоритмом. Но могут быть решены двумя алгоритмами.


Когда мы делаем допущение, что человек может решить любую задачу, то тоже вступаем на скользкую дорожку. Но человек это миллиарды алгоритмов. И с кучей ограничений.

Например, мы не можем представить себе пространства большей размерности, чем 3. Визуализировать себе трехмерную тень четырехмерного объекта.


А вот построить алгоритм мы можем. И алгоритм вполне себе может оперировать такими вещами. И вот представить себе машину, которая умеет визуализировать себе такие объекты - легко.


Поэтому пост - куча воды с кучей спекуляций.

раскрыть ветку (1)
3
Автор поста оценил этот комментарий
Нигде в моем посте не сказано, что человек может решить любую задачу. Подчеркивается способность понимать решение (или его отсутствие). Не приписывайте мне ошибок, которых я не совершал )
показать ответы
7
Автор поста оценил этот комментарий

Куча слов, а воз и ныне там. РАссуждения подобно этому устарели уже до эпохи киберпанка

раскрыть ветку (1)
3
Автор поста оценил этот комментарий
Ух ты ) Где можно ознакомиться с актуальными рассуждениями, соответствующими наступившей эпохе киберпанка?
4
Автор поста оценил этот комментарий

Автор понял, что сделать программу (в современном смысле этого слова), которая может решить вообще любую задачу, нельзя. Из этого он делает необоснованный вывод, что ии сделать не получится

раскрыть ветку (1)
2
Автор поста оценил этот комментарий
Значит, Вы всё-таки не поняли, что именно я написал.
показать ответы
4
Автор поста оценил этот комментарий

КГ/АМ

раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Ф Бабруйск, жывотнайе

2
Автор поста оценил этот комментарий

Терминаторы не победят

Иллюстрация к комментарию
раскрыть ветку (1)
2
Автор поста оценил этот комментарий
Тут должно быть фото Арни со шторами )
5
Автор поста оценил этот комментарий
Человек существо алогичное. Логика начинается с совокупности двух и более людей, поэтому все попытки рассматривать человека в отрыве от общества (а в целом - от человечества) провальны и бесперспективны. "Человек" проявляется только и исключительно во взаимодействии, и изучать мозги отдельного индивида настолько же продуктивно, насколько продуктивно пахать землю ради процесса пахоты. Недостаточно заучить формулу 2х2=4, нужно ее осознать. Осознание происходит во взаимодействии с внешним миром. И совершенно неважно, что это будет, 4 яблока или две оплеухи с двух сторон )))
раскрыть ветку (1)
2
Автор поста оценил этот комментарий

не только человек нелогичен, Буриданов осел тому примером. О том, что необходимым условием возникновения логики является наличие двух людей - не соглашусь. Мне ближе платонизм, если угодно. Я склонен считать, что математика и логика существуют вне зависимости от нас и нашего знания о них.

показать ответы
Автор поста оценил этот комментарий

Трындец вы нудный, товарищ полковник. Трижды кофе делал, пока дочитал до конца. Подписался, буду перечитывать, спасибо.


А можно ваш мегамозг использовать для притокрытия вашего виденья развития нынешних тенденций. Хочется точку применения.

раскрыть ветку (1)
Автор поста оценил этот комментарий
Я разный в разных ипостасях ) В ветке про африканские приключения истории повеселее ) Эт я ещё байкерских контент не выкладываю. А так - взялись научпоп читать - сами виноваты )
показать ответы
Автор поста оценил этот комментарий

Прочитал в вики про p-адические числа - вообще не понял ничего. Можно попроще как-то рассказать? Примеры, использование и т.п.?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Попробую в следующем посте без сверхсложной математики
Автор поста оценил этот комментарий

Что есть:

Нейросети не алгоритмичны.
Сознание не алгоритмично, есть ключевое использование случайности.

Алгоритмичным процессом смоделировать сознание нельзя.


Чего нет:

Можно ли не алгоритмичной нейросетью с элементом случайности смоделировать сознание или доказательства, что это невозможно.

раскрыть ветку (1)
Автор поста оценил этот комментарий
Да с чего все взяли, что нейросети не алгоритмичеы?Попробуйте запрограммировать простой перцепртон и убедитесь, что алгоритмичнее некуда. Там два действия всего: умножение входного сигнала на весовой коэффициент и добавление смещения. Ну и функция активации. Больше нету ничегошеньки. Добавление случайности в эту схему (кстати, не настоящей случайности, а прюсевдослучайности, полученной с помощью генератора псевдослучайных чисел, которые тоже алгоритмически вычисляются), ничего существенно не меняет. Ну разве даёт некоторое разнообразие получаемых результатов. Но фундаментальных ограничений таким путем не обойти. Теория вероятностей - это тоже формальная теория, которая учит, как любому событию поставить в соответствие число от 0 до 1. Опять же - строго формально.
1
Автор поста оценил этот комментарий

Да могут.

Так что по терверу вы можете просто задохнуться в пустой комнате, т.к. весь воздух скучился в другом углу. Вероятность есть, но она весьма мала (но не равна нулю).

Живите с этим.

раскрыть ветку (1)
Автор поста оценил этот комментарий
Классическое определение вероятности: отношение числа благоприятствующих исходов к общему числу вариантов исходов. Так что да, шансы могут быть ничтожно малы, но они есть почти всегда )
Автор поста оценил этот комментарий
Тут абсолютно согласен, поменял условия местами, сейчас исправлю.
раскрыть ветку (1)
Автор поста оценил этот комментарий

Черт, Пикабу не дает вносить исправления. Посмотрим, что можно сделать

Автор поста оценил этот комментарий

> А Гёдель утверждает, что если ваша теория полна, то она неизбежно противоречива, то есть содержит утверждения, которые нельзя ни доказать, ни опровергнуть средствами самой этой теории (Sic!)


Здесь ошибка. Описана как раз неполнота, а противоречивость, как несложно догадаться - это когда из твоей теории можно построить два утверждения, противоречащих друг другу. Типа, пошел думать в одну сторону - доказал что 0 не равно 1, пошел другим путем и получил что 0 равно 1

раскрыть ветку (1)
Автор поста оценил этот комментарий
Тут абсолютно согласен, поменял условия местами, сейчас исправлю.
показать ответы
Автор поста оценил этот комментарий
Ну, так, просто ради справки, мат. статистику, мат.логику и распознавание образов я преподавал в вузе лет 10 в совокупности, будучи последовательно адъюнктом, преподом, старшим преподом, докторантом и профессором кафедры. А по методам машинного обучения даже написал пару учебных пособий. Но за совет спасибо )
Автор поста оценил этот комментарий

Я поняла. Но исходное состояние, изначально то бишь, уже вопрос другой области философии и не касается кибернетики. Кибернетика это совмещение органики и машины. Вопрос о сознании гораздо глубже и не относится к кибернетике почти

раскрыть ветку (1)
Автор поста оценил этот комментарий

Кибернетика - это всего лишь наука об управлении. Про органику там вообще ничего нет )

показать ответы
1
Автор поста оценил этот комментарий

А нам, строго говоря, и не нужен осознающий ИИ. Достаточно такого, который будет решать практические задачи с какой-то достаточной, но не обязательно абсолютной точностью. А здесь никаких ограничений нет, в ближайшие 20 лет будут сделаны ИИ, которые решают все полезные интеллектуальные задачи

раскрыть ветку (1)
Автор поста оценил этот комментарий
"Через 10 минут они будут на расстоянии, достаточном для любых практических целей" ) Да, с инженерной точки зрения так и есть )
6
Автор поста оценил этот комментарий

С чего он решил, что λ-исчисление - полная система?

Зачем вообще этот весь словесный обвес, если основная мысль, к которой он пытается вести, сформулирована в 1985 году Д.Дойчем (о котором он даже не упоминает).

Да и зачем чтобы кого-то в чем-то победить, нужно обязательно оперировать понятием бесконечности (материальность которой под вопросом). Тот же пример с шахматами уже давно несостоятелен.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Полная с тьюринговской точки зрения, естественно. Любой алгоритм может быть описан в терминах лямбда-исчисления. Обратное неверно, о чем я десяток раз в разных вариациях и написал.

показать ответы
2
Автор поста оценил этот комментарий
Если подытожить, главная проблема создания искусственного разума лежит не в технической части и алгоритмах.
Под разумом мы понимаем разум человека. И пока мы не разберемся, как он работает, сделать его искусственно не получится. Без полного понимания это один сплошной карго-культ.
Даже нейросети, это лишь сравнительно сложный алгоритм по решению конкретной задачи.
раскрыть ветку (1)
Автор поста оценил этот комментарий

Да, любой из самых сложных наших алгоритмов - это всего лишь большая "Китайская комната" Джона Серла. И как из нее выйти - мы пока не знаем.

Автор поста оценил этот комментарий

Вот как оказывается, я конечно могу сказать что а я возьму и сделаю такой алгоритм который будет работать нелогично, но наверное это все же будет опять алгоритм. Мне почему то казалось что этакая недетерменированость работы мозга это из-за того что у нас много вводных. Чтож, будем следить как-то все дальше будет развиваться.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Добавление нелинейности и рандомности в большинстве случаев - это хорошая идея при разработке ИИ, кстати. Но глобально опять же не спасает.

1
Автор поста оценил этот комментарий

А с какой стати отбросили важный пункт D?

Ведь феномен сознания действительно невозможно описать языком той же физики или математики.

Это явление интерсубъективное и не имеет физических и/или каких-либо иных параметров ассоциированных с барионной материей. Только косвенное отражение наличия в моменте прохождения условной точки декогеренции.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Спорно. Невозможным считался и полет аппарата тяжелее воздуха, и вычисление химического состава звезд...Если это не сделано к настоящему моменту, это совсем не говорит о невозможности. Но пункт D сразу уводит от научных методов познания, он мне не нравится )

4
Автор поста оценил этот комментарий

Алгоритмическая неразрешимость требует универсального единого решения. В том и суть, что нет единого решения. Решения для всех :)

А решение для частных случаев есть.


И оно находится именно перебором - там даже одна домохозяйка решила эту задачу, просто прикладывая вырезанные плитки в разных положениях и масштабах :D


Это и есть отличие сознания от машины. Машина будет работать до победного, до нахождения идеального решения. ИИ будет работать до тех пор, пока результат не станет его удовлетворять или работа будет считаться целесообразной :)


Ну т.е. алгоритмически неразрешимая задача нам говорит о том, что время её решения в текущей постановке с текущими данными стремится к бесконечности.

Однако ИИ не решает конкретно эту задачу. Он в процессе решения будет менять эту задачу, с целью найти решение, равно как и человек :D


В принципе это и отделяет машину от человека - человек может переформулировать задачу, изменить данные, пробовать решить другим способом, нежели тот, который предоставлен.


И да - замечу - большинство неразрешимых алгоритмически задач имеют неразрешимые противоречия с реальным миром. К примеру - участие там бесконечности. Формально все решения этой эпопеи с плитками не решают проблему замощения бесконечной плоскости. Так как нам никто не говорит, какая это именно плоскость, какие у неё параметры и так далее. Следовательно у нас, в отличие от реального мира, отсутствуют ограничения на площадь. И следовательно размер плиток тоже бесконечный. А бесконечность умноженная на бесконечность и даст ту самую нерешаемость - так как постановка задачи такая :) Как понять, что задача решена? Всего то симулировать замещение бесконечности :D

раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Вы продолжаете говорить о мифическом сильном ИИ, который будет (возможно) создан в будущем. Я же говорю о том, что такой ИИ не сможет появиться до тех пор, пока машины работают на известных нам принципах.

Что касается частных решений...Ну хорошо, вот вам задача: найти два целых числа, сумма квадратов которых равна квадрату третьего. Ее частное решение отлично находится перебором: например, 3, 4 и 5. Найдите частное решение для кубов (x^3 + y^3 = z^3) или докажите (перебрав все возможные варианты) что такого решения не существует. Можно использовать любой супер-вычислитель.

показать ответы
1
Автор поста оценил этот комментарий

Да, я несколько перепутал понятия, алгоритм и нейросеть, посчитав их в контексте статьи тождественными, т.к последняя это результат работы алгоритма. Посыл коментария был в противовес примерам про числа и шахматы, что у нас в голове будет не один, пусть уже алгоритм, зависающий на нетривиальной задаче, а их совокупность.

Поэтому как мне кажется примеры алгоритмов которые циклятся или по глупому решают задачи ничего не доказывают, т.к. тут важна совокупность.

Кстати если посмотреть вокруг - подобные случаи "сбоев" есть и среди людей.

Имхо разница человека и думаю пока несовершенного ИИ в том что у нас очень специфическое "железо" которое быстро обрабатывает тяжёлые для современных компьютеров задачи типа удержания равновесия или распознавания образов. У нас всегда есть куча входных данных которые всегда надо обрабатывать а как следствие, как я думаю очень важное - мы мыслим всегда. У нас собственная симуляция в голове, наши мысли не ждут пока нас спросят. Поэтому думаю далее будут делать нейросети которые эволюционируют постоянно сами внутри некой песочницы (умирать, возрождаться, мутировать алгоритмы обучения, бороться между собой за процессорное время, такая симуляция жизни на максималках, да ещё если в них "лить" данные извне), только чет страшно делается

раскрыть ветку (1)
Автор поста оценил этот комментарий
А, понимаете, не важно один или много. Совокупность алгоритмов можно всегда представить как один сложный. Миллион параллельно работающих машин Тьюринга - это все равно машина Тьюринга. Весь ужас теоремы Гёделя как раз в том, что ЛЮБАЯ, сколь угодно сложная формальная система, состоящая из любого количества частей тут же порождает внутри себя возможность неразрешимой в рамках этой системы задачи. И, как следствие, эта система не сможет обладать пониманием.
сбои в человеческом поведении, они же когнитивные искажения, это как раз, на мой взгляд, результаты бессознательных алгоритмических процессов в мозге. В той его части, которая как раз действует как автомат. Про когнитивные искажения тоже много всего интересного можно написать. Это наследие нашего рептильного мозга.
показать ответы
Автор поста оценил этот комментарий

Для конечной поверхности, алгоритм замещения всегда существует. Например, простой перебор. Так что нет, человеку не была дана «не имеющая алгоритмического решения задача».

раскрыть ветку (1)
Автор поста оценил этот комментарий
Плитка Пенроуза, состоящая из двух типов плиток - это именно решение для бесконечной поверхности.
показать ответы
9
Автор поста оценил этот комментарий

А почему человеческий мозг рассматривается как одна нейросеть? Или почему считается что мозг будут моделировать неким одним алгоритмом, который упершись в неразрешимую задачу будет зависать, так как не в состоянии посмотреть вокруг?
По собственным наблюдениям, наш мозг далеко не одна нейросеть, это больше некое нейросетевое сообщество, где каждая нейросеть пытается перехватить или подчиняясь неким правилам (за которые наверное отвечает еще одна нейросеть) принимают на себя управление принятием решений.
Понаблюдайте за своими размышлениями при новой задаче - сначала обдумываем, ломаем голову, перебираем варианты, примеряем лучший, может даже отказываемся или заново все перестраиваем. И когда условный план готов, тут мы уже по большей части особо и не оглядываясь, если не будет новых вводных, приступаем к действию. И если так посмотреть со стороны - на разных этих этапах даже нагрузка на мозг отличается. Когда план ясен, думать масштабно, комбинировать, практически не приходится, работается легко - это сюда, то сюда и так далее. Тут мне кажется это все и делится на "нейросети". Сначала одна по своим обобщенным алгоритмам одна составляет обобщенный план, потом вторая увидев знакомые ориентиры разбивает на более мелкие задачи и третья, масштабно более глупая, но хорошо разбирающаяся в мелких деталях это все реализует. Бывает же такое - упершись в решение задачи потратив кучу времени, на перекуре еще раз подумав видишь гораздо более простой и часто очевидный вариант, не потому ли что в момент непосредственного выполнения для экономии, одна из нейросетей была в низком приоритете, а на перекуре, когда мозг был незанят ресурсы освободились и она еще раз, видя новые вводные "подумала".
А для отстройки от всяких бесконечных циклов, излишней работы и т.п. можно запустить отдельную нейросеть типа арбитра - А нахрена мне это надо? Может проще нанять кого? Тут хрен в одного вывезешь...
Более того, в процессе взросления, становления, мы развиваем у себя разные специализированные нейросети или навыки. Размышляет ли хирург на рядовой операции, когда делает разрез, о том как держит скальпель? Или водитель оценивающий прореху в потоке достаточна - ли он для маневра, и просчитывает ли мысленно как и когда ему нажать на педаль? Опытный инженер, видя новую конструкцию часто может указать на слабые места. Вы скажете они действуют по аналогии, основываясь на предыдущих случаях и т.п. - ну да только наложить и сопоставить предыдущие похожие варианты, интерполировав, отсечь неважное, и наложив их на текущий, это простите тоже подумать надо

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Нигде в моем посте не написано, что мозг рассматривается как нейросеть. Даже совсем наоборот, неоднократно указывается, что нейросетеврй подход не может обеспечить решение тех задач, которые мозг человека может осилить без труда, потому что использует другие принципы
показать ответы
1
Автор поста оценил этот комментарий

Любой алгоритм может быть описан в терминах лямбда-исчисления. Обратное неверно

Лямбда исчисления - это способ записи алгоритмов.


Что Вы вообще имеете в виду, под "обратным"?

раскрыть ветку (1)
Автор поста оценил этот комментарий
Любая алгоритмически разрешимая задача может быть описана (и решена) некоторой формальной системой в рамках лямбда-исчисления. Но если у нас есть формальная система любой сложности - мы гарантированно не можем описать некоторые алгоритмы решения задач, потому что их просто не существует
показать ответы
4
Автор поста оценил этот комментарий

Скажу честно, я не очень внимательно читал ваш текст.

Но как я понял, вы пытаетесь доказать, что ИИ не может решать алгоритмически неразрешимые задачи, а человек (видимо с помощью магии) - может.


Это, конечно же, неправда.

В общем случае алгоритмически неразрешимые задачи не решаются. Поэтому они так и называются.


Оба ваших примера, являются примерами алгоритмически разрешимых задач.

Задача с квадратами натуральных чисел (зачем вам квадраты?) тривиально решается любой библиотекой символьных вычислений.


Шахматы успешно решаются AlphaChess.


Ваши рассуждения просто несостоятельны.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Человеку доступно понимание и осознание - вот главная мысль. Понимание не может быть достигнуто применением формальных систем любого уровня сложности. Ваши контрпримеры говорят только о том, что в новых системах сделали надстройки, которые позволили обойти неполноту в старых задачах. Но как только это произошло - в новых формальных системах вновь неизбежно возник класс неразрешимых проблем, которые невозможно ни доказать, ни опровергнуть. И система снова не может этого "понять". Вот о чем я пишу.
показать ответы
1
Автор поста оценил этот комментарий

Какой смысл делать искусственный разум на основе человеческого разума?

Человеческий разума основан на функционировании нервной системы, а в физиологии нервной системы играет большую роль химические процессы, получается для оцифровки этих процессов нужно в стройную математическую логику вводить неизвестные и случайные величины вплоть до генератора случайных чисел - нахуя?

Какой смысл от такого разума для которого 2 х 2 = от 2,5 до 5 потому что настроение плохое, голова болит, а ещё жрать хочется

раскрыть ветку (1)
Автор поста оценил этот комментарий
Смысл пытаться есть. Мы очень многое, начиная, собственно с искусственного нейрона и до сверхточных нейронных сетей сделали просто пытаясь воспроизвести биологические системы.
8
Автор поста оценил этот комментарий

ИИ не может глянув на шахматную позицию сказать: "Да ну на хрен, пойду в картинки генерировать". А человек может. И в этом наша сила

Иллюстрация к комментарию
раскрыть ветку (1)
Автор поста оценил этот комментарий

Очень образное описание того, как человек решает проблему останова, а ИИ - нет ).

19
Автор поста оценил этот комментарий

ссылки на авторитетных ученых ничего не значат, когда в тексте есть подмена задач. Задача решить произвольную проблему и задача вычислить мышление - это разные задачи. Соответственно, никакие аргументы про то, что машины не могут первое, никак не доказывают невозможность второго. Так то, люди тоже не могут решить некоторые задачи - та самая теорема Геделя утверждает, что невозможно составить систему аксиом, содержащую арифметику, такую что она была бы полна и непротиворечива. Люди этого тоже не могут. Вы же не будете утверждать, что у людей нет мышления?


ИИ не обязан обладать идеальным, полным и непротиворечивым мышлением. Достаточно мышления уровня человека, у которого ни одного из этих свойств нет. Как следствие, теорема Геделя никаких препятствий не ставит.


Ваш шахматный пример - вообще мимо. Конкретная реализации ИИ ничего не говорит об общих свойствах ИИ.

раскрыть ветку (1)
2
Автор поста оценил этот комментарий
Шахматный пример показывает, как человек понимает концепцию бесконечности без полного перебора и умеет подобные задачи, обходя проблему останова. Тут мог бы быть любой другой пример.
показать ответы
2
Автор поста оценил этот комментарий

И комментатор с Пикабу оказывается прав!

раскрыть ветку (1)
Автор поста оценил этот комментарий
Любые аргументы разбиваются об ответ "и чо?" )
показать ответы
6
Автор поста оценил этот комментарий

Фишка в том что человек тоже совершит эту ошибку пока его не научишь. Люди не рождаются зная правила шахмат и с логикой. Они учатся. Так же и любая нейро сеть. Это утверждение делает все приведённые примеры несущественными. Сюда отлично подойдёт мем из фильма "я робот")

раскрыть ветку (1)
Автор поста оценил этот комментарий
Вот тут пример с Пенроузом и вообще "озарениями". Да, есть два способа: либо знать готовое правило, либо найти решение итерационным способом. Но у людей как-то получается третьим способом, когда ни правило неизвестно, ни перебор не работает. Возможно, опять же, это все равно перебор, но не последовательный, а параллельный, на огромных скоростях. Так работают квантовые компьютеры, к созданию которых мы только подбираемся.
показать ответы
1
Автор поста оценил этот комментарий

Устаревшая информация, параметров уже даже не миллиарды

раскрыть ветку (1)
Автор поста оценил этот комментарий
У больших языковых моделей - миллиарды. У нейросети, которая классифицирует ирисы Фишера - пара десятков. Концептуально это ни на что не влияет. Все они наследуют одни и те же слабости.
показать ответы
12
Автор поста оценил этот комментарий

Мне показалось, что в посте смешались алгоритмы и нейросети

раскрыть ветку (1)
2
Автор поста оценил этот комментарий
Нейросети - это результат выполнения алгоритмов. Алгоритмов прямого прохода, обратного распространения ошибки, градиентного спуска, внутреннего внимания, и.т.д. вообще, нейросеть можно представить как сложную функцию. Только параметров у нее не один-два, а миллионы, вот и все.
показать ответы