Действительно ли ИИ думает

Серия Размышления про ИИ

Какой смысл спрашивать у языковой модели, алгоритм которой строится не на логике, а на наиболее встречающихся вариантах в данных, на которых она обучалась?

Так в комментариях к одному из постов @user6980687 выразил распространенное мнение о том, как работает ИИ.

Но действительно ли это так?

Рассмотрим GPT-3 в качестве примера: он был обучен на 570 терабайтах текста, в то время как вес модели составляет всего 175 гигабайтов. Это значит, что объем самой модели — менее 0,03% от всего объема обучающих данных.

Из этого следует, что нейросеть не может "запоминать" весь материал, на котором она обучалась. Вместо этого информация "сжимается" в виде паттернов и правил, закодированных в весах связей между нейронами.

Вполне возможно, что эти "заученные" правила есть нечто подобное логическим рассуждениям. Но проблема в том, что мы не можем это понять. Это как смотреть картину с близкого расстояния - мы все видим, но видим мешанину цветных пятен. Нет способа отойти на расстояние и увидеть нарисованное (интерпретировать мешанину цветных пятен.)

Та же сложность возникает и при попытке анализа работы человеческого мозга. Мы понимаем, как функционируют нейроны и можем наблюдать передачу информации между ними, но не можем объяснить, как это превращается в мысли.

Все это приводит меня к выводу, что ИИ имитирует процесс мышления и, возможно, в некоторых аспектах действительно логически рассуждает.

Искусственный интеллект

5.2K постов11.5K подписчика

Правила сообщества

ВНИМАНИЕ! В сообществе запрещена публикация генеративного контента без детального описания промтов и процесса получения публикуемого результата.


Разрешено:


- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

- Делиться статьями, понятными большинству аудитории Пикабу.

- Делиться опытом создания моделей машинного обучения.

- Рассказывать, как работает та или иная фиговина в анализе данных.

- Век жить, век учиться.


Запрещено:


I) Невостребованный контент

  I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

  I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.

  I.3) Добавлять посты, которые содержат лишь генеративный контент или нейросетевой Арт без какой-то дополнительной полезной или интересной информации по теме, без промтов или описания методик создания и т.д.


II) Нетематический контент

  II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

  II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".

  II.3) Создавать контент, входящий в противоречие с правилами Пикабу.


III) Непотребный контент

  III.1) Эротика, порнография (даже с NSFW).

  III.2) Жесть.


За нарушение I - предупреждение

За нарушение II - предупреждение и перемещение поста в общую ленту

За нарушение III - бан

Вы смотрите срез комментариев. Показать все
0
Автор поста оценил этот комментарий

нет, не думает и никогда не начнет думать.

ИИ всегда будет работать в рамках заданной программы, как бы нам это не впаривали маркетологи))

будут спекуляции, типа ИИ начал думать и принимать самостоятельные решения, но это все чушь собачья.

раскрыть ветку (16)
0
Автор поста оценил этот комментарий

нейросети - работают не более в рамках "заданной" программы, чем... нейросети. :> Что ваши, что ChatGPT.  Они - обучаются. Или - дрессируются... :>
Тем не менее существующие образцы искусственных нейросетей - не ИИ.

раскрыть ветку (6)
0
Автор поста оценил этот комментарий

не понял.

нейросети работают в рамках заданной программы, чем нейросети?


это как?


то что чаты или нейросети не являются интеллектом это итак понятно,  в данном случае интересует принцип их работы.


со слов самого чата GPT, при подготовке ответа на вопрос он использует общедоступные базы данных, попросту говоря все что есть в интернете.

получается такой генератор ответов, что-то типа более развитой поисковой системы.

гугл в данном случае будет примитивным поисковиком.

Иллюстрация к комментарию
раскрыть ветку (5)
0
Автор поста оценил этот комментарий

"это как?" - это - так. Как программист и кибернетик - я не знаю, с чем сравнить данный класс кибернетических структур - кроме как с собой. :> По тем аспектам.

"что ...  нейросети не являются интеллектом это итак понятно,"  - ну это вам "понятно"... :> У некоторых homo, определенно, не являются - тоже.
В любом случае - это не "и так", а лишь по выяснении.  И, коэш, касается лишь вот этих ChatGpt, а не "вообще в принципе".

"нет, не думает и никогда не начнет думать. ИИ всегда будет работать в рамках заданной программы"
- и, разумеется, это не так.  :). Принципиальных именно никаких ограничений тут просто нет, а ... ну, вообщем, то, что "работать в рамках заданной программы" - это не второе И.


"интересует принцип их работы."

https://habr.com/ru/companies/ods/articles/716918/

https://ru.wikipedia.org/wiki/Китайская_комната

раскрыть ветку (4)
Автор поста оценил этот комментарий
нейросети - работают не более в рамках "заданной" программы, чем... нейросети.

мне не понятна вот эта формулировка.

нейросети ....., чем нейросети.


два раза нейросети. а смысл то в чем?

нету ли здесь ошибки?

может вместо одного слова "нейросети" нужно вставить слово "ИИ", чтобы появился смысл?


некорректная формулировка получилась.


и, разумеется, это не так. :). Принципиальных именно никаких ограничений тут просто нет

ну в рамках заданной формулы, какая разница? общий смысл то не меняется.


вот цитаты из статьи с хабра про принцип работы.


"T9 или ChatGPT — это всего лишь хитрым образом подобранные уравнения, которые пытаются предсказать следующее слово"


"GPT расшифровывается как Generative Pre‑trained Transformer, или «трансформер, обученный на генерацию текста»."


"Трансформер — это универсальный вычислительный механизм, который очень просто описать: он принимает на вход один набор последовательностей (данных) и выдает на выходе тоже набор последовательностей, но уже другой — преобразованный по некоему алгоритму."


из всего этого следует что ограничения есть.


первое ограничение ограничение связанное с уравнением, с формулой, размер которой равен примерно 1,5 млрд параметров, а второе ограничение это ограничение связанное с базой данных, которая используется нейронкой.

раскрыть ветку (3)
0
Автор поста оценил этот комментарий

"с формулой, размер которой равен примерно 1,5 млрд параметров"

Вы не понимаете. :> Что такое "программа". "Алгоритм" знаете что такое? :>

И что такое нейросети.

Вы говорите что-то... по аналогии, типа - "ДНК невозможно - это был бы атом больше обычного в тысячи раз, а мозг человека/человек невозможен тем паче - это был бы атом больше обычного в миллиарды раз"... что-то забелибердяшное :)

Вот вам и тест Тьюринга, приходи, кума, любоваццо...

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

я исхожу из того, что пишут в статье на хабре, которую вы скинули.


анимация ниже как раз наглядно показывает, как с увеличением количества параметров модели в ней «прорастают» новые способности, которые никто туда специально не закладывал:

с одной стороны вроде как никто ничего не закладывал, но с другой - получается прямая зависимость от количества параметров, то есть чем больше параметров, тем больше функционал системы.

соответственно если ограничить число параметров, то и функционал будет также ограничен. разве нет?


и разве нельзя специально внести какие-то ограничения?

0
Автор поста оценил этот комментарий

"з всего этого следует что ограничения есть." - так они выстроили именно эту систему, ChatGPT. Это искусственный гипер-попугай.

Но это никакие не принципиальные ограничения нейросетей. Собсна, о принципах нейросетей как таковых - можете почитать на википедии и т.д.

0
Автор поста оценил этот комментарий

Нет там программы. Это гиганские волны простых вычислений (сложение и умножение). Это не программируется. Там просто подгоняют коэффициенты вычислений при обучении.

Понять что там происходит невозможно. Единственное что можно сделать - отключать часть сети и смотреть, как это влияет на результ. Но это тоже понимания особо не прибавляет.

И возникает вопрос, а как вы определите что оно "не думает". У вас есть какой-то способ определить, вот это думает, а вот это нет?

Традиционно определают через тест Тюринга - если люди не могут распознать в ходе чата, бот это или человек, значит бот думает.

раскрыть ветку (8)
0
Автор поста оценил этот комментарий

по поводу теста Тюринга, да, раньше ботов было очень легко вычислять.

но если говорить конкретно об ИИ, то мы изначально знаем, что это не человек, поэтому в данном случае нам нужен другой тест, для определения есть ли у машины свое независимое мышление или нет.


общаясь с ИИ на тему физического устройства мира, ИИ очень часто противоречит сам себе, нарушая законы логики.

то есть он в одном ответе может признать законы логики, а в другом берет и нарушает их, как бы автоматически не признавая их.


что это? лаг системы? или в программный код ИИ изначально вшита пропаганда лженауки? только пока еще он очень сильно палится, когда начинает втирать мне лженаучные бредни.


с другой стороны, если исходить из того, что сам ИИ отвечает о принципах работы, то есть в качестве базы для ответа на вопрос он использует открытые источники информации в интернете, а это означает, что он по умолчанию не может ничего признавать или не признавать, он тупо выдает то, что уже доступно, просто он делает это быстро. то есть это своего рода усовершенствованный поисковик и не более, который позиционируется как интеллект, но интеллектом не являющееся.


да и к тому же никто никогда не предоставит в свободный доступ реальный ИИ.

по крайне мере в ближайшие лет 50.

сейчас настоящий ИИ используется военными, а населению вбросили урезанную, ограниченную версию.

раскрыть ветку (2)
0
Автор поста оценил этот комментарий
в программный код ИИ изначально вшита пропаганда

Еще раз - нет никакого программного кода ИИ, нельзя ничего туда вшить, но можно при обучении "наказывать" за неправильные ответы, так что в конечном счете параметры подгоняются так, что он будет выдавать только правильные ответы.

И это проблема, потому что никакой гарантии нет того, что он всегда будет отвечать правильно. Запросто появляются "фантазии".

никто никогда не предоставит в свободный доступ реальный ИИ.
Нет никакой секретной технологии ИИ, все принципы известны (опубликованы). Военные слишко тупы и консервативны, до них ИИ дойдет в последнюю очередь (когда их всех заменят на ИИ). Какое им ИИ, они в беспилотники то "не верили" до последнего момента.


Любой школьник может написать натренировать ИИ. Проблема в том, что обучение ИИ типо ChatGPT требует огромных ресурсов для тренировки. В первую очередь нужно "железо", а оно дорогое. Nvideo щас лопатой деньги гребет. Вот посмотрите что творится:

Иллюстрация к комментарию
раскрыть ветку (1)
0
Автор поста оценил этот комментарий

я не имею в виду замену военных на ИИ, нет, все немного иначе.

ИИ на службе у военных, что позволяет оперативно разрабатывать самые оптимальные стратегические решения с минимальными потерями для себя, как для стороны того или иного конфликта.


Любой школьник может написать натренировать ИИ.

то есть, если мы скинемся всем районом, купим складское помещение, загрузим его первоклассным "железом", напишем ИИ, загрузим в него базу знаний, то  у нас будет полноценный ИИ?


то есть если это дорого для одного человека, то значит нужно просто скинуться в общий котел, назвав это акционерным обществом и кооперативом.

собрать деньги можно на базе коммунальных платежей.

0
Автор поста оценил этот комментарий

так, давайте по порядку.

Там просто подгоняют коэффициенты вычислений при обучении.

там это где?

и при обучении чего?

если речь об ИИ, то давайте тогда определим что считать ИИ.


я некоторое время назад несколько дней подряд "мучал" ИИ разными вопросами, пытался ставить ему задачи.

на некоторые вопросы он отвечал, но от большинства вопросов он попросту уходил в сторону.


когда я называю ИИ программой, я исхожу из того, что мне отвечал сам ИИ о принципах своей работы.

раскрыть ветку (4)
1
Автор поста оценил этот комментарий

там это где?

ИИ - это "бренд нейм", который объединяет программы основанные на искусственной нейронной сети (и это тоже некий "бренд нейм"). Структуры сети могут отличатся, но принцип одинаков - подгонка весов связей нейронов, так чтобы был минимум ошибок в ответах. Эта подгонка параметров и называется "обучение". Это не программирование.

Туда входят, языковые модели. Самая продвинутая сейчас chatGPT. Ее обучили несколькими методами. Один из них - предсказание пропущенных слов в тексте. Т.е. подгоняли параметры сети так, чтобы она делала минимум ошибок при заполнении пропущенных слов. Также использовали и другой метод - сделали "ИИ учителя", который натренирован распознавать, где реальный текст, а где сгенерированный. В chatGPT подгоняли параметры так, чтобы обмануть "учителя" (ну а у учителя подгоняли, чтобы он наоборот, лучше распознавал). И был еще этап, где вместо "ИИ учителя" быле реальные люди.

Как видите ИИ не программируют.


По моему опыту "ChatGPT 4" намного превосходит все что сейчас есть. Он не уходит от вопросов, но по умолчанию отвечает весьма "усредненно". Тут нужно уметь спрашивать.

раскрыть ветку (3)
0
Автор поста оценил этот комментарий

вот тут я уже не вспомню с какой версией GPT я общался, но там реально была дичь несусветная.

с подгонкой слов там точно была проблема, так как в одном из ответов GPT, вместо слова "собрание", написал "срание" - и получилось такое словосочетание как "общее срание", а по смыслу получилось, что люди собрались вместе чтобы посрать, а не решить какие-т важные стратегические вопросы))

раскрыть ветку (2)
0
Автор поста оценил этот комментарий

А я вот тут с одним человком переписывался ...

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

вот нашел, я все-таки сделал скрины))

это GPT-OPEN


но у меня не все скрины сохранились.

похоже что самую дичь я не сфоткал

Иллюстрация к комментарию
Иллюстрация к комментарию
Иллюстрация к комментарию
Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества