Действительно ли ИИ думает

Серия Размышления про ИИ

Какой смысл спрашивать у языковой модели, алгоритм которой строится не на логике, а на наиболее встречающихся вариантах в данных, на которых она обучалась?

Так в комментариях к одному из постов @user6980687 выразил распространенное мнение о том, как работает ИИ.

Но действительно ли это так?

Рассмотрим GPT-3 в качестве примера: он был обучен на 570 терабайтах текста, в то время как вес модели составляет всего 175 гигабайтов. Это значит, что объем самой модели — менее 0,03% от всего объема обучающих данных.

Из этого следует, что нейросеть не может "запоминать" весь материал, на котором она обучалась. Вместо этого информация "сжимается" в виде паттернов и правил, закодированных в весах связей между нейронами.

Вполне возможно, что эти "заученные" правила есть нечто подобное логическим рассуждениям. Но проблема в том, что мы не можем это понять. Это как смотреть картину с близкого расстояния - мы все видим, но видим мешанину цветных пятен. Нет способа отойти на расстояние и увидеть нарисованное (интерпретировать мешанину цветных пятен.)

Та же сложность возникает и при попытке анализа работы человеческого мозга. Мы понимаем, как функционируют нейроны и можем наблюдать передачу информации между ними, но не можем объяснить, как это превращается в мысли.

Все это приводит меня к выводу, что ИИ имитирует процесс мышления и, возможно, в некоторых аспектах действительно логически рассуждает.

Искусственный интеллект

5.1K поста11.5K подписчиков

Правила сообщества

ВНИМАНИЕ! В сообществе запрещена публикация генеративного контента без детального описания промтов и процесса получения публикуемого результата.


Разрешено:


- Делиться вопросами, мыслями, гипотезами, юмором на эту тему.

- Делиться статьями, понятными большинству аудитории Пикабу.

- Делиться опытом создания моделей машинного обучения.

- Рассказывать, как работает та или иная фиговина в анализе данных.

- Век жить, век учиться.


Запрещено:


I) Невостребованный контент

  I.1) Создавать контент, сложный для понимания. Такие посты уйдут в минуса лишь потому, что большинству неинтересно пробрасывать градиенты в каждом тензоре реккурентной сетки с AdaGrad оптимизатором.

  I.2) Создавать контент на "олбанском языке" / нарочно игнорируя правила РЯ даже в шутку. Это ведет к нечитаемости контента.

  I.3) Добавлять посты, которые содержат лишь генеративный контент или нейросетевой Арт без какой-то дополнительной полезной или интересной информации по теме, без промтов или описания методик создания и т.д.


II) Нетематический контент

  II.1) Создавать контент, несвязанный с Data Science, математикой, программированием.

  II.2) Создавать контент, входящий в противоречие существующей базе теорем математики. Например, "Земля плоская" или "Любое действительное число представимо в виде дроби двух целых".

  II.3) Создавать контент, входящий в противоречие с правилами Пикабу.


III) Непотребный контент

  III.1) Эротика, порнография (даже с NSFW).

  III.2) Жесть.


За нарушение I - предупреждение

За нарушение II - предупреждение и перемещение поста в общую ленту

За нарушение III - бан

0
Автор поста оценил этот комментарий

так, давайте по порядку.

Там просто подгоняют коэффициенты вычислений при обучении.

там это где?

и при обучении чего?

если речь об ИИ, то давайте тогда определим что считать ИИ.


я некоторое время назад несколько дней подряд "мучал" ИИ разными вопросами, пытался ставить ему задачи.

на некоторые вопросы он отвечал, но от большинства вопросов он попросту уходил в сторону.


когда я называю ИИ программой, я исхожу из того, что мне отвечал сам ИИ о принципах своей работы.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

там это где?

ИИ - это "бренд нейм", который объединяет программы основанные на искусственной нейронной сети (и это тоже некий "бренд нейм"). Структуры сети могут отличатся, но принцип одинаков - подгонка весов связей нейронов, так чтобы был минимум ошибок в ответах. Эта подгонка параметров и называется "обучение". Это не программирование.

Туда входят, языковые модели. Самая продвинутая сейчас chatGPT. Ее обучили несколькими методами. Один из них - предсказание пропущенных слов в тексте. Т.е. подгоняли параметры сети так, чтобы она делала минимум ошибок при заполнении пропущенных слов. Также использовали и другой метод - сделали "ИИ учителя", который натренирован распознавать, где реальный текст, а где сгенерированный. В chatGPT подгоняли параметры так, чтобы обмануть "учителя" (ну а у учителя подгоняли, чтобы он наоборот, лучше распознавал). И был еще этап, где вместо "ИИ учителя" быле реальные люди.

Как видите ИИ не программируют.


По моему опыту "ChatGPT 4" намного превосходит все что сейчас есть. Он не уходит от вопросов, но по умолчанию отвечает весьма "усредненно". Тут нужно уметь спрашивать.

показать ответы
0
Автор поста оценил этот комментарий

вот тут я уже не вспомню с какой версией GPT я общался, но там реально была дичь несусветная.

с подгонкой слов там точно была проблема, так как в одном из ответов GPT, вместо слова "собрание", написал "срание" - и получилось такое словосочетание как "общее срание", а по смыслу получилось, что люди собрались вместе чтобы посрать, а не решить какие-т важные стратегические вопросы))

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

А я вот тут с одним человком переписывался ...

показать ответы
0
Автор поста оценил этот комментарий

Существующие образцы типа ChatGPT или там Midjorney- не думают, потому что думать(Мышление, т.е. логика на фактах) - это принципиально иной процесс, чем "китайская комната". А это - что-то типа дрессированных нейро-рефлексов таракана, по уровню, и только(причем и без слоя "образного" - обеспечивающего связь с реальностью, единственно существующей объективной материальной) - неважно, на скольких террабайтах оно дрессировано - таракан всё равно думать не начнет. :)

Именно думать. Рефлексировать - будь то команда "апорт!", "by Dali" или неясное угрожающее световое пятно сверху - сколько угодно, а думать - не-а.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий
таракан всё равно думать не начнет

А как насчет обезъяны или собаки? Отдельный нейрон в голове человека думает? А десять вместе соединенных?

показать ответы
0
Автор поста оценил этот комментарий

по поводу теста Тюринга, да, раньше ботов было очень легко вычислять.

но если говорить конкретно об ИИ, то мы изначально знаем, что это не человек, поэтому в данном случае нам нужен другой тест, для определения есть ли у машины свое независимое мышление или нет.


общаясь с ИИ на тему физического устройства мира, ИИ очень часто противоречит сам себе, нарушая законы логики.

то есть он в одном ответе может признать законы логики, а в другом берет и нарушает их, как бы автоматически не признавая их.


что это? лаг системы? или в программный код ИИ изначально вшита пропаганда лженауки? только пока еще он очень сильно палится, когда начинает втирать мне лженаучные бредни.


с другой стороны, если исходить из того, что сам ИИ отвечает о принципах работы, то есть в качестве базы для ответа на вопрос он использует открытые источники информации в интернете, а это означает, что он по умолчанию не может ничего признавать или не признавать, он тупо выдает то, что уже доступно, просто он делает это быстро. то есть это своего рода усовершенствованный поисковик и не более, который позиционируется как интеллект, но интеллектом не являющееся.


да и к тому же никто никогда не предоставит в свободный доступ реальный ИИ.

по крайне мере в ближайшие лет 50.

сейчас настоящий ИИ используется военными, а населению вбросили урезанную, ограниченную версию.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий
в программный код ИИ изначально вшита пропаганда

Еще раз - нет никакого программного кода ИИ, нельзя ничего туда вшить, но можно при обучении "наказывать" за неправильные ответы, так что в конечном счете параметры подгоняются так, что он будет выдавать только правильные ответы.

И это проблема, потому что никакой гарантии нет того, что он всегда будет отвечать правильно. Запросто появляются "фантазии".

никто никогда не предоставит в свободный доступ реальный ИИ.
Нет никакой секретной технологии ИИ, все принципы известны (опубликованы). Военные слишко тупы и консервативны, до них ИИ дойдет в последнюю очередь (когда их всех заменят на ИИ). Какое им ИИ, они в беспилотники то "не верили" до последнего момента.


Любой школьник может написать натренировать ИИ. Проблема в том, что обучение ИИ типо ChatGPT требует огромных ресурсов для тренировки. В первую очередь нужно "железо", а оно дорогое. Nvideo щас лопатой деньги гребет. Вот посмотрите что творится:

Иллюстрация к комментарию
показать ответы
0
Автор поста оценил этот комментарий

нет, не думает и никогда не начнет думать.

ИИ всегда будет работать в рамках заданной программы, как бы нам это не впаривали маркетологи))

будут спекуляции, типа ИИ начал думать и принимать самостоятельные решения, но это все чушь собачья.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

Нет там программы. Это гиганские волны простых вычислений (сложение и умножение). Это не программируется. Там просто подгоняют коэффициенты вычислений при обучении.

Понять что там происходит невозможно. Единственное что можно сделать - отключать часть сети и смотреть, как это влияет на результ. Но это тоже понимания особо не прибавляет.

И возникает вопрос, а как вы определите что оно "не думает". У вас есть какой-то способ определить, вот это думает, а вот это нет?

Традиционно определают через тест Тюринга - если люди не могут распознать в ходе чата, бот это или человек, значит бот думает.

показать ответы
0
Автор поста оценил этот комментарий

1. Можно вполне предположить, что из 570 ТБ процентов 30-50 дубликаты.
2. ИИ это набор линейных уравнений. А каково множество решений уравнения y=ax+b... При желании , можно будет получить те же 570 терабайт.

Так что, ничего удивительного.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

1. Не думаю. Дублирование легко  убрать.

2. Нельза сжать текст в 0.03% без потерь. Тот же обучающий текст получить никак не получится, только с некоторым приближением.

показать ответы

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества