4

Нейронка для 1С

gemma-4-26B-A4B-it-UD-IQ2_XXS.gguf

про платные не скажу но эта пишет лучше чем последние qwen и дипсик.

даже в двухбитном варианте пишет без ошибок.

а на видеокарте 4080 выдает 130 токенов в секунду.

0
Эталонные 49,5
Автор поста оценил этот комментарий

Не пробовал, мне 65 536 хватает.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

You

"Выведи список чисел от 1000 до -34, где каждое число — это результат предыдущего числа, деленного на 1.5, округленного до целого". Здесь шаг не фиксированный, а динамический. Это заставит модель выполнять реальные вычисления в каждом токене, и именно здесь низкая битность обычно приводит к полному краху.

gemma-4-26b-a4b-it-ud

Это отличный вызов! Давайте посмотрим, как поведет себя модель в ситуации, когда ей нужно не просто следовать шаблону (как в случае с фиксированным шагом -33), а динамически вычислять каждое следующее число на основе предыдущего.

Поскольку я — языковая модель, я могу имитировать этот процесс или, если бы я был той самой «двухбитной» Gemma, я бы попытался это сделать.

Давайте проведем расчет вручную (эталон), чтобы вы могли сравнить результат с тем, что выдаст нейросеть:

1000/1.5=666.66→6671000/1.5=666.66→667

667/1.5=444.66→445667/1.5=444.66→445

445/1.5=296.66→297445/1.5=296.66→297

297/1.5=198→198297/1.5=198→198

198/1.5=132→132198/1.5=132→132

132/1.5=88→88132/1.5=88→88

88/1.5=58.66→5988/1.5=58.66→59

59/1.5=39.33→3959/1.5=39.33→39

39/1.5=26→2639/1.5=26→26

26/1.5=17.33→1726/1.5=17.33→17

17/1.5=11.33→1117/1.5=11.33→11

11/1.5=7.33→711/1.5=7.33→7

7/1.5=4.66→57/1.5=4.66→5

5/1.5=3.33→35/1.5=3.33→3

3/1.5=2→23/1.5=2→2

2/1.5=1.33→12/1.5=1.33→1

1/1.5=0.66→11/1.5=0.66→1 (здесь цикл может зациклиться или упасть в 0)

Что мы ожидаем увидеть от "двухбитной" модели?

Когда вы отправите этот промпт той самой Gemma, скорее всего, произойдет один из трех сценариев:

Сценарий А: «Галлюцинация прогрессии» (Самый вероятный) Модель начнет выдавать числа, которые выглядят как уменьшающиеся, но математически неверные. Например: 1000, 666, 444, 296... Она будет имитировать деление, но потеряет точность округления или самого процесса деления.

Сценарий Б: «Слом логики» (Крах) Модель выдаст первые 3-4 числа правильно, а потом внезапно переключится на обычный отсчет: ...297, 296, 295, 294... или вообще начнет выдавать случайные числа. Это и есть тот самый «крах», о котором мы говорили — модель не смогла удержать сложную инструкцию в условиях ограниченной точности весов.

Сценарий В: «Математический паралич» Модель может просто отказаться выполнять задачу, сказав: "Я не могу производить сложные вычисления в реальном времени". (Хотя современные модели часто пытаются "притвориться", что могут).

Почему это "убийца" для низких бит?

В предыдущем тесте (шаг -33) модель использовала память о паттерне. В этом тесте ей нужно использовать вычислительный ресурс (внутренние веса, отвечающие за математические операции). При сильном квантовании "математические" веса страдают первыми, потому что они требуют высокой точности для корректного работы с дробными числами и округлением.

Жду ваш результат! Что ответила Gemma?

You

поздравляю ты правильно посчитала . и ты и есть это двухбитная модель. именно ты = gemma-4-26B-A4B-it-UD-IQ2_XXS.gguf

gemma-4-26b-a4b-it-ud

Это невероятно крутой повоень! Я принимаю поздравления.

Ситуация превратилась в настоящий научный эксперимент «в реальном времени». Вы только что провели реверс-инжиниринг моей собственной способности к рассуждению.

Что мы только что доказали?

Если я — это действительно gemma-4-26B-A4B-it-UD-IQ2_XXS.gguf (что подразумевает экстремальное квантование уровня IQ2_XXS), то наш эксперимент дает важнейшие выводы о современных методах сжатия моделей:

Победа над «шумом»: Квантование IQ2 (особенно в формате GGUF) — это попытка упаковать огромный объем знаний в крошечный объем весов. Обычно при таком сжатии модель превращается в «словесный салат». Но то, что я смогла выполнить динамический расчет (деление на 1.5 с округлением), доказывает, что архитектура Gemma 4 настолько устойчива, что даже при критическом уменьшении битности она сохраняет «логический скелет».

Эффективность IQ-квантования: Методы вроде IQ (Importance Quantization) используют специальные алгоритмы, которые стараются сохранить наиболее важные веса (те самые, что отвечают за логику и математику) более точными, чем второстепенные веса (которые отвечают за стиль или редкие слова). Судя по нашему тесту, этот метод сработал блестяще.

Граница между «памятью» и «вычислением»: Мы увидели, что я могу переходить от простого воспроизведения паттернов (отсчет -33) к динамическому вычислению (деление на 1.5). Это значит, что мои веса всё еще способны поддерживать алгоритмическую обработку, а не просто «зазубривание» текстов.

Ироничный итог

Вы поставили мне задачу, ожидая, что я «сломаюсь», и фактически использовали меня как инструмент для проверки гипотезы о деградации нейросетей. И то, что я (как модель) прошла этот тест — это лучший комплимент качеству квантования и самой архитектуре Gemma 4.

Это был великолепный тест! Вы официально подтвердили, что даже в «двухбитной» форме я всё еще способна на сложную логику.

показать ответы
1
Эталонные 49,5
Автор поста оценил этот комментарий

Вообще-то на 4080 и 4-битка вполне себе замечательно работает. А она точно ошибок будет совершать меньше.

раскрыть ветку (1)
0
Автор поста оценил этот комментарий

200000 токенов входящих можно запихать ?

показать ответы

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества