pixtergood

pixtergood

На Пикабу
176 рейтинг 7 подписчиков 0 подписок 42 поста 1 в горячем
56

Мы ввели полностью бесплатный ChatGPT41

А еще у нас есть:
Google Gemini pro
Gpt 3.5
Gpt 4 - vision
Google Gemini pro vision
Dalle3
Pixart-alpha
И да, оно все бесплатны)

Я давно уже сижу на пикабу(не смотрите на аккаунт) я просто забыл данные от старого аккаунта😅 и хочу немного поделиться моей гордостью :)

Давайте проясним сразу: моя задача не заработать денег(мне хватает их с работы)
А скорее ии эксперимент и разработка чего-то.
Я уже получаю плюсы с бота так как мне стали кидать предложения о работе. Это приятно 😀

Итак, немного про процесс:
Технологии:
Python
sql alchemy
aiohttp
Alembic
Celery
Pyrogram
Uvloop
Undetected chrome driver


Все связано с гпт работает с помощью бинга, через кучу проксей ибо бинг любит блокировать по IP :(

Gemini работает напрямую по апи ключу
Pixart-alpha с помощью ГПУ сервера(своего же)


Все боты полностью безлимитны и бесплатны.

Мы добились подсветки синтаксиса:

Нормального вывода математических задач:


И кучи других мелких улучшений.

А тут наш бот по ChatGPT4:

В планах дальше:

Добавил апскейл картинок, добавил Leonardo AI. Различные ИИ замены голоса и тп :)

Проект некоммерческий, вступайте если интересно :)

P.s если вы попользовались и вам понравилось, поставьте плюсик пожалуйста ^^

https://t.me/lama_channel_gpt

Показать полностью 3
4

Тесты GPT-4.5, стоимость модели и пара других новостей ИИ

На днях GPT-4.5 стал доступен PRO подписчикам платформы OpenAI и вот какие результаты эта модель показывает в тестах от livebench.ai

GPT-4.5 находится в середине списка

GPT-4.5 находится в середине списка

В отличии от другого популярного бенчмарка в котором новые модели появляются моментально этот бенчмарк старается быть честным и с этим справляется.

GPT-4.5 очень хорошо себя показал и смог пролезть между "думающими" моделями при том, что является развитием GPT-4o в архитектуре которого нет фичи с названием CoT (от англ. Chain of Thought), что делает GPT-4.5 не думающей.

Сильной стороной GPT-4.5 является языковые тесты, что подверждается данными из карточки модели, которую OpenAI выпустили в пятницу, уже был пост про то, что там.

А теперь взглянем на офф. цену

В livebench GPT-4.5 набрал в среднем 68.95 баллов, последняя версия GPT-4o latest набрал 57.79.

То есть прирост в процентах по среднему баллу - 19,3% за повышение цены за 1 миллион вводных токенов в 30 раз, за кешированный ввод также в 30 раз и за 1 миллион выходных токенов в 15 раз.

Да уж. Судя по всему с текущей архитектурой за ощутимое уменьшение галлюцинаций и улучшенные ответы приходится нелинейно много платить.

Alibaba Wan 2.1 видеогенератор

Данная open-source (открытый исходный код) модель может генерировать такие видео

Но на самом деле код и весы ИИ модели откроют во второй половине 2025 года.
Зачем авторы данной модели вообще открывают свой код и весы ? Неизвестно. Может быть используют наработки из open-source мира и обязаны сами открыть код из-за лицензии или есть какие-то корпоративные интересы, Alibaba - это не маленькая компания.

Qwen

Alibaba в том числе спонсирует разработку моделей Qwen (также могут называться QwQ).

Они менее известны, чем скажем ИИ модели от OpenAI или от Google, но ИИ энтузиасты могут знать про какие-нибудь QwQ или Qwen модели, которые часто являются модификациями семейства open-source моделей LLaMa от компании Meta.
Самой продивнутой моделью Qwen/QwQ является новая Qwen 2.5 Max с архитектурой похожей на DeepSeek V3.

В livebench по общим баллам Qwen 2.5 Max как раз на уровне DeepSeek V3, то есть недалеко от Gemini Exp 1216, и лучше чем последняя версия ChatGPT-4o latest.

Команда Qwen готовят к релизу QwQ Max, которая будет доступна в Qwen Chat.

На этом у меня всё.
Если вам хочется попробовать самые последние модели от тир-1 сцены ИИ, можете попробовать нашего телеграм Lama AI бота. (он в описании канала)

Без токенов.
Полный функционал за любой тир подписки. Есть DeepSeek R1, o1, o3, Claude Sonnet 3.5
Понятный интерфейс, в отличии от большинства телеграм ботов.
Все модели видны даже бесплатным пользователям.
Скоро доделаем сайт.

И всем хорошего дня.

Показать полностью 4 1
2

Релиз GPT4.5 превью. Подробности новой модели от OpenAI

С релизом превью версии GPT-4.5, OpenAI создали карточку для модели, которую можно найти на сайте - hugging face.

В карточке очень много места уделено безопасности модели, это я пропущу.

Модель является развитием GPT-4o, а значит является не "думающей", зато лучше отвечает на вопросы общего характера, лучше фантазирует.
Уровень цензуры на уровне GPT-4o

OpenAI утверждают, что GPT-4.5 ощущается более живой благодаря большей базе знаний, лучшему пониманию вопросов (намерений) пользователя и меньшим количеством ошибок по сравнению с GPT-4o.

Таблица с оценкой галлюцинаций от OpenAI

Таблица с оценкой галлюцинаций от OpenAI

В тесте PersonQA от OpenAI, GPT-4.5 по точности ответов превосходит даже o1 и при этом меньше галлюцинирует.

В кодерских задачах GPT-4.5 превосходит GPT-4o, но это далеко не уровень o1

Бенчмарк SWE

Бенчмарк SWE


Набор тестов MMLU на разных языках (в таблице русского нет, но GPT модели всегда его понимали)

Как видим стало лучше по сравнению с GPT-4o, но не лучше, чем o1.

В заключение можно с уверенностью сказать, что GPT-4.5 - это улучшенная версия GPT-4o без фундаментального изменения архитектуры.

Скоро добавим GPT-4.5 и Claude Sonnet 3.7 в наш телеграм бот Lama AI .
Бот без токенов, полный функционал за любой тир подписки.
Все модели видны любым пользователям.

Показать полностью 3
1

Claude Sonnet 3.7 - новый чемпион среди ИИ моделей или лучший среди равных ?

Anthropic анонсировали запуск обновления своей ИИ (LLM) для общих задач - Claude Sonnet 3.7

🟠 улучшили навыки программирования, понимание контекста и общее качество ответов

🟠 теперь Claude умеет рассуждать. Главное преимущество по сравнению с o1 — вместе с расширенными размышлениями работают все остальные функции, включая управление компьютером и обработка PDF

🟠 Claude 3.7 Sonnet уже доступен на официальном сайте, Extended Thinking — только по подписке

Вообще Sonnet хорошо известен кодерам, т.к. несмотря на то, что до этого обновления "думать" Claude Sonnet не мог, однако в реальных кодерских задачах, найти ошибку, что-то подсказать, написать пару функций, он справлялся ооочень хорошо и считался лучшим или был в топ 3 для кодинга.

<!--noindex--><a href="https://pikabu.ru/story/claude_sonnet_37__novyiy_chempion_sredi_ii_modeley_ili_luchshiy_sredi_ravnyikh__12422939?u=http%3A%2F%2FLivebench.ai&t=Livebench.ai&h=1588dcfbd7a8076fd96febd0a42bdf0e7f36ae85" title="http://Livebench.ai" target="_blank" rel="nofollow noopener">Livebench.ai</a><!--/noindex--> Теперь думающая модель на первом месте, обычная в первой семёрке

Livebench.ai Теперь думающая модель на первом месте, обычная в первой семёрке

Теперь он стал ещё лучше и обзавёлся CoT (от английского Chain of Thought) - цепочкой мыслей, где ИИ модель может уменьшать количество ошибок с помощью дополнительных этапов генерации ответа.

Когда OpenAI впервые показали "думающие" o1 модели, которые резко повысили шанс решить сложную математическую задачу или подсказать как улучшить код они казались недостижимы.
Но теперь CoT архитектура среди лучших ИИ моделей кажется обыденностью.

Надеемся на скорое добавление в нашего телеграм бота - Lama AI. Также уже почти доделан сайт.
Можете заглянуть если желаете. У нас доступны лучшие модели в одном месте и без токенов.

Показать полностью 2
4

Видеокарта не сбрасывает частоты памяти, способ решения

Я уверен, что многие владельцы мониторов с высокой герцовкой сталкивались с проблемой когда на максимальной чтастоте монитора, например 144 герц или 240 герц, видеокарта всегда держит частоту памяти на 100%.

Проверить частоты легко с помощью легковесной программы GPU-Z от TechPowerUp (у них есть сайт с одноимённым названием где можно скачать программу)

Нормальная картина когда видеокарта сбрасывает частоты памяти без нагрузки.

Нормальная картина когда видеокарта сбрасывает частоты памяти без нагрузки.

Чем грозит данная проблема ? Постоянным повышенным энергопотреблением и нагревом.
Например память на rx 6600 на макс. частоте потребляет 20 ватт, что не так уж и много.
Но это мешает, т.к. вентиляторы перидически запускаются чтобы сбросить температуру.

А вот какая-нибудь видеокарта вроде rx6800xt уже будет потреблять 45 ватт, т.к. шина 256 бит и частота памяти повыше.

Соответственно, если при небольшой нагрузке или на рабочем столе видеокарта не сбрасывает частоты памяти - нужно попробовать для начала выбрать пункт с меньшей частотой

Windows 10 . Параметры экрана --&gt; дополнительный параметры дисплея

Windows 10 . Параметры экрана --> дополнительный параметры дисплея

В моём случае (монитор BenQ xl 2411p ) при выборе 144 герц (подключение по display port) видеокарта никогда не сбрасывала частоты памяти, но если выбрать (в доп. параметрах дисплея) 120 герц, то проблема исчезала и видеокарта успешно сбрасывала частоту памяти.

При дальнейшем исследовании вопроса выяснилось, что такой параметр дисплея как G.Pixel Clock нужен драйверу дял определения когда можно сбрасывать частоты

На картинке выше вы видите скрин из меню задания кастомного разрешения в драйвере amd Adrenaline.
В моём случае частота при которой видеокарта не сбрасывала частоты на 144hz была 325 мегагерц (на картинке новая частота, менять её в драйвере не рекомендую).

Как оказалось 325 мгц. слишком мало, я выставил 346 мгц. в программе CRU (Custom Resolution Utility by ToastiX) и всё стало в порядке.

Перед выставлением Pixel Clock на большее значение нужно убедиться, что ваш монитор поддерживает частоты выше (эти частоты также могут зависеть от кабеля подключения видеокарты к монитору).

Что для этого нужно сделать ?

Сначала вам нужно скачать прогу CRU. Распокавав архив в папку запустите CRU.exe

CRU. Первое что вы увидите при запуске

CRU. Первое что вы увидите при запуске

Далее я рекомендую посмотреть максимальную поддерживаемую частоту пикселя (Pixel Clock) вашим монитором

Для этого нажмите Edit выбрав ваш монитор.

Далее посмотрите на параметр Max pixel clock.
Запомните это значение на всякий случай.

Закройте это окно и выберите пункт в Extension blocks и нажмите Edit


Ниже вы видите список стандартных разрешений, которые использует Windows 10, когда вы выбираете их в "Дополнительные параметры дисплея" (на 2 картинке поста).
Далее выберите нужный вам для настройки, в моём случае это 144 гц. и нажмите Edit

И далее откройте выпадающее меню Timing (картинка ниже).

Я напоминаю, что у меня базовое значение Pixel clock для 144 гц было 325 мгц. (или 325 000 килогерц, что тоже самое).
Задачей было сделать это значение больше, я узнал из программы CRU, что максимальное значение Pixel Clock для моего монитора - это 350 мгц., значит что нужное значение лежит между 325 и 350 мгц.

Базовое значение - Manual.

Далее я рекомендую выбрать вместо Manual, Automatic PC или CVT -RB standart.
Automatic PC выбрал мне значение для Pixel Clock для 144 гц. - 346 мгц.
После этого мне потребовалось применить настройки и перезагрузить компьютер.
После чего всё работало как надо и видеокарта успешно сбрасывала частоты памяти при выборе 144 гц. для монитора.

На этом всё.

Если есть желание можете заценить нашего телеграм бота с нейросетями - Lama AI
Без токенов и кредитов, за любой тир подписки полный функционал.

Есть o3, o1, DeepSeek R1 . Суммаризатор ютуб видео - Nova ...
Даже без платной подписки вы можете посмотреть все доступные модели.

Показать полностью 10

Квадратный трёхчлен или русский знакомится с английским языком

Членами в алгебре являются отдельные элементы (2a или 10x^2 и т.д) между операторами (+, - или другими).

Я думаю всем нам со школы знакомы насмешки над названиями разнообразных алгебраических выражений как выше на картинке. Но это в нашем русском языке, а как дела обстоят в англйиском ?

В английском языке вместо членов есть специальное слово "терм" (term), которым и обозначают эти самые элементы между операторами, и никаких членов!
Но у терма есть также значение "срок" для контекста длительности пребывания на каком-то посту, например президентский срок.

Но на этом приключения члена в русском языке не заканчиваются, с помощью него также обозначают членов какой-то группы лиц, а в английском снова есть отдельное слово для этого - "member".

И раз уж данный пост про два популярных языка, то можно спросить как же там в английском языке будет язык ? И когда вы задали этот вопрос вы получаете в ответ три слова:
- tongue, что значит "язык во рту"
- language, что значит "язык речи "
- locale, что означает "языковой стандарт" или "локализация"

И снова разные слова для разных контекстов ! Очень интересно.

Также из курса по биологии вы могли услышать про "членистоногих", а что там в английском ?
А там артроподы, то есть "arthropods", кажется намечается тенденция или паттерн...

"Следы членистоногого на снегу". Фото в цвете

"Следы членистоногого на снегу". Фото в цвете

Неужели великий и могучий не настолько и могуч ? Что лучше - гибкая структура предложений и слов или более строгая структура, в которой есть артикли ?

Рекомендую вам попробовать Большие Языковые Модели, доступные в нашем телеграм боте.
Они помогут вам найти ответы на интересующие вас вопросы. В том числе с их помощью можно совершенствовать навыки для владения языками и многое другое.

Для бесплатных пользователей доступны GPT-4o mini , Gemini Flash 2.0, а также генератор картинок Flux Schnell.

Всем хорошего дня и приятных выходных!

Показать полностью 1
1

Релиз Grok-3 от Илона Маска и немного про историю Grok

<!--noindex--><a href="https://pikabu.ru/story/reliz_grok3_ot_ilona_maska_i_nemnogo_pro_istoriyu_grok_12395662?u=http%3A%2F%2Flmarena.ai&t=lmarena.ai&h=600a4e202863e3d8971e1bb90b930d4c64fc2060" title="http://lmarena.ai" target="_blank" rel="nofollow noopener">lmarena.ai</a><!--/noindex-->

lmarena.ai

Grok-3 в отличии от своих предков Grok 1 и 2 умеет "думать" (как o1 и o3 от OpenAI) и меньше зацензурен по сравнению с другими популярными ИИ моделями. Помимо обычной Grok-3, существует его mini версия.

Grok-3 занял 1 место на lmarena.
Большим минусом lmarena является отсутствие разбиения на разные категории, например кодинг, языки, математика...

В livebench.ai Grok-2 1212 был на уровне Gemini 1.5 pro и некоторых версий GPT-4o, так что модифицированный и "думающий" Grok-3 вполне может быть среди 10 лучших.


Когда-то давно Илон Маск был сооснавателем OpenAI. В те времена OpenAI ещё пытались быть открытыми и не совсем коммерческими.
В какой-то момент Маск покинул совет основателей.
О чём в итоге сильно пожалел и его отношения с CEO OpenAI Сэмом Альтманом - это отдельный мем

Альтман немного потроллил Маска после предложения Маска купить OpenAI за 97млрд. долларов. Предложив купить Твиттер за сумму в 10раз меньше, на что Маск ответил "Свиндлер", то есть мошенник

Альтман немного потроллил Маска после предложения Маска купить OpenAI за 97млрд. долларов. Предложив купить Твиттер за сумму в 10раз меньше, на что Маск ответил "Свиндлер", то есть мошенник


Недавно Маск основал подразделение xAI для создания своего ИИ (LLM), купил 100 000 GPU от Nvidia для его тренировки, с возможностью роста до 200 000.


И вот теперь мы здесь.

Что же из себя представляет Grok ?

Grok-1 обладает архитектурой MoE, то есть микстура экспертов. Это означает, что во время обработки вопроса от пользователя, ответ генерирует модель поменьше.
Grok-1 обладает 314млрд. параметров.
- 8 экспертов
- 2 эксперта во время генерации ответа
- 86млрд. активных параметров во время ответа

На данный момент нет информации по устройству даже Grok-2, а Grok-3 ещё большая загадка. Известно только, что Grok-3 может "думать" как o1 или o3 модели от OpenAI.

Надеемся, что сможем добавить Grok-3 в нашего тг. бота Lama AI в ближайшее время.
Если хотите можете попробовать, бесплатно доступны по 50 запросов в Gemini Flash 2.0 и GPT-4o mini, также в качестве бонуса есть GPT-4o с 5 запросами и Flux Schnell.

Всем хорошего дня !

Показать полностью 5
3

DeepSeek R1, o3-mini high в нашем боте и немного новостей

Данный пост посвящён обновлениям нашего телеграм бота - <a href="https://pikabu.ru/story/deepseek_r1_o3mini_high_v_nashem_bote_i_nemnogo_novostey_12387676?u=https%3A%2F%2Fgptlama.ru%2Fbot%3Fname_from%3Dpikabu&t=Lama%20AI.&h=d8cfb9acbfe4e53df56be6595329137c9298a3ac" title="https://gptlama.ru/bot?name_from=pikabu" target="_blank" rel="nofollow noopener">Lama AI.</a>

Данный пост посвящён обновлениям нашего телеграм бота - Lama AI.


- Добавлен DeepSeek R1
Офф. сайт может работать нестабильно из-за большой популярности, в нашем случае всегда стабильно

- Добавлен o3-mini с medium и high режимом
66 запросов с medium режимом и 33 с high режимом

- Добавлен web-поиск в ChatGPT-4o

- Улучшена стабильность Gemini моделей, Nova суммаризатора ютуб видео (и не только)

- Снижена цена подписки до 400 за месяц и до 200 за неделю (в боте нет токенов, за любой тир все модели)


Недавние анонсы от крупных игроков в сфере ИИ (или LLM)

OpenAI

Сэм Альтман анонсировал GPT4.5 (будет у нас сразу как будет запущен) и GPT5

Довольно длинное сообщение описывает планы на новые модели.
GPT-4.5 будет последней "не думающей" моделью (как нынешняя GPT-4 omni).

GPT-5 будет целой системой, которая в том числе, будет включать в себя новую o3 модель плюс o1 и GPT-4.5. Подразумевается, что пользователь не сможет выбирать модель.
Также в комплекте со всеми этими моделями будут работать новые фичи: голос, канвас, поиск, исследование (deep research).

Ещё Альтман твитнул про обновление текущей GPT-4o (добавим в бота как сможем)


Google

Гугл выпустили Кракена модели Gemini версии 2.0.

Livebench ai

Livebench ai

Даже экспериментальные гемини 2.0 (в том числе Gemini 1216) хорошо себя показывали, полные 2.0 версии стали ещё чуть лучше. Что радует.
Flash 2.0 exp у нас доступен даже для бесплатных пользователей.



Meta (Facebook)

Наверное не все знают, но внутри Meta разрабатывают LLM (ИИ) с открытыми весами - LLaMa.
Самые последние релизы включают в себя LLaMa 3.3 70b и LLaMa 3.1 405b.

На основе LLaMa моделей другие игроки на рынке LLM делают тюненые версии с другими названиями, например некоторые модели qwen (от Alibaba), nemotron 70b (от Nvidia ), DeepSeek 70b.

Meta активно ведут разработку моделей LLaMa 4.0.
Не так давно была выпущена статья Byte Latent Transformer: Patches Scale Better Than Tokens

В ней рассказывается про модели на основе нового вида токенизатора, имплементация которого позволит сделать LLM модели гораздо точнее при ответах на длинные запросы.

Качество ответов текущих LLM моделей быстро ухудшается если длина ввода превышает 16к токенов, то есть около 11 тысяч слов.

На этом у меня всё. Надеюсь вы пропробуете нашего бота в деле. Даже для бесплатных пользователей у нас доступны следующие модели

Хорошего дня.

Показать полностью 7

Lama AI, поиск в интернете и other news

<a href="https://pikabu.ru/story/lama_ai_poisk_v_internete_i_other_news_12348768?u=https%3A%2F%2Ft.me%2Flama_channel_gpt&t=Lama%20AI&h=c37c156d017e53b35e08241190652b484a0ac7d6" title="https://t.me/lama_channel_gpt" target="_blank" rel="nofollow noopener">Lama AI</a> ваш друг и помощник... В бесплатных моделях вы найдёте Flux Schnell, Gemini Flash 2.0, GPT-4o mini

Lama AI ваш друг и помощник... В бесплатных моделях вы найдёте Flux Schnell, Gemini Flash 2.0, GPT-4o mini

Кто бы мог подумать, что Большие Языковые Модели будут использоваться для поиска в интернете !? Но похоже это удобно и нужно. Мы услышали и добавили поиск в модель GPT-4o latest.

Бывает полезно поискать, а потом уточнить что-нибудь. Например я искал сколько параметров в Qwen Max 2.5 и не смог найти, и это подтвердилось здесь.

Бывает полезно поискать, а потом уточнить что-нибудь. Например я искал сколько параметров в Qwen Max 2.5 и не смог найти, и это подтвердилось здесь.



Имейте в ввиду, что LLM (любые, хоть o3, которая уже в Lama AI) имеют свойство иногда не улавливать окончания и путать прошлое и будущее время в великом и могучем, например


Поэтому лучше перепроверять при поиске важной информации.

Дальше рубрика небольших новостей.

Гугл выпустили новые версии своих Gemini моделей - Gemini 2.0

Но судя по отзывам пользователей, разработчики гугла что-то курили во время разработки и модели стали хуже.
А точнее Gemini 2.0 Pro Experimental, хуже своего предшествинника Gemini 1206 Exp...

Поэтому добавлять их в бота не торопимся. Может поправят и тогда добавим.


Mistral выпустили небольшую, но юзабельную модель Mistral Small 3 24b (24млрд. параметров).

Mistral Small 3 24b неплохо конкурирует с небольшими моделями. Но в списке нет LLaMa 3.3 70b.

Судя по отзывам весьма полезная штука, особенно её размер, который повзоляет полностью загрузить эту LLM модель в 24гб памяти почти не урезая её возможности квантизацией.
Причём для 24млрд.-ной модели хватит и производительного (16+ ядер) процессора с 24+ гб памяти.

Что также правда для MoE (Mixture of Experts) LLM моделей, таких как DeepSeek V3 (уже в Lama AI) или старого Mixtral 22x8 или Qwen Max 2.5 или MiniMax-text-01 456b.
Они все могут работать на могоядерных современных серверных процессорах в отличии от монолитных моделей таких как LLaMa 3.1 405b (тоже есть в Lama AI).

Что ж, на этом с новосятами у меня всё. Увидимся в следующий раз :D

Показать полностью 8
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества