Серия «Новости»

3

Вышла новая модель для редактирования изображений Qwen-Image-Edit-2511

Серия Новости

В модели Qwen-Image-Edit-2511 (https://huggingface.co/Qwen/Qwen-Image-Edit-2511) улучшена согласованность, дающая снижение "дрейфа" изображения. Доработали сохранение персонажей, позволяя редактирование портретов с сохранением идентичности. Модель теперь точнее обрабатывает групповые фото благодаря улучшенной работе с несколькими людьми на снимке. Внутрь модели встроили LoRA популярных стилей (например, улучшение освещения), и теперь все они доступны "из коробки". Усовершенствован промдизайн, давая теперь более качественную генерацию и модификацию промышленных изделий. Есть ещё геометрическое мышление, с помощью которого модель глубже понимает геометрию.

Показать полностью 2
6

Вышла новая модель GLM-4.7

Серия Новости

Новая модель GLM-4.7 (https://huggingface.co/zai-org/GLM-4.7) имеет несколько улучшений по сравнению с предыдущей версией. В кодинге у неё рост результатов на бенчмарках SWE-bench (+5.8%), SWE-bench Multilingual (+12.9%), Terminal Bench 2.0 (+16.5%) и улучшена работа в агентских фреймворках (Claude Code, Cline и др.). Модель теперь способна генерировать более чистые и современные веб-страницы, а ещё улучшенно создание слайдов. У неё значительный прогресс в использовании инструментов (τ²-Bench, BrowseComp). А новые более сложные рассуждения дают улучшение математических и логических способностей (+12.4% на HLE benchmark).

У неё есть разные режимы мышления. Есть режим "Interleaved Thinking", во время которого модель "думает" перед ответом или действием. Есть режим "Preserved Thinking", реализующий сохранение цепочки рассуждений в диалоге для сложных задач. А также есть "Turn-level Thinking", дающий ручное управление мышлением для оптимизации скорости/качества.

Показать полностью 1
5

Вышла новая модель MiMo-V2-Flash

Серия Новости

MiMo-V2-Flash (https://huggingface.co/XiaomiMiMo/MiMo-V2-Flash) от Xiaomi имеет смесь экспертов (MoE). Всего у неё 309B параметров, а активно во время ответа 15B на токен. В архитектуре у неё гибридное внимание, которое чередует локальное (скользящее окно 128 токенов) и глобальное внимание (соотношение 5:1). С помощью этого ускоряя работу с длинным контекстом. Во время обучения модель была предобучена на 27 трлн токенов и имела контекст 32k, а потом его расширили до 256k. Ключевой технологией стал новый метод пост-обучения под названием Multi-Teacher On-Policy Distillation (MOPD). Суть которого заключается в том, что студент-модель учится у нескольких "учителей" (специалистов в разных областях), перенимая их лучшие качества. Также в модели есть многотокенное предсказание (MTP) и используется оно для ускорения обучения и вывода (спекулятивный декодинг). Давая ускорение генерации до ~2.6x. В результате модель конкурирует с топовыми открытыми моделями (DeepSeek-V3.2, Kimi-K2), имея в 2-3 раза меньше активных параметров и лидер среди открытых моделей в задачах на код (SWE-Bench).

Показать полностью 1
3

Вышла новая модель для редактирования изображений Qwen-Image-Layered

Серия Новости

Модель Qwen-Image-Layered (https://huggingface.co/Qwen/Qwen-Image-Layered) создана для разложения изображений на отдельные RGBA-слои. Это позволяет редактировать каждый слой (перекрашивать, перемещать, заменять, менять размер) независимо и без потери качества. Модель поддерживает разное количество слоёв и их рекурсивную детализацию, обеспечивая точное и последовательное редактирование.

Показать полностью 1
4

Вышла новая модель для генерации и редактирования изображений GPT Image 1.5

Серия Новости

Модель теперь в 4 раза быстрее генерирует изображения. Она намного точнее, четко следуя инструкциям, сохраняя детали (освещение, композицию) при редактировании. Повысилось качество результатов, давая более лучший рендеринг мелкого текста и лица. Доработана креативность, позволяя менять стиль, добавлять/убирать элементы, трансформировать концепции.

В ChatGPT добавили из-за выхода этой модели новый интерфейс.

Теперь появилась отдельная панель для работы с изображениями. Ну и встроенные стили и шаблоны для быстрого старта.

Нужно отметить, что модель хотя стала лучше, но не идеальна.

Показать полностью 2
7

Вышла новая модель DeepSeek-V3.2 (не Exp)

Серия Новости
Вышла новая модель DeepSeek-V3.2 (не Exp)

DeepSeek-V3.2 (https://huggingface.co/deepseek-ai/DeepSeek-V3.2) новая открытая языковая модель, созданная для преодоления отставания от закрытых аналогов (GPT-5, Gemini) в рассуждениях и работе как агент.

Для создания модели использовали глубокое разреженное внимание (DSA). Внутри него эффективный механизм внимания. "Молниеносный индексатор" выбирает Top-K наиболее релевантных токенов для каждого запроса, снижая вычислительную сложность. Также применяли масштабируемое обучение с подкреплением (RL), который является устойчивым протоколом GRPO с большими вычислительными затратами на дообучение (>10% от предобучения). Плюс ко всему этому был конвейер синтеза агентских задач, который автоматически создавал тысячи сложных сред и промтов для обучения работе с инструментами.

Обучение проходило в несколько этапов.

На первом этапе было разреженное предобучение на котором продолжали обучение DeepSeek-V3.1 с включенным DSA.

Начали с "плотной" разминки во время которой была инициализация индексатора при замороженных параметрах модели. Дальше было разреженное обучение представлявшее собой обучение всей модели на основе выбранных DSA токенов.

На втором этапе было дообучение.

Было создание данных экспертами в математике, коде, агентах по методу дистилляции от специалистов. А после смешанное RL включавшее в себя объединенное обучение на рассуждениях, работе агента и человеческих предпочтениях.

В результате модель DeepSeek-V3.2 теперь сопоставима с GPT-5 и Kimi-K2 в рассуждениях, значительно лучше других открытых моделей в задачах агента (поиск, код, инструменты). Другая же вариация этой модели под названием DeepSeek-V3.2-Speciale (вариант с длинными рассуждениями) уже достигает паритета с Gemini-3.0-Pro. Показывает "золотой" уровень на IOI, ICPC, IMO, CMO 2025. Нужно заменить, что DSA значительно ускоряет работу с длинным контекстом.

В недостатки можно выделить меньший объем знаний, чем у лидеров; меньшую эффективность по токенам, а также требуется оптимизация для очень сложных задач.

Показать полностью
2

Вышла новая модель для решения математических задач DeepSeekMath-V2

Серия Новости

Проблема, которую исследуют в DeepSeek, заключается в том, что точные ответы в математике не гарантируют верных рассуждений. Традиционные методы с подкрепляющим обучением неприменимы для задач, требующих пошаговых доказательств.

Для решения этой проблемы создали модель DeepSeekMath-V2 (https://huggingface.co/deepseek-ai/DeepSeek-Math-V2) для самопроверяемых математических рассуждений. В её основе лежит точный верификатор доказательств, построенный на основе языковой модели. Генератор доказательств обучается с использованием этого верификатора и получает стимулы самостоятельно находить и исправлять ошибки в собственных доказательствах перед их финализацией. Для сложных доказательств вычислительные ресурсы верификации масштабируются.

В результате модель демонстрирует высокие результаты на тестах:

В основе используют модель DeepSeek-V3.2-Exp-Base.

Лицензия: Apache 2.0.

Показать полностью 2
1

Вышла новая модель для генерации и редактирования изображений FLUX.2

Серия Новости

FLUX.2 (https://huggingface.co/black-forest-labs/FLUX.2-dev) продвинутая модель для работы с изображениями. Была создана как инструмент для реального творчества, а не демонстраций. Может генерировать и редактировать качественные изображения (до 4 Мп). Умеет работать с текстом, логотипами, стилем и несколькими образцами (до 10 изображений). Имеет согласованность стиля/персонажа и лучшая в отрасли при использовании нескольких образцов. Что касается детализации и реализма, то модель даёт четкие текстуры, стабильное освещение. Поддерживается работа с текстом, позволяя создавать надежный рендеринг сложной типографики и инфографики. Модель точно выполняет сложные и структурированные запросы, а также лучше понимает логику сцен, освещения, пространства.

Доступно несколько версий:

· [pro] Максимальное качество и скорость. Готовое решение.

· [flex] Полный контроль для разработчиков над качеством и скоростью. Лучший для текста.

· [dev] Самая мощная open-source модель (32 млрд параметров). Доступна для локального запуска.

· [klein] (пока не вышла) Уменьшенная open-source версия (Apache 2.0).

Чтобы всё это работало, используют архитектуру на основе Mistral-3 (24B) и выпрямленного трансформер потока. А также новый VAE для улучшения баланса между качеством и сжатием.

Показать полностью 3
Отличная работа, все прочитано!

Темы

Политика

Теги

Популярные авторы

Сообщества

18+

Теги

Популярные авторы

Сообщества

Игры

Теги

Популярные авторы

Сообщества

Юмор

Теги

Популярные авторы

Сообщества

Отношения

Теги

Популярные авторы

Сообщества

Здоровье

Теги

Популярные авторы

Сообщества

Путешествия

Теги

Популярные авторы

Сообщества

Спорт

Теги

Популярные авторы

Сообщества

Хобби

Теги

Популярные авторы

Сообщества

Сервис

Теги

Популярные авторы

Сообщества

Природа

Теги

Популярные авторы

Сообщества

Бизнес

Теги

Популярные авторы

Сообщества

Транспорт

Теги

Популярные авторы

Сообщества

Общение

Теги

Популярные авторы

Сообщества

Юриспруденция

Теги

Популярные авторы

Сообщества

Наука

Теги

Популярные авторы

Сообщества

IT

Теги

Популярные авторы

Сообщества

Животные

Теги

Популярные авторы

Сообщества

Кино и сериалы

Теги

Популярные авторы

Сообщества

Экономика

Теги

Популярные авторы

Сообщества

Кулинария

Теги

Популярные авторы

Сообщества

История

Теги

Популярные авторы

Сообщества