StableDif

StableDif

Приветствую вас дорогие друзья. Меня зовут Олег (OreX). Я пишу видеоуроки по Stable Diffusion и софту связанному с искусственным интеллектом. Собираю полезные материалы и делюсь с вами. Мои ресурсы: Видеоуроки YouTube: https://youtube.com/@StableDiff Видеоуроки RuTube: https://rutube.ru/channel/28380669/ Мои курсы с поддержкой по Automatic1111 и COMFYUI: https://stabledif.ru Большой чат для общения: https://t.me/stable_dif Поддержка автора на Boosty: https://boosty.to/stabledif
Пикабушник
119 рейтинг 38 подписчиков 2 подписки 45 постов 0 в горячем
3

Forge Neo обновлена и исправлена

▫️ Сборка теперь без виртуальной среды: python находится в папке system как в automatic или forge. Дополнительные библиотеки теперь можно ставить в system/python. Reactor починил. Пресет InstantID (генерация с лицами) теперь тоже работает. Другие пресеты поднастроил - должны работать. Добавил дополнительные расширения. И даже Inpaint Anything удалось запустить, но оно сильно нагружает процессор, что-то с ним не так, по этому я его отключил. В Extension можно поставить галочку напротив Inpaint Anything и включить его.

▫️ Qwen Image теперь поддерживается, а также его Nunchaku версия тоже (для слабых видеокарт, то что нужно). Qwen Edit пока не работает.

▫️ Добавил расширение sd-forge-fluxtools-v2 для работы с Flux Canny/Depth и Flux Fill (inpaint модель), но с поддержкой Flux Kontext не особо то и нужное расширение. Добавил расширение forge2_cleaner - аналог волшебного ластика в Photoshop (работает быстро и потребляет мало ресурсов).

▫️ Xformers устанавливать, не стал, так как он делает работу ForgeNeo не стабильной, по крайней мере на моей карте. Установить Xformers очень просто. Откройте папку system\python и в адресной строке напишите CMD и нажмите Enter. введите команду:

python -m pip install xformers

(но высока вероятность сломать сборку)

▫️ Теперь сборка 7Гб и модели 18.7Гб отдельны.

Если у вас была старая сборка, то папка models та же.

📽️ Видео обзор предыдущей сборки: YouTube (https://youtu.be/HRKqmMdYVrY?si=C1IxNFgyLa3VS0Hn) l Rutube (https://rutube.ru/video/f0a9952929deb0edbe2a37933de2623d/?r=...)

🔗 Сборку можно скачать тут: ССЫЛКА (https://huggingface.co/OreX/Automatic1111/resolve/main/Forge...)

Показать полностью 2
4

OVI Video & Audio

🎬 Ovi — это новая локальная модель «всё-в-одном», как Veo 3 или Sora 2.

🛠 Ovi Video может генерировать видео с речью, музыкой и аудио эффектами. Модель поддерживает входные данные: текст и изображение.

👌Это первая локальная модель такого типа, но качество её не такое хорошее. - Продолжительность генерируемого видео 5 сек.

- Потребление Vram от 16Гб на Fp8. Скорость генерации очень высокая даже при таких потреблениях и выгрузке в Ram блоков модели (60 сек в 1 мегапикселе, 5 сек ролик на 5090).

📘 ССЫЛКИ

➖ Страница разработчика: https://github.com/snicolast/ComfyUI-Ovi.git

➖ Схема из видео: https://drive.google.com/file/d/1O6PnlAPivefyMpenH2HBDHGmnBD...

👁Смотреть на Youtube (https://youtu.be/5UN2TDLLnaE)

👁Смотреть на Rutube (https://rutube.ru/video/3535ed87de06ef9acd91c3d11fc510e4/)

Показать полностью 2
4

Qwen Edit 2509

📌 Модель Qwen Edit очень круто обновилась до версии 2509 (это дата выхода модели) и стала значительно лучше.

👌 Вам эти изменения точно понравятся, так что посмотрите до конца:

☑️ Поддерживается от 1 до 3 реверенсных изображений

☑️ Поддерживаются подсказки со ссылкой на персонажа, объект и на номер изображения

☑️ Согласованность изображений улучшена

☑️ Модель более цепко держит референсы при генерации. Лучше сохраняются лица

☑️ В модель зашиты ControlNet: карта нормалей, карта глубины, canny, openpose и вы можете попросить сгенерировать эти карты из референсного изображения

☑️ Так же вы можете закинуть например позу из openpose и попросить поставить персонажа в эту позу

☑️ Улучшенная согласованность редактирования текста на английском и китайском

😱 Но и это еще не все.

Теперь мы можем работать в разрешении от 1 до 2 мегапикселей❗️ что улучшает детализацию, которая в первой Qwen Edit сильно хромала.

🚀Уже вышла Nunchaku.

🎦 СМОТРЕТЬ НА YOUTUBE (https://youtu.be/hJzjQ1XhAfw)

🎦 СМОТРЕТЬ НА RUTUBE (https://rutube.ru/video/97a51b1d0ae3eebc274fc05e76136872/)

Показать полностью 2
1

Flux SRPO - Фотореализм

💡Рассказываю про модель Flux SRPO, которая значительно фотореалистичнее flux dev и krea.

☑️ Это файнтюненая модель Flux Dev, которая дообучалась на изображениях с учетом оценок человека.

☑️ При обучении применялись не стандартные методы, например Direct-Align, для уменьшения искажения изображения при его формировании.

☑️ Srpo по сути - это новый метод обучения моделей flux.

👌 Модель доступна в точности bf16, fp8 и gguf. Советую качать либо bf16, либо gguf. SRPO поддерживает flux Lora.

🎦 СМОТРЕТЬ НА YOUTUBE (https://youtu.be/TPNwUNv-4bk)

🎦 СМОТРЕТЬ НА RUTUBE (https://rutube.ru/video/ada107f81aa506c27359089a812444b9/)

Показать полностью 2
2

Forge Neo PORTABLE Сборка - Nunchaku Flux Kontext Inpaint и Wan

🔥 Я подготовил портабельную, настроенную сборку, которая содержит расширения и пресеты!Для установки сборки достаточно только распаковать и запустить!

Это Fork Forge который поддерживает модели:

✔️Flux Dev

✔️Krea

✔️Kontext

✔️Wan

🎨 Flux Kontext работает в режиме image2Image и Inpaint, что позволяет ограничить участок изменения. Есть поддержка Nunchaku вышеперечисленных моделей.

🎬 Поддерживается Wan 2.1, как для генерации изображений, так и для генерации видео и text2video и image2video модели.

🚀 Есть поддержка SageAttension, которая ускоряет генерацию и функции Never OOM, которые включают плиточное VAE кодирование и выгрузку блоков модели в оперативную память, что значительно снижает потребление видео памяти.

⚙️ Бесплатно скачать portable сборку Forge-Neo: ссылка в описании к уроку
🛠 Обновленные ПРЕСЕТЫ на boosty: ссылка в описании к уроку
📎 Страница разработчика узлов: ссылка в описании к уроку

🎦 СМОТРЕТЬ НА YOUTUBE (https://youtu.be/HRKqmMdYVrY)

🎦 СМОТРЕТЬ НА RUTUBE (https://rutube.ru/video/f0a9952929deb0edbe2a37933de2623d/)

Показать полностью 2
14

FramePack — новый подход к генерации видео на потребительском железе

🧠 Что такое FramePack?

FramePack — это инновационная модель генерации видео, разработанная lllyasviel, которая использует прогрессивное предсказание кадров (next-frame prediction) и эффективную компрессию контекста. Это позволяет создавать длинные видео (до 60 секунд при 30 FPS) даже на видеокартах с 6 ГБ VRAM.

🏆 Преимущества FramePack перед WAN 2.1

Длина видео: FramePack позволяет создавать видео продолжительностью до 60 секунд, в то время как WAN 2.1 ограничен примерно 5 секундами.

🦾 Требования к оборудованию:  FramePack работает на видеокартах с 6 ГБ VRAM, что делает его доступным для более широкого круга пользователей.

🚀Скорость генерации: FramePack обеспечивает более быструю генерацию видео благодаря оптимизированной архитектуре и компрессии контекста.

🔗  FramePack установщик отдельного веб интерфейса: ССЫЛКА (https://github.com/lllyasviel/FramePack)

🔗 FramePack workflow для ComfyUi: ССЫЛКА (https://github.com/kijai/ComfyUI-FramePackWrapper/tree/main/...)

✨ FramePack открывает новые возможности для генерации видео, делая этот процесс доступным и эффективным даже на обычных потребительских компьютерах. Попробуйте сами и оцените преимущества этой технологии!

💫 ИНСТРУКЦИЯ ПО УСТАНОВКИ ОТДЕЛЬНОГО ВЕБ ИНТЕРФЕЙСА:

1. Скачайте архив: ССЫЛКА (https://github.com/lllyasviel/FramePack/releases/download/wi...)

2. После загрузки распакуйте и обновитесь с помощью фацла update.bat .

3. Для запуска используцте  run.bat.

4. Модели будут скачиваться автоматически. Загрузится около 30 ГБ с HuggingFace.

💫 ДЛЯ УСТАНОВКИ НА COMFYUI:

1. Установите узлы из этого репозитория: ССЫЛКА (https://github.com/kijai/ComfyUI-FramePackWrapper/tree/main)

2. Скачайте и закиньте рабочий процесс в ComfyUi: ССЫЛКА (https://github.com/kijai/ComfyUI-FramePackWrapper/tree/main/...)

3. Модели должны скачаться автоматически или скачайте их сами по ссылке и поместите в папку models/diffusion_models: ССЫЛКА (https://huggingface.co/lllyasviel/FramePackI2V_HY/tree/main)

4. Так же вам понадобятся текстовые энкодеры: ССЫЛКА (https://huggingface.co/Comfy-Org/HunyuanVideo_repackaged/tre...)

5. Понадобится модель clip-vision: ССЫЛКА (https://huggingface.co/Comfy-Org/sigclip_vision_384/tree/mai...)

Показать полностью
3

PORTABLE настроенная сборка ComfyUI

Всех приветствую 🖐

🔥 Рад вам представить свою портативную настроенною сборку ComfyUI, которая сэкономит кучу вашего времени и подойдет как для опытных пользователей, так и особенно для начинающих. Эта сборка на Python 3.12, torch 2.6, cuda 12.6. (сборку можно скачать БЕСПЛАТНО с boosty.

🔥 После установки СomfyUI приходится устанавливать Manager и различные библиотеки, и это требует время, а для новичков становится сложной задачей. С этой сборкой у вас будет всё гораздо проще, потому что в эту сборку уже установлены:

- insightFace и Envelop

- facexlibe

- dlib

🔥 Установленно много пользовательских узлов:

- Instant-id

- Reactor

- PulID

- OldPhoto Back to Life и многое др.

👁 Смотреть на YOUTUBE (https://youtu.be/qk5IEw2kDKM?si=mebGSXqV1e4WaTJ0)

👁 Смотреть на RUTUBE (https://rutube.ru/video/1037141b457bb31dc3d3c32b1719f121/?r=...)

Показать полностью 2
5

PyTorch 2.6: Что нового?

Встречайте свежий релиз PyTorch 2.6! 🚀 Эта версия приносит множество улучшений, которые делают работу с фреймворком ещё удобнее и эффективнее. Давайте разберём основные нововведения!

🌟 Основные улучшения:

Поддержка Python 3.13 для torch.compile

Теперь вы можете использовать torch.compile с Python 3.13, что открывает новые возможности для оптимизации вашего кода. Это особенно полезно для работы с большими моделями и сложными вычислениями.

Улучшения AOTInductor

AOTInductor (Ahead-of-Time компилятор) получил несколько значительных обновлений. Эти изменения позволяют ещё больше ускорить выполнение моделей на CPU и GPU 💻.

Поддержка FP16 на X86 CPU

В PyTorch 2.6 добавлена поддержка FP16 (полуточности) для процессоров с архитектурой X86. Это означает, что теперь можно добиться более высокой производительности даже на CPU! ⚡️

Расширение возможностей torch.fx

Библиотека torch.fx получила обновления, которые позволяют более гибко работать с графами вычислений. Если вы вносите изменения в граф, не забудьте вызвать метод recompile() для обновления кода 🔄

Новые возможности для работы с моделями

Обновлены инструменты для загрузки и сохранения моделей через torch.load(). Теперь работа с тензорами стала ещё удобнее благодаря улучшенной обработке хранилищ данных 📂

🔗 Подробнее: PyTorch Blog (https://pytorch.org/blog/pytorch2-6/)

Показать полностью
Отличная работа, все прочитано!