Красивые AI Анимации
176 постов
176 постов
5 постов
28 постов
160 постов
1 пост
2 поста
17 постов
Название: Realism Engine SDXL
Тип: #Модель
Кол-во скачиваний: 700+
Последний апдейт: Dec 11, 2023
Базовая модель: SDXL 1.0
Эта обновленная модель отличается высокой отзывчивостью на запросы и предлагает заметно улучшенную общую связность, включая больше мимических выражений, большое разнообразие лиц, больше поз и улучшенные руки.
Кроме того, исправлены несколько особенностей предыдущей версии, таких как проблемы с генерацией ночных сцен и проблему с увеличением насыщенности цвета без пропорциональной корректировки контраста при увеличении масштаба CFG. Возможна генерация контента для взрослых, но теперь это происходит реже без запроса.
Источник - Нейро-Склад 🤖 - все, что нужно, для твоей нейронки!
Название: Realistic Stock Photo
Тип: #Модель
Кол-во скачиваний: 17000+
Последний апдейт: Sep 03, 2023
Базовая модель: SDXL 1.0
Хорошо зарекомендовавшая себя фотореалистичная модель. Все изображения выполнены на нашем сервисе ArtGeneration.me, вы можете опробовать эту модель прямо сейчас в своём браузере!
Просто попробуйте начать с этих примеров:
Источник - Нейро-Склад 🤖 - все, что нужно, для твоей нейронки!
Привет, cегодня расскажу о крутой штуке - VideoSwap. Это технология, основанная на Stable Diffusion, которая позволяет заменять объекты в видеороликах, сохраняя фон неизменным.
Как это работает?
1. Выбираем Точки: Ты выбираешь важные точки на персонаже в видео.
2. Двигаем и Меняем: Технология следит за этими точками и позволяет тебе менять форму и движение персонажа.
3. Результат: Получаешь видео, где главный герой - кто угодно!
Стоит упомянуть, эта технология экспериментальная и может быть сложна в освоении
Короче, это как фотошоп, но для видео. Интересно, что творческие люди смогут с этим сделать! 😉
Интересуешься нейросетями? Тебе в источник - 💫Арт-Нейросети от Nerual Dreming
Анимация персонажей направлена на создание видеороликов с персонажами из изображений с помощью управляющих сигналов. Цветное очертание скелета, как в ControlNet, позволяет точечно задать и настроить движения объекта с фото.
В настоящее время Diffusion-модели стали основным направлением в исследованиях визуальной генерации благодаря их мощным возможностям. Чтобы сохранить согласованность сложных элементов внешнего вида с эталонным изображением, мы разрабатываем ReferenceNet для объединения деталей с помощью пространственного внимания.
Обзор процесса создания видео: последовательность поз первоначально кодируется с помощью Pose Guider и объединяется с многокадровым шумом, после чего система UNet выполняет процесс шумоподавления. Вычислительный блок системы UNet состоит из пространственного, перекрестного и временного внимания. Интеграция эталонного изображения включает в себя два аспекта. Во-первых, главные очертания извлекаются через ReferenceNet и используются для пространственного внимания. Во-вторых, остальные детали извлекаются с помощью кодера изображений клипов для перекрестного внимания. Темпоральное внимание работает во временном измерении. Наконец, декодер VAE декодирует результат в видеоклип.
Ждём релиза Animate Anyone!
Интересуешься нейросетями? Больше такого в источнике - 💫Арт-нейросети от Nerual Dreming