Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Fragen — это динамичный шутер от первого лица, пропитанный адреналином и напряжённой атмосферой. Вы можете сражаться как в одиночку, так и в составе команды. Независимо от того, выберете ли вы свободный бой или командный режим, ваша главная задача — остаться в живых и одержать победу.

FRAGEN

Шутер, Экшены, Шутер от первого лица

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
219
Nerual.Dreming
Nerual.Dreming
Stable Diffusion & Flux

Создание анимированных видео в нейросети Stable Diffusion, пошаговое руководство⁠⁠

2 года назад

Друзья, всем привет, даже от меня вы уже не раз слышали, что в нейросетях сейчас можно делать буквально все: создавать тексты, генерировать музыку, делать дипфейки, создавать изображения и даже видео. Раньше генерировать видео можно было только в больших платных проектах типа Gen-2 от Runway или в пока еще бесплатном дискорд боте Pika Labs. Локальные решения были плохими или требовали топовых видеокарт.

Перейти к видео

Но времена меняются и сообщество создало открытое и доступное решение, которое позволяет создавать прекрасные анимированные видео прямо в нашем любимом Stable Diffusion в интерфейсе Automatic 1111. Об этом решении сегодня и пойдет речь.

Что нам понадобится:

  1. Нейросеть Stable Diffusion в интерфейсе Automatic 1111 версии 1.6 или старше;

  2. Расширение AnimateDiff;

  3. Любимая модель семейства 1.5, у меня epiCRealism и подходящий промпт.

В этом гайде я не буду заострять внимание на установке Automatic 1111, она подробно описана на странице гитхаба, или посмотрите первые 5 минут из моего видео Чистая установка нейросети Stable Diffusion в интерфейсе Automatic 1111, но пока можете не скачивать SDXL модель, сегодня речь пойдет только про 1.5 модели и лоры движений к ним. Про модели движения для SDXL я расскажу в следующий раз, так что не забудьте оценить эту публикацию и оставить комментарий, так я увижу, что тема действительно интересна.

Установка расширения

Automatic 1111 у вас установлен и готов к работе. Осталось установить расширение которое и позволит нам создавать анимированные генерации. Расширение называется AnimateDiff, это порт одноименного исследовательского проекта, там можно скачать и отдельную от Automatic версию, но возможностей в ней намного меньше как и удобства использования.

Для установки расширения переходите на вкладку Extensions, затем Install from URL и просто вставляем в первое поле ссылку https://github.com/continue-revolution/sd-webui-animatediff и жмем Install. Ждем окончания установки и перезагружаем автоматик.

Но это еще не все, теперь надо скачать модели движения, проще всего это сделать с гугл диска. Скачивайте mm_sd_v15_v2.ckpt и всю папку MotionLoRA. Модель mm_sd_v15_v2.ckpt размещаем тут stable-diffusion-webui\extensions\sd-webui-animatediff\model, а лоры как обычно кладем в stable-diffusion-webui\models\Lora, можно прям в папке MotionLoRA, так даже удобнее, к лорам мы вернемся позже.

Почти все, осталось зайти в Settings/Optimization и активировать галочку Pad prompt/negative prompt to be same length. И нажать Apply Settings. Но скорее всего вы это сделаете когда будете второй раз перечитывать гайд, не понимая почему у вас анимация состоит из двух разных кусочков в одной гифке.

Ура, все готово, у нас должен появится аккордеон с заголовком AnimateDiff. Если у вас не появился, попробуйте еще раз перезагрузить автоматик. А если появился, то копируйте любой запрос со страницы модели которую используете, ставьте настройки как у меня на скрине ниже и запускайте генерацию.

Я же создам анимашку по своему промпту, это персонаж-маскот одного из моих проектов, так что весь гайд нас будет сопровождать одна и та же девушка по имени Дженна. Вот что получилось у меня.

Перейти к видео

Как это работает

Специально обученная на видео модель встраивается в уже существующую модель Stable Diffusion 1.5 во время генерации и таким образом задает направление движения согласно данным на которых была обучена. Схожим образом работает и ControlNet. Это позволяет использовать любые модели Stable Diffusion 1.5 созданные сообществом как основу для вашего видео. Эта техника будет работать и с аниме моделями и с фотореалистичными, ниже вы увидите пример с тем же самым промптом что и девушка на пляже, но на другой модели.

Перейти к видео

Cекрет этой технологии очень прост, главное достижение, оно же главное проклятье, все кадры генерируются на "одном листе", это позволяет достичь консистетности на видео, потому что все кадры создаются из одного замороженного латентного пространства. Но это же накладывает ограничения по производительности, потому что это единое полотно занимает много видеопамяти. Если у вас меньше 6гб видеопамяти, пытаться даже не стоит. Оптимально 12гб.

Это влияет и на работу сида, если вы думали, что сначала сгенерируете картинку, найдете классный сид, а затем включите AnimateDiff и картинка просто станет анимированной, то вынужден вас огорчить, с включенным расширением результат будет совсем другой. Ваш сид будет использован при построении всего большого полотна со всеми кадрами и это выдаст совсем другой результат. Так что подбирать сид придется случайным образом просто генерируя пока не найдем тот самый.

Настройки расширения

Я не буду рассказывать сейчас про все настройки и функции, такие как стилизация видео, или автоматическая смена промпта, чтобы делать аналоги лупбеков, это все темы для отдельных больших гайдов. Сейчас я расскажу лишь про самые основные и полезные.

Селектор моделей я думаю понятен и без слов, а вот на форматах остановимся подробнее, MP4 самый удобный для дальнейшего использования формат, и сохранится он в лучшем качестве, но он не отображается в браузере для предпросмотра, а GIF отображается, поэтому я генерирую и то и другое обычно.

Еще обратите внимание, что png info (информация о генерации) не записывается в форматы отличные от png, а это значит что если вы не поставите галочку на png либо на txt, то просто не сможете восстановить информацию о генерации потом. Рекомендую каждый раз сохранять отдельно финальную генерацию в виде png.

Number of frames - сколько всего будем генерировать кадров, чем больше - тем дольше. К тому же более длинные ролики получаются "рваными". Оптимально 16.

Context batch size - размер окна контекста генерации, зависит от модели. В нашем примере модель обучена на видео по 16 кадров и лучшего всего генерит именно их, нормально если меньше, отвратительно если больше.

FPS - количество кадров в секунду, оптимально 8-16, можно интерполировать в других программах позже.

Closed loop - режим закольцовывания видео, N - никакого, R-P - режим вычитания, расширение попробует вычесть кадры и закольцевать видео; R+P режим добавления, расширение попробует добавить кадры чтобы закольцевать видео; A - агрессивный режим, расширение попробует закольцевать видео форсированно, иногда приводит к артефактам, а иногда к хорошим результатам как ниже, тут склейка почти не видна.

Перейти к видео

Все остальные настройки нам мало интересны или задействуются в других режимах работы. Перейдем к самому вкусному!

Моушен Лоры

Перейти к видео

Наверное одна из самых классных вещей - это специальные лоры движения которые совместимы только с той самой моделью mm_sd_v15_v2.ckpt, с другими они попросту не работают.

Каждая из 8 лор обучена на свой собственный тип движения: Zoom In - приближение; Zoom Out - отдаление; Pan Left - смещение в лево; Pan Right - смещение вправо; Pan Up - смещение вверх; Pan Down - смещение вниз; Rolling Anti-Clockwise - вращение против часовой стрелки; Rolling Clockwise - вращение по часовой стрелке. Используя эти лоры вы можете воплотить практически любую режиссёрскую задумку.

Подключение лор

Перейти к видео

Подключаются в промпт моушен лоры так же просто как и обычные, открываете вкладку Lora, и просто кликайте на лору с желаемым эффектом. Вес рекомендуется поставить 0.7, на высоком весе будет больше артефактов, но вы вольны с этим экспериментировать. Посмотрим как работают лоры на примере с девушкой и салютом из начала публикации, я не буду менять запрос, только подключу по очереди разные лоры на движение. Не забудьте переключить Closed loop в режим N, чтобы получить больше движения при использовании лор.

Zoom In - приближение

Перейти к видео

Zoom Out - отдаление

Перейти к видео

Pan Down - смещение вниз

Перейти к видео

Pan Up - смещение вверх

Перейти к видео

Pan Left - смещение влево

Перейти к видео

Pan Right - смещение вправо

Перейти к видео

Rolling Anti-Clockwise - вращение против часовой стрелки

Перейти к видео

Rolling Clockwise - вращение по часовой стрелке

Перейти к видео

Самые крутые конечно это приближение и отдаление, некоторые портят композицию и надо поиграться с весом, потому что смещение влево заметно меньше, чем на том же весе смещение вправо, но в целом это фантастический инструмент для творчества доступный теперь и локально.

Секреты и советы

Используйте простые промпты. Моушен модель обучалась на видео из дата сета WebVid-10M, я приведу парочку примеров пар видео - описание, чтобы вы имели представление.

Перейти к видео

Lonely beautiful woman sitting on the tent looking outside. wind on the hair and camping on the beach near the colors of water and shore. freedom and alternative tiny house for traveler lady drinking.

Перейти к видео

Billiards, concentrated young woman playing in club

И вот так вот целый дата сет, где-то ролики с быстрой сменой кадров и описанием в одно предложение, а где-то практически статичные с большим художественным описанием. Так что если вы думали, что можно будет задать например конкретное движение машины в вашем видео, или еще какие-то более конкретные значения, то скорее всего у вас ничего не выйдет. Используйте более "художественные описания".

Не превышайте 16 кадров. Модель тренировали на видео из 16 кадров, поэтому не смотря на все костыли, видео длиннее все равно будут дергаться.

Не используйте несколько лор одновременно. Каждая лора добавляет больше шума и в результате мешает работе моушен модели, то же самое касается и контролнета, его можно использовать, но каждый слой будет уменьшат движение.

Если на вашем видео проявляется логотип шаттерстока, то проработайте негативный промпт или поменяйте негативный эмбединг. Особенно это заметно при использовании моушен лор, и не всегда удается решить до конца на этапе генерации.

Используйте Topaz Video AI. Все видео в посте прогнаны с такими настройками:

Все, что вы любите - работает! Вы можете использовать с этим расширением ControlNet, и Hires. fix, но не советую ставить больше увеличение больше чем в 1.3-1.5, даже на мощных видеокартах. Вы можете использовать ADetailer, но делать этого не стоит, потому что будет нежелательная на видео шевеленка даже с низким деноизнгом. Вы можете использовать любой фейсвап и сделать что-то подобное со своим лицом:

Ну и конечно экспериментируйте с моделями, не все одинаково хорошо работают, на некоторых есть странная серая дымка, но большинство топовых моделей с цивита отлично себя показали.

Перейти к видео

Друзья, а на этом у меня все, из этого гайда вы узнали как создавать короткие анимированные ролики из своих генераций, поняли как работает технология, познакомились с моушен лорами и теперь можете самостоятельно создать небольшую короткометражку, или даже что-нибудь по круче. Делитесь своими результатами в комментариях и в нашем чатике нейро-операторов.

Я рассказываю больше о нейросетях у себя на YouTube, в телеграм, на Бусти, буду рад вашей подписке и поддержке. До встречи на стримах, ближайший уже в понедельник, подпишитесь чтобы не пропустить.

Всех обнял, Илья - Nerual Dreming.

Показать полностью 7 17
[моё] Искусственный интеллект Нейронные сети Stable Diffusion Арты нейросетей Гайд Видеомонтаж TikTok YouTube Видео Без звука Длиннопост
40
91
Nerual.Dreming
Nerual.Dreming
Видеомонтаж

От Текста к Видео: Как Sora, Новое Детище OpenAI, Создателей ChatGPT, Преобразит Индустрию видео контента?⁠⁠

1 год назад
Перейти к видео

Друзья, всем привет! Сегодня я расскажу вам о новом чуде технологий от ребят из OpenAI. Знакомьтесь — Sora, искусственный интеллект, который умеет делать видео по вашему текстовому описанию. Да-да, вы не ослышались: напишите ему, что вы хотите видеть, и он это создаст. Волшебство? Почти. Давайте разбираться, что за зверь такой этот Sora и почему это круто. Ведь все видео в этой статье сделаны с помощью искусственного интеллекта.

Перейти к видео

Что Такое Sora?

Sora — это не просто очередная ИИ-игрушка. Это серьезный шаг вперед в области искусственного интеллекта. OpenAI научили свою новую модель превращать текстовые инструкции в видео. И не просто какие-то видео, а реалистичные и детализированные сцены, выполненные точно по вашему запросу.

Перейти к видео

Зачем Это Нужно?

Представьте, что вы хотите объяснить кому-то что-то сложное, или у вас в голове родилась фантастическая идея для короткометражки. Вместо того чтобы часами рисовать эскизы или пытаться найти подходящие изображения, вы пишете текст, а Sora превращает его в видео. Это открывает бесконечные возможности для обучения, творчества и развлечений.

Перейти к видео

Как Это Работает?

Sora использует технологию, похожую на то, как работает ваш мозг, когда вы мечтаете: берет кучу информации (в данном случае текст), и на ее основе строит визуальные образы. Но, в отличие от нас с вами, Sora делает это с помощью алгоритмов и большого количества данных, на которых она обучалась.

Перейти к видео

Возможности и Ограничения

Sora умеет создавать видео длительностью до минуты, соблюдая при этом все ваши указания. Это может быть что угодно: от простой сцены с двумя персонажами до сложной сценки с детально проработанным фоном.

Перейти к видео

Однако, как и любая технология, Sora не идеальна. Ей сложно справляться с очень сложными физическими сценами и иногда она может запутаться в деталях. Например, если вы попросите ее показать, как персонаж кусает печенье, она может забыть оставить след от укуса.

Перейти к видео

Безопасность Превыше Всего

OpenAI серьезно подходят к вопросу безопасности. Прежде чем Sora станет доступна широкой публике, ее тестируют на предмет различных рисков: от дезинформации до предвзятости. Команда разработчиков работает над созданием инструментов, которые помогут обнаруживать и фильтровать потенциально вредоносный или вводящий в заблуждение контент.

Перейти к видео

Зачем Все Это Рассказываю?

Потому что Sora — это не просто новый ИИ. Это шаг к будущему, где технологии помогают нам реализовать самые смелые идеи. Сегодня это видео по текстовым описаниям, завтра — кто знает? Может, полноценные фильмы на основе наших снов?

Перейти к видео

OpenAI открывает нам окно в будущее, где границы между воображением и реальностью стираются. Sora — это только начало. Представляете, что будет дальше?

Так что следите за новостями, экспериментируйте и не бойтесь мечтать. В мире ИИ наступают захватывающие времена, и каждый из нас может стать частью этого приключения.

Перейти к видео

Почитать подробнее про Sora можно на официальной странице OpenAi. Пишите в комментариях, как думаете сделают ли модель открытой, или она будет доступна только за пару десятков баксов?

Я рассказываю больше о нейросетях и делюсь иллюстрациями у себя на YouTube, в телеграм и на Бусти. Буду рад вашей подписке и поддержке. Всех обнял.

Перейти к видео
Показать полностью 10
[моё] Искусственный интеллект Нейронные сети ChatGPT Тренд Будущее Видеомонтаж Stable Diffusion Компьютерная графика Digital Киберпанк Инновации Видео Без звука Длиннопост Анимация Генерация Фотография
28
45
neurogenerated
neurogenerated
Видеомонтаж
Серия Полезные и интересные нейросети

Stable Video Diffusion - генератор видео у вас на ПК. Портативная версия⁠⁠

2 года назад

Всем привет с вами Neurogen, думаю, с момента релиза, уже многие знакомы со Stable Video Diffusion или хотя бы слышали - модель, позволяющая локально, у вас на ПК, генерировать короткие видео из изображения или же по текстовому промпту.

Перейти к видео

Сегодня на обзоре будет версия img2vid, создающая видео на основе изображения. Для комфортной работы понадобится видеокарта Nvidia с количеством видеопамяти не менее 16 гигабайт. Если у вас меньше, но приличное количество оперативной памяти - вы тоже можете попробовать, но главное обновите драйвер до последней версии.

Интерфейс программы достаточно простой и по факту процесс генерации заключается в двух действиях:

Stable Video Diffusion - генератор видео у вас на ПК. Портативная версия
  • Прикрепить изображение

  • Нажать Generate

Но, здесь есть и дополнительные настройки.

Seed - по умолчанию, каждая попытка выдает рандомный результат. Если вы хотите повторить попытку, используйте один и тот же seed

Number of frames decoded at a time - Параметр, который должен влиять на скорость работы, но по факту его влияние не так ощутимо. Для уменьшения потребления видеопамяти рекомендуется выставить на 1

Number of frames in video - Количество кадров в видео. Параметр экспериментальный и работает нестабильно, лучше оставить как есть

Motion bucket id - влияет на количество и тип анимаций в видео.
Frames per second - FPS, сколько кадров в секунду будет у вашего видео

Получившиеся результаты сохраняются в папку outputs

Перейти к видео
Перейти к видео

Портативная версия отличается тем, что всё уже готово для работы, вам не надо устанавливать Python, Cuda и т.д. - качаете, распаковываете и запускаете.

Скачать архивом и через torrent можно тут:

Скачать
Качаете все файлы, затем распаковываете архив который заканчивается на 001. Остальные файлы подтянутся сами, другие архивы распаковывать не надо. Затем просто запускаете start_portable_nvidia.bat и ждете когда откроется вкладка с WebUI в браузере. Если этого не произошло то просто откройте сами адрес http://127.0.0.1:7860

Что же касается генерации по текстовому промпту - релиз данной версии будет в моем Телеграм канале. Также там можно найти и другие портативные сборки различных нейронок.

А если захочется обсудить данную сборку или же просто пообщаться на тему ИИ, то вступайте в наш чат.

Показать полностью 1 2
[моё] Нейронные сети Видеомонтаж Гайд Компьютерная графика Арты нейросетей Stable Diffusion Видео Без звука Длиннопост
14
31
Nerual.Dreming
Nerual.Dreming
Stable Diffusion & Flux

Deep Fake в 1 клик локально и в коллабе! Улучшаем результаты с помощью нейронки Vlad Diffusion! Расширенная видео инструкция⁠⁠

2 года назад

Всем привет, в этом видео рассказываю про то, как любой сможет делать дип фейки (замену лиц) на видео в один клик, все что вам понадобится это само видео и одна фотография. Так же мы поставим Vlad Diffusion, с помощью которого многократно улучшим качество созданных дипфейков.

🔽🔽🔽🔽

Подробная инструкция со всеми ссылками - https://github.com/Nerual-Dreming/Nerual_notes/blob/main/Dee...

🔼🔼🔼🔼

Курс по нейронной сети Vlad Diffusion, от устоновки до апскейла https://neurophotograph.ru/vladdiffusion

Эксклюзивы для подписчиков, записи стримов, секретные гайды, доступ в закрытый чат и многое другое только на бусти - https://boosty.to/neuro_art

Хотите быть в курсе всех нейро-новостей? Подписывайтесь на мои телеграм каналы по волшебной ссылке - https://t.me/addlist/LQ-fUTyhVjEzYjIy

Показать полностью
[моё] Stable Diffusion Нейронные сети Арты нейросетей Искусственный интеллект Deepfake Видеомонтаж Инструкция Гайд Видео YouTube
4
27
Neural.Academy
Neural.Academy
Stable Diffusion & Flux

Путешествие в параллельные миры с помощью Stable Diffusion⁠⁠

2 года назад
Перейти к видео

Не самый крутой пример работы нейронки, но как концепт демо сгодится. Хочу чтобы когда-нибудь подобная технология была встроена в глаз и можно было бы гулять по своему району в оформлении из разных эпох.

Создано с помощью Stable Diffision + ControlNet + Ebsynth

В img2img закидывается 1 кадр в секунду. Обрабатывается с помощью контролнета с помощью карты глубины, затем обработанные кадры передаются в Ebsynth для накладывания на оригинальное видео.

__

Мой канал с гайдами по нейросетям. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.

Показать полностью
Нейронные сети Stable Diffusion Обучение Арты нейросетей Цифровой рисунок Digital Видеомонтаж Видео Без звука
5
21
luckymanbest
luckymanbest
Stable Diffusion & Flux

Оригинал vs AI⁠⁠

2 года назад
Перейти к видео

Источник Киберпалитра

Нейронные сети Арты нейросетей Digital Вертикальное видео Девушки Видеомонтаж Stable Diffusion Видео
0
18
wonderlove
wonderlove
Создание музыки
Серия Нейро-Звук

Подборка бесплатных онлайн сервисов и плагинов для работы со звуком!⁠⁠

2 года назад

Всем привет! В этой короткой, но полезной статье покажу самые крутые ИИ-сервисы для работы со звуком, готовьте чай и печенье, поехали!

AI Splitter

Эта нейросеть поможет вам отделить голос от минусовки и разделить любой трек на 4 дороги: vocals, melody, bass, drums. Очень полезная штука для тех, кто пишет музыку/ремиксы. Ниже представил аналоги:

Splitter AI

Ultimate Vocal Remover

Musicfy

Musicfy очень качественно преобразует ваш голос в любой из предложенных на сайте инструментов: от дудука до барабанов. Либо вы сможете превратить свой мужской бас в женское сопрано, но и на этом функционал не заканчивается: в платной подписке можно тренировать и свои собственные модели. Точно пригодится в саунд-дизайне!

Mangio RVC Fork

Тренировка моделей с вашим голосом для создания каверов или других целей. Ставьте плюсы и расскажу в следующей статье про эту нейросеть подробно!

AI Генератор музыки от Stable Audio

Этот инструмент, как и известный вам AudioCraft, позволяет генерировать музыку на основе текстовых подсказок. Это позволит пользователям создавать собственные композиции без необходимости обладать музыкальными знаниями и навыками.

Mubert

Ещё один онлайн сервис для генерации музыки либо звуков. По опыту получаются очень даже неплохие наброски, из минусов - чтобы получить права на генерацию, нужно купить подписку. Так же в сервисе можно искать похожие треки по YouTube ссылке, рекомендую попробовать(вкладка Search by reference)

Soundraw

Одна из передовых нейросетей. Она даёт вам возможность не просто внести ключевые слова, описывающие будущую мелодию, но и задать жанр, настроение и другие характеристики. Программа предлагает десятки вариантов, которые вы можете дорабатывать по мере необходимости.

GOYO

Про этот плагин я говорил в прошлой статье и использовал его неоднократно ещё в нескольких. Очень полезная вещь для геймдева и монтажа - уберёт шумы атмосферы, комнаты, реверберацию и эхо с вашего голоса. Очень крутой VST аналог, который использую очень часто - Clarity от Waves

Imaginary Soundscape

Экспериментальная программа, создающая звуки и мелодии на основе загруженной картинки. Она может быть абсолютно любой, включая фон и подложку. ИИ сам выбирает конкретные ландшафты и накладывает на них звуки, предлагая пользователям 3Д экскурсию, сопровождающуюся определёнными звуковыми эффектами.

Интересна тема генерации музыки с помощью нейросетей? Добро пожаловать в Нейро-Звук🔉

Понравилось? Тогда милости прошу в мой телеграм канал, буду ждать тебя там!🔥

Показать полностью 9
[моё] Искусственный интеллект Нейронные сети Stable Diffusion Арты нейросетей Гайд Полезное Арт Digital Технологии Музыка Саунд-дизайн Саундтрек Монтаж Видеомонтаж Длиннопост
2
17
Neural.Academy
Neural.Academy
Stable Diffusion & Flux

Нейросеть превратила 2D в 2.5D⁠⁠

2 года назад
Перейти к видео

Чуть менее 2.5Dэшная версия:

К сожалению автор не поделился подробным пайплайном, но обещал сделать это позже. Выглядит как много ручного труда и связка сд+контролнет+эбсинк.

Нейронная академия - мой канал с гайдами по нейросетям. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.

Нейронная эстетика (источник) - канал где выкладываю сгенерированные картинки и видео и рассказываю как это сделано.

Показать полностью 1
Нейронные сети Stable Diffusion Видеомонтаж Обучение Видео YouTube Повтор
4
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии