
Stable Diffusion для ЛЛ
24 поста
24 поста
Авторы плагина начали рассылать доступ людям которые ранее зарегистрировались в лист ожидания. Так же поддержать разработку и получить доступ можно подписавшись на Патреон проекта. Ссылка на сайт проекта Pixel Lab.
_
Мой канал с гайдами по Stable Diffusion. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Канал Нейроновости - источник новостей о нейронках, подпишись чтобы не пропускать
_
Мой канал с гайдами по Stable Diffusion. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Нейронная эстетика (источник) - где выкладываю интересные генерации фото и видео и рассказываю как оно сделано.
Делаем DeepFake "в один клик". Видеогайд. Убираем фильтр цензуры, избегаем других проблем
Вчера на моем новостном канале вышел пост про то как сделать качественный DeepFake в один клик с одной фоткой. Приложил оф инструкцию. Но народ не разобрался, расписал инструкцию более подробно, потом пришлось добавить про запуск на видеокарте, затем появились колабы и это уже 4 разные инструкции. И все это набирало огромное количество плюсов. В наш чатик , залетела куча народа с проблемами при установке, помогал кому мог. Вы кстати тоже заходите.
Народу интересно.
Так что я пригласил Киану Ривза и решил сделать финальную инструкцию, в формате видеоролика где объединил все. А так же расскажу как убрать цензуру которую завезли в последних обновлениях, избежать тех проблем которые возникали у людей и запустить это в колабе.
__
Мой канал с гайдами по SD. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Канал Нейроновости - источник новостей о нейронках, подпишись чтобы не пропускать
Посмотреть подсказки к работам и скачать модель можно, как обычно, на Сivitai.
Пара работ в большем разрешении:
Канал Нейронная эстетика - где публикую самые интересные работы нейросети и рассказываю как это сделано.
Мой канал с гайдами по Stable Diffusion. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Все инструкции как сделать, есть в родительском посте.
__
Мой канал с гайдами по Stable Diffusion. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Канал Нейроновости - источник новостей о нейронках, подпишись чтобы не пропускать
Мне наконец-то удалось запустить это на видеокарте и это быстрее в офигеть сколько раз, примерно раз в 20 (на 3080) и не кушает все ресурсы компа. Рассказываю:
По просьбам добавил пример как оно работает, для тех кто не видел прошлые посты:
Во-первых, вам нужно выполнить все действия в первой инструкции.
Нужно обновить скрипт. Для этого идем в папку с установленным скриптом и оттуда как рассказывал ранее запускаем командную строку. Напишите git pull. Энтер. Скрипт будет обновлен.
3. Нужно скачать CUDNN (прямая ссылка на нужную версию 8.5), но понадобится залогиниться. Ссылку без логина я потерял, если у вас есть дайте. Я заменю. Делаем так же как ранее с ffmpeg. Распаковываем туда где не мозолит глаза, копируем путь до папки bin. У меня вот так G:\cudnn-windows-x86_64-8.5.0.96_cuda11-archive\bin.
3.1 Нажмите Win+R. В появившееся окно введите systempropertiesadvanced. Энтер.
3.2 Жмем "Переменные среды"
Дважды нажмите на Path
Нажмите Создать. И вставьте путь до CUDNN который мы копировали.
Нажимаем на всех окнах ОК.
4. Скачиваем CUDA toolkit версии 11.6 и устанавливаем как обычную программу.
5. Просто на всякий случай перезагружаем ПК. Или нет, как хотите.
6. Откройте командную строку в любом месте и последовательно впишите 3 команды, без кавычек, после каждой жмем энтер и ждем окончания:
"pip uninstall onnxruntime onnxruntime-gpu"
"pip install torch==2.0.0+cu118 torchvision==0.15.1+cu118 torchaudio==2.0.1 --index-url https://download.pytorch.org/whl/cu118"
"pip install onnxruntime-gpu"
7. В папке со скриптом создайте текстовый документ. Переименуйте его во то-то типа startGPU.bat. Внутри напишите следующее "python run.py --gpu --max-memory 10000" где 10000 это количество оперативной памяти которое вы готовы выделить под процесс. У меня всего 16. Я поставил 10.
8. Теперь можно запускать файл strartGPU.bat и все должно летать.
Если в процессе у вас возникли какие-то проблемы, то можете попробовать найти ее на гитхабе проекта. Или попросить помощи в нашем чатике по нейронкам.
__
Мой канал с гайдами по SD. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Канал Нейроновости - источник новостей о нейронках, подпишись чтобы не пропускать
Все благодаря ребятам которые создают просто лучшее расширение под названием ControlNet.
Прочитать про новый метод и посмотреть на сравнение с Adobe Fyrefly и методом без ControlNet можно вот тут. А главное вы никогда не получите сообщение о том что контент был удален потому что нам кажется что там сися и бла-бла-бла.
Еще пример с первым что мне попалось под руку.
В запросе window
Мои настройки:
Чтобы заиметь себе такой инструмент мы можете установить Stable Diffusion по моей видео инструкции. А затем сам контролнет по текстовой инструкции с пикабу.
__
Все мои гайды можно найти на канале, где обучаю с нуля и до самостоятельного обучения моделей на своих изображениях
Многие не разобрались как установить, но очень хотят, а потому инструкция для Windows. Понадобится установить множество сопутствующего софта. Я его и так уже использую. И мне это ок. Для себя смотрите сами. Так же скрипт требует довольно много оперативной памяти. У меня 16, но при нехватке он использует файл подкачки. У меня он на ссд м2 что ускоряет процесс.
1. Скачиваем python (прямая ссылка на нужную версию) и устанавливаем как обычную программу. Если ваше имя пользователя содержит кириллицу в начале поменяйте путь установки на тот который ее не содержит. И важно. Поставьте галочку Add to PATH. В остальном просто нажимайте далее.
2. Скачиваем и устанавливаем Git. Просто на всех окнах нажимаем далее, ничего не меняем.
3. Скачиваем ffmpeg. Распаковываем архив туда где он не будет вам мозолить глаза. Копируем путь до папки bin. У меня вот так "D:\ffmpeg-master-latest-win64-gpl\bin".
3.1. Нажмите Win+R. В появившееся окно введите systempropertiesadvanced. Энтер.
3.2 Жмем "Переменные среды"
Дважды нажмите на Path
Нажмите Создать. И вставьте путь до ffmpeg который мы копировали.
Нажимаем на всех окнах ОК.
4. Устанавливаем Visual Studio. Рекомендуют 14ю. Но у меня стоит последняя вроде как 17я и все работает.
В процессе установки вас попросят выбрать нужные модули. Поставьте галки на C++ и на Python, как на скрине ниже. Затем внизу нажмите Установить.
Почти всё.
Перейдите в папку где хотели бы чтобы лежали файлы программы. Выделите путь. Вместо него впишите cmd. Энтер. Запустится командная строка.
Далее вводите команды по одной, нажимая энтер и дождавшись окончания прогресса.
git clone https://github.com/s0md3v/roop
cd roop && pip install -r requirements.txt
Консоль пока не закрывайте. Скачайте файл, и поместите его в новообразовавшуюся папку roop. Если он имеет имя отличное от inswapper_128.onnx. Переименуйте. Если в вашей системе не показываются расширения файлов он может быть просто inswapper_128.
Возвращаемся в консоль. Пишем python run.py. Энтер. Впоследствии это все что вам нужно будет делать для запуска. Перейти в папку, запустить из нее консоль и написать python run.py. Программа запустится. Выбираете фото лица, видео. Не используйте кириллицу в именах файлов. Запустите прогресс. Перед этим рекомендую закрыть все ненужные да и нужные программы потому что программа кушает очень много оперативной памяти и чем ее больше свободной тем быстрее будет процесс. Нехватку она компенсирует файлом подкачки.
Так же скрипт можно запустить и на видеокарте, что сильно ускоритт процесс генерации, но несмотря на все выполненные мной инструкции у меня этого сделать пока не вышло. Инструкция для этого вот тут, но с этим пока у многих проблемы.
__
Мой канал с гайдами по SD. Где бесплатно обучаю с нуля и до самостоятельного обучения моделей.
Канал Нейроновости - источник новостей о нейронках, подпишись чтобы не пропускать