Dmitriy.yiu

Dmitriy.yiu

Повернутый на нейросетях энтузиаст, инноватик и стэблист https://t.me/neuro_yiu Дмитрий Чаплинский — https://vk.com/dmitriy_yiu
Пикабушник
Дата рождения: 17 мая 2001
поставил 215 плюсов и 2 минуса
отредактировал 0 постов
проголосовал за 0 редактирований

RTX 4090

Что может быть лучше видеокарты?

0 129 000
из 129 000 собрано осталось собрать
1086 рейтинг 118 подписчиков 9 подписок 34 поста 13 в горячем

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Перед прочтением предупрежу, что в гайде будет очень много повторений слова "пиксель", учтите это перед ознакомлением, пожалуйста.

В последнее время очень увлекся стилем synthwave VHS, даже для прошлого поста про художников замутил обложку, придерживаясь всех канонов. Досконально разобрал стиль и заболел им — так появилась эта инструкция.

Что нам понадобится?

Героем программы сегодня станет Adobe Photoshop. А в напарники к нему пойдет черно-белый исходник моего логотипа. Цветные варианты тоже подойдут, скажу пару слов об этом в конце.

Перейдем к практике

Для начала создадим черную заливку и загрузим логотип в Photoshop — кадрируем под нужное нам соотношение сторон и располагаем там, где нужно. Пока выглядит совсем не олдово, но мы это исправим :]

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Затем дублируем слой с логотипом и преобразуем его в смарт-объект (Convert to smart object) — так мы можем в любой момент корректировать изменения и параметры наложенных фильтров. Для преобразования клацкаем ПКМ по слою и ищем нужный пункт меню.

Далее кликаем два раза ЛКМ по копии слоя и выбираем наложение цвета (Сolor overlay) — заливаем синим. Нужно это для того, чтобы затем добавить хроматические аберрации ЭЛТ-монитора.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Скопированный слой переносим ниже и нажимаем на стрелки на клавиатуре три раза влево и два вверх. После данной операции в окне эффектов выбираем размытие по Гауссу (Gaussian blur).

Интенсивность эффекта выставляем на 20%, а непрозрачность слоя выбираем 65%.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Снова дублируем слой и в наложении цвета выбираем бирюзовый, непрозрачность которого должна стоять на 30%, а радиус размытия на 110%. Получиться должно примерно следующее:

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Далее самое интересное — создание пикселей и их наложение по всему кадру. Делать их мы будет вручную, ибо в интернете ни один исходник не подойдет. Что для этого нужно? Ну, во-первых, создать новый файл (11 на 8 пикселей) с прозрачным фоном, а во-вторых, нарисовать эти самые пиксели с помощью фигуры прямоугольник. Файл, думаю, создать без подсказок сможете, а вот про пиксели подробнее расскажу.

На самом деле все просто — пугаться не стоит.

В новом файле мы рисуем прямоугольник (3 на 6 пикселей) с помощью инструмента, собственно, прямоугольник (Rectangle), после чего скругляем углы на 1.5 пункта —это даст нам имитацию тех самых старых пикселей и добавит реализма: будто снято на реальную камеру.

Так вот, созданный прямоугольник со скругленными гранями мы красим в красный, затем дублируем — заливаем зеленым, а потом и синим. Все, мы получили пиксель из трех цветов.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Из прекрасного трехцветного рисунка делам узор, который потом сможем наложить на логотип. Что нужно? Заходим в пункт редактирование (Edit) — определить узор (Define pattern). Называем его, как душе угодно, и возвращаемся к логотипу.

Закрываем страницу с прямоугольниками без сохранения.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Вернувшись, создаем новый слой, выделяем его, клацаем по разделу редактирование (Edit) — выполнить заливку (Fill). В открывшемся окне ставим параметры, как у меня.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Ниже тоже повторяем за мной. Можете пробовать экспериментировать с масштабом узора до единицы — так структура пикселей будет более проработанная, а картинка перестанет рябить.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Вот у нас создастся сетка из пикселей под логотипом, но нам ведь не нужна такая каша, правильно? Правильно!

Чтобы кашу расхлебать, мы выделяем три слоя логотипа и преобразуем в смарт объект (smart object). Далее с зажатым CTRL кликаем по слою с пикселями — они должны выделиться — нажимаем на слой с лого и создаем для него маску.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Мы на финишной прямой, не засыпать!

Перемещаем слой с пикселями наверх и наводим курсор между слоями логотипа и RGB, с зажатым ALT смело клацаем ЛКМ — так сетка старинных лампочек будет отображаться только там, где есть логотип.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Для лучшего эффекта дублируем слой с сеткой пикселей и перемещаем вниз — ставим непрозрачность на 10%. У старых телевизоров всегда видны пиксели, поэтому важно их отобразить. Не менее важно размыть логотип на 9% по Гауссу — так мы добьемся неравномерности подсветки, прям как у старых телевизоров!

Также непрозрачность верхнего слоя (который прикреплен к логотипу) переводим на 65% — это уберет чрезмерную рябь и добавит читаемости.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Дополнительно я исказил картинку с помощью (Lens distortion), ибо ЭЛТ-экраны все немного выгнутые. Сочетанием клавиш (CTRL + ALT + SHIFT + E) объединяем слои и заходим в фильтры (Filters) — фильтр Camera raw (Camera RAW filter) — повторяем за мной.

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Нет ничего идеального, подумал я, но все же решил кривыми (Curves) прибавить изображению яркости. Выделяем верхний слой и жмем (CTRL + M).

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Цель достигнута :3

Кстати, с цветным изображение работает также прекрасно. Единственное, нужно будет выставить режим наложения у сетки пикселей на линейный затемнитель (Darker color).

Как сделать эффект пикселей CRT-screen (ЭЛТ-монитора) в Photoshop Арт, Photoshop, Ретро, Эффект, Обработка фотографий, Pixel Art, Классика, Digital, Длиннопост, Уроки фотошопа

Congratulations, вы справились!

Теперь кто-то умеет воспроизводить эффект CRT-screen с помощью Photoshop :3

Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо дизайна и генерации изображений с помощью нейросетей.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 14

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль Stable Diffusion, Нейронные сети, Арты нейросетей, Искусственный интеллект, Game Art, Digital, Цифровой рисунок, 2D, Рисунок, Фурри, Furry Art, Длиннопост

Друзья, как много вы создали картинок с помощью нейросетей? А задумывались ли вы над тем, насколько сгенерированное вами творчество отличается от работ реальных художников? Многие нейронщики считают, что искусственный интеллект делает их особенными, но это совершенно не так. Любая технология имеет свой цикл зрелости, так называемую кривую хайпа.

Кривая Гартнера – это графическое отображение цикла зрелости технологий, представляющего собой поэтапный процесс, через который проходит любая инновационная бизнес-модель или технология от стадии хайпа до продуктивного использования.

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль Stable Diffusion, Нейронные сети, Арты нейросетей, Искусственный интеллект, Game Art, Digital, Цифровой рисунок, 2D, Рисунок, Фурри, Furry Art, Длиннопост

Так вот, эта кривая показывает, насколько технология сейчас на слуху, насколько она обсуждаема. Как только что-то приходит к нам на рынок, то сразу попадает в инфополе, где подвергается ажиотажу. Поначалу новый продукт действительно доступен лишь единицам — пионерам, однако за ними следует раннее большинство, а затем и все остальные пользователи.

Кстати, можете найти на графике генеративный ИИ и предположить, где он находится сейчас :]

Пакуем чемоданы, господа нейронщики... Или улучшаем свой вкус?

Бесполезно обманывать себя, вы же понимаете, что художники так или иначе освоят инструменты нейросетей, это обязательно случится — и они зададут планку, которую вы не сможете преодолеть, если ничего не поменяете. Миллион картинок с ущербными руками и артефактами станут никому не нужны... Как жаль.

Представьте калькулятор в первое время его появления. Вот вы его получили первыми, радуетесь, считаете быстрее всех, имеете временное и технологическое преимущество. На затем калькулятор покупают и другие, в том числе профессоры и реальные ученые. Что случится? Правильно, случится экзистенциальный кризис.

Но я же, я же! У меня был калькулятор, ненавижу! Ррр-ррр...

Изобретение выйдет на плато своего цикла — поступит в широкие массы.

Да лучше бы эти художники не появлялись! Придется работать.

Рычать, как вы понимаете, бесполезно, нужно работать ежедневно и учиться новым стилистическим приемам, осваивать Photoshop, скетчинг, рисование, моделинг, текстурирование, фотографию и т.д.

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль Stable Diffusion, Нейронные сети, Арты нейросетей, Искусственный интеллект, Game Art, Digital, Цифровой рисунок, 2D, Рисунок, Фурри, Furry Art, Длиннопост

Проблема заключается в том, что у нейронщиков нет своего workflow. Большинство просто вбивают промпт, получают картинку и отправляют ее дальше: вау, как прикольно выглядит! Оу, тут артефакт, блин, а тут нет руки... Ну ладно, никто, наверное, не заметит, выложу так!

Заметит, точно вам говорю.

99,9% работ нейронщиков незакончены. 99% созданы без понимания стиля и вкуса, а 95% просто удачно получились, поэтому выложу-ка я ее в свой телеграм-канал.

Что же делать? Как не остаться на галерке истории? Как мыслить правильно и наперед.

Вспомните превьюшку этой статьи. Да, сгенерирована она с помощью ИИ, но только ли? Нет, не только.

Для начала я разобрал желаемый стиль по полкам, не забыв ни единой детали. Есть эффект электронно-лучевого дисплея? Записываю. Имеются хроматические аберрации? Так, хорошо, нейронка их не сделает, поэтому придется допиливать в Photoshop. Хм, хроматические аберрации только синего цвета, хорошо! Воу, они еще и имеют эффект размытия. Ах, да, это же электронно-лучевая трубка, она все освещение размывает.

Таким макаром вы должны расписать каждую деталь. Будет сложно, будет долго — поначалу. Но чем больше вы будете знать, видеть и чувствовать, тем лучше получится результат. Не забывайте про изучение Photoshop, это тоже очень важно. Многое Stable Diffusion не умеет и еще долгое время не научится.

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль Stable Diffusion, Нейронные сети, Арты нейросетей, Искусственный интеллект, Game Art, Digital, Цифровой рисунок, 2D, Рисунок, Фурри, Furry Art, Длиннопост

И еще кое-что: учите пре-продакшн — подготовку к основной работе. Ведь чем лучше вы, например, соберетесь в поход, тем вероятнее, что это, во-первых, поможет вам выжить, а во-вторых, принесет удовольствие. Вы уже собрали свой рюкзак?

Где черпать вдохновение?

Все банально и просто. Что вам нравится — то и пытайтесь повторить. Схема рабочая, как швейцарские часы! Лично мне доставляет кайф листать Behance, ходить в Красноярский театр Пушкина, смотреть часами на птиц, изучать устройство гиперкаров, через книги постигать старинную архитектуру.

Что-то из этого я пытаюсь совместить с современным искусством, что-то переизобрести, где-то добавить отсебятины. Но прежде стоит научиться играть по правилам, а уже потом их нарушать, поэтому первостепенная задача — скопировать оригинальный стиль.

Признаюсь честно, сам только недавно начал придерживаться такого workflow, но он уже дает потрясающие результаты. С таким подходом можете быть уверены, что и модели LoRA ваши будут одними из лучших, и генерации понравятся аудитории.

Почему Stable Diffusion, Midjourney и другие модели — это не волшебные таблетки. Для чего нам художественные навыки, насмотренность и стиль Stable Diffusion, Нейронные сети, Арты нейросетей, Искусственный интеллект, Game Art, Digital, Цифровой рисунок, 2D, Рисунок, Фурри, Furry Art, Длиннопост

Рисуйте то, от чего получаете кайф! Изображение создано на основе стиля Джеймса Феннера.

В заключение

Друзья, перестаньте хвастаться калькулятором. Технология диффузиозных моделей по типу Stable Diffuion будет развиваться дальше, и очень стремительно, поэтому нет смысла цепляться за нее сейчас, как за что-то нереальное. Вместо этого развивайте мозги, навыки и чувство стиля. И soft-skills, конечно же, без них сейчас вообще никуда.

Помните: вас заменит не ИИ, а люди, умеющие им пользоваться лучше вас.

В благодарность

Огромное спасибо Джону Кормилицину за направление меня в нужное стилевое русло, а также его сообществу по теме CGI-графики, в котором я постоянно узнаю о новых фишках и приобщаюсь к комьюнити художников. Переходите и вы на светлую сторону, падаваны :]

Также вы можете посетить чатик по нейросетям, где можно очень лампово пообщаться и получить помощь от реально лучших спецов по Stable Diffusion и другим разным нейросеткам. У нас там и программисты есть, и дипфейкеры, и художники, и даже фотографы с монтажерами!

Показать полностью 4

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Посмотрел видео Хачатура по генерации широкоформатных изображений, но метод мне его показался не идеальным, так как маска, нарисованная вручную, часто давала артефакты по ее краям + приходилось рисовать ее руками, что не круто. Представьте, что вам нужно проработать все отверстия, неровности и т.п. Слишком долго и муторно.

В связи с этим я вспомнил про такое расширение, как depthmap2mask, которое само будет создавать маску, а нам останется лишь поправить мелкие косяки и выделить лицо.

Что нам понадобится?

Во-первых, установленный либо локально, либо в облако Automatic1111. Прикреплю ссылки на лучшие по моему мнению гайды, можете смело пользоваться. В случае проблем готов помочь в чате.

Также нужно поставить расширение depthmap2mask — устанавливается оно через раздел Extensions.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Собственно, это все, нам нужно лишь расширение и автоматик.

Перейдем к практике

Первым делом либо генерируем персонажа на каком-либо фоне, либо загружаем уже существующее изображение в раздел img2img. Я создам свою девчулю с нуля, поэтому перемещусь во вкладку txt2img.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Далее переношу ее в раздел img2img, где нам и понадобится применить скачанное расширение. Предупрежу, что модели из этого расширения будут скачиваться долго, поэтому запаситесь терпением.

Выбираем из представленных алгоритмов самый первый — dpt_beit_large_512, а уровень Denoising Strength выставляем на 0.

Еще нужно поставить галочку в пункте Invert DepthMap, чтобы предметы ближе были черными, а дальние белыми — так правильно, даже писал гайд на эту тему.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Как только все сделали, жмем Generate. У нас появится исходное изображение и его маска.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Переходим во вкладку Inpaint upload и наверх загружаем исходник, а вниз маску.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Далее кликаем по разделу Sketch, и перетаскиваем в него нашу карту глубины. Не забывайте отключить расширение, оно нам больше не понадобится. Кистью закрашиваем поля по бокам белым цветом, а лицо черным.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Теперь меняем нашу предыдущую маску на новую.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

И финальный штрих — ставим Resize mode на Resize and fill, чтобы края по бокам изображения заливались новым содержимым. Далее выставляем ширину нашего изображения, к примеру, на 1216 пикселей, а параметр Denoising Strength заменяем на 0,65 или выше. Если ставить деноиз ниже этого значения, то пиксели по краям будут растягиваться, что нам не подходит.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Вот, что получилось у меня во второй раз. Работает данный метод хоть на реалистичных фото, хоть на артах — совершенно без разницы.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Это изображение уже можно дорабатывать в разделе inpaint, выставив параметр Inpaint area на Inpaint masked. Вот что у меня получилось после обработки.

Принцип такой: вы закрашиваете сначала лицо — работаете с ним, затем перекидываете полученный результат обратно в Inpaint, после чего дорабатываете уже украшение на груди, и т.д.

Как быстро расширить границы изображения в Stable Diffusion, Automatic1111. Быстрый outpainting Stable Diffusion, Арты нейросетей, Нейронные сети, Digital, Искусственный интеллект, 2D, Гайд, Цифровой рисунок, Длиннопост

Для тех, кому интересно, стиль я использовал художницы Kelly Vivanco.

Congratulations, вы справились!

Теперь кто-то умеет расширять границы фото и генераций с помощью лучшего фреймворка для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 10

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Давно задавался вопросом, как генерировать одного и того же персонажа с нуля для тренировки LORA, чтобы потом без проблем воссоздавать его уже более точно, в разных стилях и обстановках.

Выявил я всего два метода: один для создания разных ракурсов и поз, а второй для замены фонов, освещения, углов съемки.

Занимает данная процедура считанные минуты, отчего я и решил написать гайд.

Ну а весь прикол в том, что я случайно поставил черную точку на скелет Openpose в ControlNet, когда редактировал позу персонажа с коллегой, и получил ту же самую тянку, но немного в другом ракурсе. Более того, с данным методом работает только модель Openpose, другие генерят шлак. Стандартный img2img тоже не подходит для этой задачи — результат всегда разный и непредсказуемый.

Вот как выглядел скелет до и после того, как я случайно поставил точку в редакторе:

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Что нам понадобится?

Во-первых, установленный либо локально, либо в облако Automatic1111. Прикреплю ссылки на лучшие по моему мнению гайды, можете смело пользоваться. В случае проблем готов помочь в чате.

Также нам нужен ControlNet с моделью openpose. Скачать все это вы можете по ссылке из моего телеграма — я собрал для вас все в одном месте, чтобы вы не носились по интернету.

Помимо этого я выложил все исходники, можете глянуть и поэкспериментировать на их основе.

Еще вы должны скачать эти две картинки. Да, именно их. Не делайте преждевременных выводов, пожалуйста.

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Перейдем к практике

Первым делом открываем Automatic1111 и подбираем промпт для нашего будущего персонажа. Рекомендую следующую структуру:

(furry cute fox woman:1.4), 21 years old, big eyeballs, big eyes, red demon eyes,
(cartoon:1.3), art, greg rutkowski,
ocean, water, splashes, cyberpunk, city
sun light, neon light, soft lights
medium shot

В первой строке мы описываем общие детали персонажа — его возраст, пол, телосложение и т.д. Далее задаем художественный стиль; затем общие детали окружения; после чего обозначаем освещение, колоризацию, насыщенность и яркость. Последним шагом объясняем нейронке, в каком ракурсе отображать нашего персонажа: в моем случае лисичка будет нарисована по пояс.

Сейчас мы будем работать во вкладке txt2img, чтобы создать как можно больше вариантов лисичек, дабы затем уже их поместить на разные фоны и под разное освещение.

Обратите внимание на мои настройки. Самое здесь интересное, что seed мы ставим на (-1) — это дает нереальную вариативность с сохранением главного персонажа. Для этого нам нужно в ControlNet выбрать модель Openpose и загрузить в нее нашу картинку, после чего клацнуть на Generate.

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Можем сразу поставить batch size на 10, чтобы получить больше результатов. И еще не забывайте про второе изображение, состоящее из шума (скачивали в начале статьи). Оно дает больше вариативности, но не всегда держит первоначальный образ. Советую поэкспериментировать! Просто меняете белый квадрат на шум.

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Как вы видите, уже сейчас они очень похожи, и каждую из них мы вправе сохранять и затем генерировать на разных фонах и при разном освещении, чтобы расширить дата-сет для тренировки модели.

Советую заранее подготовить стили, чтобы не трогать основной промпт. Я, к примеру, создал стиль для городской обстановки, моря, гор и поля с подсолнухами. Далее вы просто выбираете эти стили и получаете замененный фон.

Я взял одну из этих фурри и перенес во вкладку img2img. Настройки выставил следующие настройки:

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

На скрине ниже обратите внимание, что параметр Weight выставлен на 1.4 — так мы повышаем влияние нашего белого фигуличного квадрата, отчего позы будут максимально похожими на оригинал. Если поставить меньше, то позы меняются больше.

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Все, смело выкручивайте Batch size до 10 и расширяйте свой дата-сет! Так вы можете делать с любой фотографией, полученной в первой части во вкладке txt2img.

Сравнения результатов

Тестировал на разных нелепых квадратах, среди которых:

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Также пробовал генерировать похожих персонажей на шуме через вкладку img2img, но получалась фигня. Вроде и неплохо, но часто лисицы были вообще не похожи + на лице не было шерсти, а она была нужна! Это одно из главных условий, достичь которое удалось с помощью белого квадрата и ControlNet.

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

Вы можете сказать, почему не попробовал сделать позы и не сгенерить по ним через ControlNet? А я отвечу, что пробовал, и получалась также фигня без шерсти на лице + сама генерация шла очень долго, так как приходилось выставлять разрешение (2048 на 1024).

Как всегда генерировать одного и того же персонажа в Stable Diffusion, Automatic1111 Stable Diffusion, Искусственный интеллект, Арты нейросетей, Digital, Нейронные сети, Цифровой рисунок, Гайд, Длиннопост, Фурри

В общем, можете дискутировать в комментах, глядеть исходники, благодарить, если кому-то помог.

Congratulations, вы справились!

Теперь кто-то умеет генерировать одного персонажа в разных позах и ракурсах с помощью лучшего фреймворка для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 9

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

В последнее время стал замечать неудовлетворительное состояние Automatic1111, которое не позволяет работать долгое время, если оставаться на системе постоянных обновлений с Github. Это касается не только локальной версии, но и пространства Google Colab.

Однако сообщество и разработчики веб-интерфейса потихоньку начинают внедрять метод хэшей для того, чтобы можно было скачивать раннюю проверенную версию сборки, которая точно будет работать. Это позволяет не сносить каждый раз все файлы и не переустанавливать Automatic1111, что и время экономит, и сохраняет ваши расширения со всеми настройками.

Подготавливаем необходимое

Очень рекомендую скачать текстовый редактор кода Notepad++, чтобы по ходу гайда вы могли с комфортом повторять все шаги. Программа эта бесплатная, никак не засоряет вашу систему.

Также заранее откройте вкладку официального репозитория Automatic1111, он нам понадобится.

Перейдем к практике

Заходим в корневую папку Stable Diffusion и открываем с помощью Notepad++ файл webui-user.bat.

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

Нам с вами нужно найти следующую строчку: git pull origin master — она отвечает за автоматическое обновление Automatic1111 до последней версии. Перед ней ставим команду (rem), чтобы закомментировать строку и заблокировать ее функционал.

Ниже прописываем следующee: git checkout a9eab236d7e8afa4d6205127904a385b2c43bb24.

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

Набор букв и цифр — это хэш, или идентификационный номер сборки. Помните, я говорил в начале, что нужно открыть страницу с официальным репозиторием? Так вот, переходим на эту страницу, после чего клацаем на вкладку commits.

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

Перед нами отображается вся история обновлений, и мы можем копировать хэш любого из них, чтобы установить нужную нам сборку. Для этого нажимаем на иконку файлов, и хэш автоматически копируется. Также обратите внимание на надпись Verified, которая говорит нам о том, что сборка стабильна и одобрена разработчиком.

Как только вы будете уверены в том, что обновления пойдут стабильные, то можете убрать команду (rem) перед git pull origin master, и будет ставиться последняя сборка. Не забудьте удалить строку git checkout a9eab236d7e8afa4d6205127904a385b2c43bb24, либо поставьте перед ней тот же (rem).

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

Бонус

Вы можете прописать в том же файле webui-user.bat следующую команду, которая автоматом при каждом запуске будет чистить лишние файлы, которые со временем могут складываться в десятки гигабайт и засорять систему, а также тормозить сам Automatic1111.

Вот эта строчка: for /d %%i in (tmp\tmp*,tmp\pip*) do rd /s /q "%%i" & del /q tmp\tmp* & rd /s /q pip\cache.

Отключаем обновления Automatic1111 и ставим стабильную рабочую версию, чистим ненужные файлы Stable Diffusion, Искусственный интеллект, Нейронные сети, Github, Обновление, Гайд, Длиннопост

Congratulations, вы справились!

Теперь кто-то умеет поднимать с колен лучший фреймворк для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Заглядывайте в телеграм-канал, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Спасибо Руслану из нейронной академии за помощь в написании гайда и освещение данного метода!

Показать полностью 5

Размываем любую часть фотографии с помощью Stable Diffusion

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Где-то неделю я тестировал этот способ, чтобы выпустить лучший и единственный гайд по размытию любой части фотографии качественно и быстро. Уверяю вас, результат просто пушка! Все бесплатно, никаких Boosty или прочей дичи.

Я тестировал этот способ как на изображениях со сложными и мелкими объектами, так и на артах, предметной съемке. Вы можете мутить эффект Tilt-Shift объектива, имитировать Macro и много чего еще!

Подготавливаем необходимое:

Что нам понадобится? Во-первых, установленный либо локально, либо в облако Automatic1111. Прикреплю ссылки на лучшие по моему мнению гайды, можете смело пользоваться. В случае проблем готов помочь в чате.

Нам с вами нужен будет Photoshop, только в нем можно качественно провернуть то, что я хочу вам показать.

Также необходимо поставить расширение depthmap2mask, установить которое вы можете в разделе Extensions. Переходите в этот раздел, затем во вкладку Availble, и нажимаете кнопку Load from. После проделанных действий жмите "CTRL+F" и ищите расширение — затем Install.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Все, расширение установлено! Плюс его в том, что оно запустится на практически любом железе в отличие от Control Net, и результат будет лучше, поверьте. Находится оно во вкладке img2img, поле Scripts.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Все настройки выставляйте как у меня, чтобы не тратить свое драгоценное время! Его я уже за вас вложил в исследование и этот гайд — наслаждайтесь! Сразу скажу, в Photoshop размывается белая область, а черная остается резкой. Просто запомните это правило и всегда выбирайте пункт Invert DepthMap, когда юзаете расширение.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Перейдем к практике

Так, расширение установили, Photoshop запустили? Тогда переходим к магии! Как же я кайфую, ребят, столько времени потратил и все же добился своего, сейчас все увидите)

Первым делом закидываем изображение во вкладку img2img, после чего подгоняем ширину и высоту под исходник. В поле Scripts выбираем Depth aware img2img mask.

После ставим галочку у пункта Invert DepthMap, выключаем функцию Match input size и выбираем модель dpt_large — тут можете экспериментировать, но все же советую идти по моей инструкции.

Единственное, с чем можно поиграться — так это с параметром Contrast cut level. Он дает более резкие края у объектов и жестче отделяет их друг от друга.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

После подгонки ширины и высоты, а также выбора нужных параметров — нажимаете Generate. У вас должна получиться такая маска, которую мы вместе с исходным изображением должны закинуть в Photoshop.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Соблюдаем иерархию файлов для удобства, чтобы сразу видеть результат: закидываем маску под основное изображение.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Далее очень внимательно, друзья — самый сложный этап. Вы должны выделить маску (просто кликнуть на нее левой кнопкой мыши), нажать сочетание клавиш "CTRL + A", затем сразу же "CTRL + C", после чего перейти во вкладку Channels. Если у вас нет этой вкладки, то включите ее в разделе Window (этот раздел находится на верхней панели).

Во вкладке Channels кликаем на вот эту маленькую кнопочку (правый нижний угол).

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

После нажатия создастся слой под названием Alpha 1, а вместе с ним черное окно поверх изначальной картинки.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Выберите слой Alpha 1 и нажмите сочетание клавиш "CTRL + V". Вставится ваша маска, которую вы выделяли в самом начале. Вот, как должно быть у вас:

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Возвращаемся во вкладку Layers, нажимаем на первоначальное фото, зажимаем "CTRL + D", чтобы снять выделение. Телепортируемся в раздел Filter — Blur — Lens Blur.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Здесь должен быть включен пункт Set Focal Point, выбран источник Alpha 1, а также выставлен Octagon (8) — чтобы качество бокэ было выше. Вы только посмотрите на волосы! Уровень обработки просто потрясный, я в полнейшем восторге!

Друзья, вы можете кликать на любую часть изображения и делать ее резкой, а все остальное пространство будет размываться автоматически исходя из карты глубины.

Размываем любую часть фотографии с помощью Stable Diffusion Stable Diffusion, Искусственный интеллект, Гайд, Арты нейросетей, Нейронные сети, Digital, Blur, Фотография, Длиннопост

Congratulations, вы справились!

Теперь кто-то умеет размывать любую часть фото с помощью лучшего фреймворка для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 11

Создаем превьюшки в Automatic1111

Создаем превьюшки в Automatic1111 Искусственный интеллект, Нейронные сети, Арты нейросетей, Stable Diffusion, Digital, Обложка, Длиннопост

Если вы ищете инструмент для создания красивых обложек для своего контента, Stable Diffusion — это именно то, что вам нужно. Простота, свобода творчества и высокое качество — вот главные преимущества этого мощного инструмента. Пример работы этого способа вы можете видеть выше.

Подготавливаем необходимое:

Что нам понадобится? Во-первых, установленный либо локально, либо в облако Automatic1111. Прикреплю ссылки на лучшие по моему мнению гайды, можете смело пользоваться. В случае проблем готов помочь в чате.

Также установите расширение ControlNet, чтобы воспользоваться данным способом. Рекомендую оригинальный блокнот Google Colab, в котором ControlNet ставится автоматически. Если же вы используете ПК, то установите его через Extensions, а затем закиньте модель depth по пути: stable-diffusion-portable-main\extensions\sd-webui-controlnet\models

Перейдем к практике

Если у вас нет нормального графического редактора, то рекомендую Figma, чтобы подготавливать текст на прозрачном фоне. Шрифт я использовал Mouse Memoirs.

Создайте фрейм, нажав клавишу F, после чего создаете внутри блок с текстом, нажав на T. Заранее размещайте текст на том месте фотографии, где вы ходите его видеть. В нашем случае я просто поместил слова в центр. Как сгенерируете текст в Automatic1111, можете закинуть картинку опять в Figma и отредактировать насыщенность, контрастность и яркость.

Плюс в Figma есть плагин Photopea — это аналог фотошопа, только онлайн, внутри фигмы. Весь функционал доступен бесплатно.

Далее экспортируем в PNG на рабочий стол и движемся дальше.

Создаем превьюшки в Automatic1111 Искусственный интеллект, Нейронные сети, Арты нейросетей, Stable Diffusion, Digital, Обложка, Длиннопост

По открытии интерфейса сразу же переходим во кладку img2img, закидываем нашу первоначальную картинку, задающую стиль, выставляем разрешение фрейма под нее, а также параметры CFG Scale и Denoising Strength.

Создаем превьюшки в Automatic1111 Искусственный интеллект, Нейронные сети, Арты нейросетей, Stable Diffusion, Digital, Обложка, Длиннопост

Текст на прозрачном фоне помещаем в окно расширения ControlNet, а другие параметры можем оставить по умолчанию. Не забудьте поставить галочку Enable, чтобы расширение работало.

Еще я поставил Low VRAM, иначе ControlNet вылетает и часто выдает ошибки. Рекомендую повторить за мной. Также совет: не выкручивайте слишком большое расширение генерации, иначе запаритесь перезапускать Google Colab. На ПК все еще печальнее — моя GTX 1050 даже не запустила генерацию...

Создаем превьюшки в Automatic1111 Искусственный интеллект, Нейронные сети, Арты нейросетей, Stable Diffusion, Digital, Обложка, Длиннопост

После выставления настроек жмите Generate и наслаждайтесь результатом! Вы можете генерировать текст хоть в стиле золота, хоть мультика, хоть лавы или майнкрафта! Делитесь в комментах результатом.

Создаем превьюшки в Automatic1111 Искусственный интеллект, Нейронные сети, Арты нейросетей, Stable Diffusion, Digital, Обложка, Длиннопост

Congratulations, вы справились!

Теперь кто-то умеет создавать крутые обложки с помощью лучшего фреймворка для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Также рекомендую посмотреть гайд от коллеги, в котором вы научитесь встраивать текст на любую поверхность. Действия очень похожи, однако есть интересные и полезные тонкости.

Показать полностью 4

Пикселизируем любимых кунов и тян в два клика в Automatic1111

Пикселизируем любимых кунов и тян в два клика в Automatic1111 Stable Diffusion, Нейронные сети, Искусственный интеллект, Арты нейросетей, Digital, 2D, Цифровой рисунок, Длиннопост

Меня одолела лютая экзальтация, приведшая к написанию этого гайда. Суперское аниме, думаю, вы догадались, о каком именно я говорю.

Очень захотелось создать пиксельные арты с человеком-бензопилой, поэтому пришлось помучиться с настройками и установкой, чтобы получить как всегда лучший результат. Воспользовался я для этого расширением Pixelization.

Тянет его даже моя GTX 1050 на 4Gb видеопамяти, поэтому у большинства проблем возникнуть не должно. Если же ваша малыха не обладает и такими качествами, то смело ставьте версию Automatic1111 в облако, чтобы насладиться творчеством там.

Перейдем к практике

Что нам понадобится? Во-первых, установленный либо локально, либо в облако Automatic1111. Прикреплю ссылки на лучшие по моему мнению гайды, можете смело пользоваться. В случае проблем готов помочь в чате.

Установите расширение Pixelization через встроенный загрузчик, после чего перезагрузите Automatic1111.

Также скачайте модели и поместите их в папку stable-diffusion-webui/extensions/stable-diffusion-webui-pixelization/checkpoints. Должно быть четыре файла, как на скриншоте ниже.

Пикселизируем любимых кунов и тян в два клика в Automatic1111 Stable Diffusion, Нейронные сети, Искусственный интеллект, Арты нейросетей, Digital, 2D, Цифровой рисунок, Длиннопост

После установки Pixelization и нужных файлов посмотрим на функционал расширения.

Пикселизируем любимых кунов и тян в два клика в Automatic1111 Stable Diffusion, Нейронные сети, Искусственный интеллект, Арты нейросетей, Digital, 2D, Цифровой рисунок, Длиннопост

Да, вы все видите правильно — у расширения всего лишь три параметра для настройки итогового результата. Сразу же включайте две галочки, а с размером пикселей экспериментируйте на здоровье, только не порежьтесь ради Бога! Острые пилы...

От себя добавлю, что лучше использовать картинки небольшого разрешения. Если видеокарта слабая, то не берите больше 700 на 1500 пикселей, иначе выдаст ошибку от нехватки видеопамяти.

Пикселизируем любимых кунов и тян в два клика в Automatic1111 Stable Diffusion, Нейронные сети, Искусственный интеллект, Арты нейросетей, Digital, 2D, Цифровой рисунок, Длиннопост

И мой любимый арт из полученной коллекции) Просто не могу, радуюсь, как ребенок маленький

Представляете, вы можете сначала генерировать картинки в Automatic1111, а затем трансформировать их в пиксель-арты. Поистине круто!

Пикселизируем любимых кунов и тян в два клика в Automatic1111 Stable Diffusion, Нейронные сети, Искусственный интеллект, Арты нейросетей, Digital, 2D, Цифровой рисунок, Длиннопост

Congratulations, вы справились!

Теперь кто-то умеет создавать пикселизированные картиночки с помощью лучшего фреймворка для Stable Diffusion на сегодняшний день. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Будем вместе с Дэндзи рады видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 4
Отличная работа, все прочитано!