В этом видео вы научитесь делать ретушь в Automatic1111 (stable diffusion) очень быстро и качественно. Для ускорения мы используем расширение для автоматического выделения кожи Inpaint Anything. И сделаем качественный апскейл с Supir 3. И да, Supir обновился и теперь доступны сжатые модели и новая схема ускорила процесс апскейла в 2 раза и немного снизила потребление видеопамяти.
В этом видео вы познакомитесь с веб интерфейсом DEFOOOCUS и узнаете, чем он отличается от Fooocus. Вы узнаете как с помощью нейросетей поменять одежду и генерировать изображения с одеждой по референсу. Познакомитесь с GPT2 в Defooocus, Automatic1111 и ComfyUI.
Отличное решение для дизайн карточки товара и инфографики на Wildberries, Ozon.
В этой статье мы поговорим о том, как увеличить фотографии и любые картинки с использованием нейросети через сервисы в интернете, которые не требуют регистрации. В процессе мы также повысим качество исходного изображения. Upscale (или увеличение с повышением качества изображения) можно осуществить абсолютно бесплатно, но давайте обо всем по порядку.
Обычно при увеличении изображений или фото с применением ИИ заключается в том, что многие платформы просто масштабируют изображения, добавляя отсутствующие пиксели. Однако гораздо интереснее те сервисы, которые не просто добавляют пиксели, а действительно дорабатывают картинки + детали + додумывают мелкие элементы.
Представим ситуацию, когда необходимо сохранить первоначальный вид объекта, одновременно увеличив его размер и добавив дополнительные элементы. Это может быть актуально когда нужно работать с изображениями низкого качества или если возникает необходимости обогатить их деталями для улучшения "визуала".
В начале я изучил возможности нейросетей, таких как Stable Diffusion. Да, они предлагают нужные функции, но работа с ними требует немалых усилий по настройке, установке дополнительных плагинов и т.д.
Далее обнаружил, что гораздо проще решить эти задачи с помощью онлайн-сервисов, хотя их и не так много, если не учитывать те, которые выдают неудовлетворительные результаты. Я же поделюсь с вами подходом, который лично меня устраивает по качеству.
Предложенный метод пригоден как для обработки фотографий, так и для рисунков.
Для утроения размера изображения при сохранении его исходного вида и улучшения детализации делаем следующее:
Открываем этого бота в Telegram (отдельная регистрация не требуется)
в меню выбираем Stable Diffusion
затем переходим в настройки и выбираем из списка модель 'Reliberate' (она предназначена для работы с реализмом)
устанавливаем 'DenS' на уровне 0.1 (степень изменения оригинала)
отправляем боту исходное изображение
в появившемся меню выбираем 'Детализация + Upscale X3'
В процессе апскейла активируется алгоритм, позволяющий с помощью нейросети повысить качество фотографии без необходимости делать доп. настройки.
В результате получаем то же изображение, но увеличенное в три раза, при этом все мелкие элементы выглядят значительно четче. Этот метод идеально подходит для работы с реализмом, а также с артами и аниме — примеры изображений я приложил в начале статьи.
Я бы посоветовал не ограничиваться только этим примером, а экспериментировать с разными настройками, выбирать другие модели (их достаточно много), менять значение 'DenS' и так далее.
Еще хочу упомянуть о возможности использования этого инструмента абсолютно бесплатно — доступны ежедневные баллы, которые можно получить "for free", так что обязательно изучите этот момент.
Заменить задний фон изображения или фото с помощью нейросети поможет сервис Picwish. Можно использовать бекграунд из предложенных шаблонов, либо сгенерировать свой по текстовому описанию. Бесплатно дается 60 кредитов, за генерацию уходит 6. Пригодится для генерации карточек товара для маркетплейсов, например.
Если интересна тема нейроиллюстрации, заходи ко мне в Тг-канал Нейрохудожник, где ежедневно новые посты с промтами и разной полезной информацией о создании нейроиллюстраций.
Что делать, если то самое классное изображение никак не удается найти, а у заказчика пока нет ресурса предоставить нужный контент? Что можно придумать для разделов каталога, когда есть только фото для продуктовых карточек, чтобы это выглядело красиво? Как при этом не забыть о метафорах и ассоциациях бренда и создать необходимое настроение на сайте? Да еще и чтобы заказчик все это согласовал без правок…
Задача
К нам обратился заказчик с задачей создать функциональный интернет-магазин на Тильде для бренда натуральной SPA-косметики «Цветы и море». На этапе дизайн-концепции мы развили мысль о море, песке и цветах до такой степени, что сгенерировали для своих задач 400+ изображений, выделив на это 30+ часов. Как у нас получалось и не получалось, что мы делали и как именно экспериментировали, рассказываем дальше.
И сначала мы расскажем об основных этапах разработки проекта, чтобы ввести вас в контекст. Ну и якорная ссылка для тех, кому нужно скорее читать наш опыт по работе с нейронкой.
Важно — мы не генерировали изображения для товаров, весь визуал в продуктовых карточках настоящий и предоставлен заказчиком.
Сбор информации по проекту: формируем общее видение с заказчиком перед стартом
Как и всегда, мы начали с максимально подробного брифа с заказчиком: задали много уточняющих вопросов, вынесли на обсуждение примеры реализации, обсудили целевую аудиторию и конкурентов, наметили структуру, предложили список сайтов, которые можно использовать в качестве референсов.
Какая стоит задача, что заказчик видит на финише?
Будет ли виденье заказчика работать для ЦА?
Что конкретно важно для целевой аудитории?
Как проект будет жить после релиза?
Что нужно учесть при разработке и о чем позаботиться заранее, чтобы сайту не нужны были доработки через неделю после запуска?
И многое другое
Только после того, как у нас есть четкое видение, мы начали работать над сайтом.
Проектирование — продумываем структуру страниц и закладываем необходимые решения в интерфейс сайта
Мы провели маркетинговое исследование, выявили целевую аудиторию, изучили конкурентов, предоставленных заказчиком. Вдобавок к этому проанализировали лидеров натуральной spa-косметики, составили список сильных и слабых решений.
Далее мы сделали карту сайта и определились со структурой страниц на основании проведенного исследования. Мы выделили преимущества, рассказали о бренде, описали условия для сотрудничества, показали бренды, с кем сотрудничает «Цветы и море». Сняли нагрузку с менеджеров, сделав список частых вопросов и ответов на них.
Сбор информации и подготовка к проектированию
Важно было обозначить наличие акций на главном экране, встроить их аккуратно. Решили использовать слайдер с автоплеем, формат которого напоминает интерфейс сторис. Также добавили строку с информацией о бесплатной доставке от определенной суммы.
Прототип будущего интернет-магазина
Еще мы вывели популярные товары бренда на главную страницу вторым блоком, чтобы посетителям сайта не нужно было тратить время и искать любимые позиции в каталоге, а находить сразу.
Мы реализовали возможность дополнительных продаж, предложив добавить в заказ шоколадки и открытки в карточке товара. В корзине добавили поле с возможностью подписать открытку, которое появляется только если в корзине есть эта самая открытка. Реализовали на Тильде такой функционал с помощью написанного скрипта нашим разработчиком.
Корзина в 2 этапа с необходимым функционалом
Проектирование прототипа далось нам без особых сложностей — полный мэтч с клиентом позволил оперативно сделать интерактивный прототип и перейти к поиску дизайн-концепции и отрисовки макета.
Перед тем как мы подробно начнем рассказывать о промт-инженерии для проекта, кратко введем читателя в контекст того, как мы мыслили в плане общего визуала и дизайн-решений.
Мы понимали, что дизайн должен передать эстетику легкости и осознанности, расслабления, отдыха и нежности. Для нашей ЦА важен комфорт и забота о себе, их восхищает бренд, готовы оставлять развернутые отзывы в эстетичных локациях. Бренду также важно передать крафтовость и натуральность, отсутствие массового производства и трепетное внимательное отношение к каждому продукту.
ЦА
Мы начали с названия бренда, подумали и собрали ассоциации, приступили к поиску визуальных решений, нашли приятные референсы, которые можно использовать для групп товаров. Подобрали цветовую гамму с учетом товаров, упаковки и фирменного логотипа, предложили шрифтовую пару, которая дополнительно создала необходимые ассоциации и настроение.
Поиск идеи и референсы
В какой-то момент мы уперлись в то, что контент заказчика оказался достаточно «шумным» для фоновых изображений, терялись тексты и важные акцентные элементы интерфейса. Контент подходил только для визуализации каталога товаров + была вероятность дублирования визуала из-за ограниченного количества изображений. Еще мы начали ломать голову над тем, как проиллюстрировать разделы каталога. Ну и в целом контент заказчика был заточен больше под соцсети — видео и фото были предоставлены нам в вертикальном формате.
Контент от заказчика
Мы пошли на фрипик, чтобы найти для себя решение, но уперлись в то, что все-таки делаем интернет-магазин и подобрать что-либо между собой более менее бьющееся по визуалу не представляется возможным. Больше к премиум-стокам не возвращались. Начали смотреть в сторону нейросетей.
Нейронки. Вступительное слово и поехали.
О чем пойдет статья дальше? Важно — это не мануал в привычном в виде с обзором каждой кнопки. Это статья о том, как в реальной коммерческой разработке можно смело экспериментировать и внедрять в работу различные Ai-инструменты и получать довольно качественный результат, параллельно решая распространенную проблему в дизайне – отсутствие визуального контента от заказчика.
Передаем слово нашему дизайнеру — Сергею, который поделится с вами всеми своими наработками в процессе генерации контента для «Цветы и море».
Почему выбрали Stable Diffusion, а не Midjourney
Прочитав несколько обзоров и сравнений генеративных нейросетей, предварительно решили, что нам больше подходит именно Stable Diffusion, так как он оказался достаточно гибким и функциональным для наших задач. Я бы его назвал настоящим комбайном, в котором ограничений практически нет, но чтобы научиться пользоваться всеми возможностями этого инструмента, придется очень сильно погрузиться в технические аспекты.
По Midjourney — думаю, все в него успели поиграться, многие работают на постоянной основе, но я не смог добиться стабильного результата. Полученные изображения были не такими реалистичными, как мы задумали, сделать пак изображений в одном стиле не получалось — при детальном рассмотрении контента нам что-нибудь да резало глаз.
Почему мы выбрали Stable Diffusion?
Редактирование созданных изображений — можно легко менять конкретные элементы на изображении с помощью функции Inpaiting, а с помощью outpaiting возможно наращивание фона в контексте изображения. Эта функция очень нам пригодилась для страниц разделов товаров, далее расскажу подробнее.
Распределение веса по конкретной характеристике в промте — за счет этого можно гибко настроить промт и получить наиболее точный результат.
Установка конкретных моделей, которые нужны тебе. У Stable Diffusion большое сообщество, в сети можно найти крупные каталоги с базой различных моделей и обученных дополнений Lora, которые устанавливаются поверх базовых моделей. Большинство из них находятся в свободном доступе.
Функция img2img — метод создания изображений на основе загруженного референса, благодаря чему появляется возможность сделать сет в одном стиле. Для нас важно, чтобы контент на сайте был в одной стилистике.
Наличие seed у генерируемого изображения. Что это и зачем? Seed — уникальный код или идентификатор изображения, который дает нам возможность вносить в запрос изменения точечно, сохраняя основную композицию, обстановку или объект на изображении. Далее расскажем как пользовались данной фичей.
Технические нюансы, установка, первые результаты.
Первая сложность, с которой столкнулись — сборок для систем на базе Mac практически нет и их не так просто найти, в основном сборки идут под Windows. Я нашел два подробных мануала для развертывания для Mac на github. Вот первый и второй, если делать все по инструкции, заработает без танцев с бубном. Если же что-то не получится, пишите в комментариях, постараюсь помочь.
Установив Stable Diffusion, нужно было установить модель, на основе которой буду генерировать контент. После небольшого ресерча решил поработать с моделью Deliberate_v5 от популярного разработчика моделей Христ. Добавлю, чтобы корректно работали функции outpainting и inpainting, дополнительно сразу скачайте модель с приставкой Deliberate_v5-inpainting. Установка модели довольно проста: просто копируем в папку models, где был установлен Stable Diffusion.
Покопавшись в мануалах и посмотрев несколько обучающих видео, начал пробовать составлять промты и с интересом смотреть что получается. На первых порах не использовали негативные промты.
Так выглядит интерфейс Stable Diffusion
План был такой: сначала необходимо добиться более менее качественного результата с генерацией изображения для главного экрана, чтобы понять реально это в принципе для нашей задачи, а дальше генерить остальной контент. В одном из мануалов ссылались на переводчик deepl как лучший вариант составления для промтов, учел эту рекомендацию.
Приступил к составлению промтов из разряда «bath bomb or bath fizzie», «бомбочка для ванны или шипучка для ванны», дело двинулось. Далее стал задавать новые условия: белый/светлый фон, количество, тень и ее резкость, формат изображений, остановился на разрешении 1024х512. Также попробовал распределять вес ключей для более тонкой настройки — «bath bomb or bath fizzie, (A few pieces:1.5), white surface».
Добавлю, что при разрешении 1024х512 и методе txt2img генерация одного изображения занимала 45 секунд на процессоре m2 pro, при более высоких разрешениях доходило до 3-4 минут. В Stable Diffusion есть возможность выставить количество изображений для генерации пакетов изображений, что очень удобно. Выставляем 10 или 20 вариантов генераций, спустя 10-20 минут все готово. Остается выбрать понравившиеся результаты и seed и далее работать уже с ними. Прикрепляю первые результаты.
С каждым новым изображением я лучше понимал алгоритм и логику работы со Stable Diffusion, результат становился все интереснее, но от косяков в виде мутаций, артефактов и различных деформаций пока не мог избавиться.
Расширял промты и добавлял новые условия: «сухоцветы лаванды», «основание из дерева», «мягкие тени», «идеально круглая форма». Потом с помощью Midjourney составил промт, загрузил референс и полученный промт попробовали использовать для Sd, но ничего не вышло — видимо, алгоритмы и промтинг у Stable Diffusion и Midjourney работают совершенно по- разному.
Пример промта, который нам выдал Midjourney:
a box with a bunch of flowers inside of it, pinterest contest winner, private press, reflective lavender ocean water, dried herbs, detailed product image, bath, on parchment, light bloom, branches wrapped, surface hives, blue sunshine, maternal, product label, bubble bath, safehavenhq, nest
А ниже то, что получилось с промтами от Midjourney. В моменте казалось, что вырисовывается что-то симпатичное, но под наши задачи, увы, не подходило.
Генерации на основе промта от Midjourney
Снова переработал промт, прописал более конкретные условия и добавил негативный промт
9 bath bombs, lying next to each other on a white surface, they are surrounded by small branches of dried flowers
9 бомбочек для ванны, лежащих рядом друг с другом на белой поверхности, их окружают маленькие веточки засушенных цветов.
Продолжал эксперименты с промтами и весом ключей и в какой-то момент получил результат, который нас устроил в качестве версии 1.0.
Версия 1.0
Работал в режиме txt2img, промт:
9 bath bombs, bath salts, lying next to each other on a beige surface, they are surrounded by small branches of dried flowers, photo angle from the side, colors of bombs white gray milky
(9 бомбочек для ванны, соли для ванны, лежат рядом друг с другом на бежевой поверхности, их окружают маленькие веточки засушенных цветов, ракурс фото сбоку, цвета бомбочек белый серый молочный)
Негативный промт, чтобы исключить цвета, которые нам не подходили по стилю:
На тот момент у нас уже был готов дизайн-макет, известна цветовая палитра, подобраны шрифты. Мы «примерили» полученное изображение и наконец поняли, что попали, результат нас устроил на 9 из 10. Нам захотелось улучшить результат, продолжили работать на качество и детали.
Как улучшить получившийся результат в Stable Diffusion?
Каждое изображение имеет свой уникальный идентификатор — seed. Я использовал seed данного изображения и стал менять промт. Что это дало? Результат теперь получался не рандомным, а очень схожим с оригиналом. Мы могли развивать данное изображение — менять не только промт, но и другие настройки.
Когда я увеличил разрешение изображения с 952х448 до 1560х771, произошел известный баг в Stable Diffusion — дублирование сущностей. И так как мы работали с бомбами для ванной, а не с человеческими головами или руками, нам это пошло только на пользу, увеличив количество элементов с 4-6 до 8-12. Кстати, в сети довольно много мануалов о том, как бороться с дублированием контента в Stable Diffusion при генерации.
Далее составил универсальный негативный промт, воспользовавшись рекомендациями в найденных мануалах на просторах интернета, который бы повлиял на уменьшение количество мутаций и деформаций.
Промежуточный результат
Финальный результат, который нас устроил
Докрутив предыдущий промт на основе прошлого seed, получил наш финальный результат, который отлично вписался на главном экране сайта.
Изображение для главного экрана
Режим txt2img, промт:
9 bath bombs, bath salts, lying next to each other on a beige surface, (they are surrounded by small branches of dried lavender:0.9), photo angle from the side, (photorealistic:1.5), detailed, 8k
Негативный промт достаточно универсален и подойдет во многих случаях, так как больше нацелен на борьбу с деформациями и мутациями:
blue, pink, ((((ugly)))), (((duplicate))), ((morbid)), ((mutilated)), [out of frame], extra fingers, mutated hands, ((poorly drawn hands)), ((poorly drawn face)), (((mutation))), (((deformed))), ((ugly)), blurry, ((bad anatomy)), (((bad proportions))), ((extra limbs)), cloned face, (((disfigured))), out of frame, ugly, extra limbs, (bad anatomy), gross proportions, (malformed limbs), ((missing arms)), ((missing legs)), (((extra arms))), (((extra legs))), mutated hands, (fused fingers), (too many fingers), (((long neck))), out of frame, duplicate, watermark, signature, text, ugly, morbid, mutated, deformed, blurry, bad anatomy, bad proportions, cloned face, disfigured, fused fingers, fused limbs, too many fingers, long neck
Далее нам оставалось в похожей стилистике создать контент для разделов каталога интернет-магазина. Действовал по уже выработанной схеме — использовал ключи прошлых промтов, которые описывают обстоятельства, добавлял необходимые ключи, использовал прошлые seed.
Вот такой интересный результат у нас получился:
Изображения для разделов каталога
Наращивание фона
Последнее, что оставалось — получить из формата 1:1 горизонтальные широкоформатные изображения для hero-секций страниц разделов. Функционал Stable Diffusion позволяет это сделать — нужно использовать outpainting (нейросеть может нарастить фон изображения в любую выбранную сторону исходя из контекста изображения) в режиме img2img. В сети и на ютубе много подробных мануалов, здесь не буду расписывать подробно.
Далее с помощью функции inpaint почистил изображения от артефактов. Оставалось сделать цветкор и дополнительно сделать апскейл.
Результат:
Главные секции страниц разделов
Что думаем насчет всего этого волшебства?
Нейросети могут помочь в решении определенных задач, стоящих перед дизайнерами. Считаем, что каждому в нашей профессии нужно попробовать-потрогать-пощупать и выбрать для себя инструмент, который будет полезен в работе. Использовать нейронки и изучать их функционал важно для развития и большей востребованности на рынке. Надеемся, что наш кейс окажется полезным, вдохновляющим и побуждающим к изучению, экспериментам и созданию крутого контента для рабочих и не очень задач. На текущий момент сайт в боевом режиме, работает и приносит прибыль своим заказчикам.
Суммарно на эксперимент с генерациями по этому проекту было потрачено 30+ часов, получено 400+ изображений, просмотрено и прочитано более 30 мануалов. Ссылка на фигму со всеми вариантами здесь.
Итоговый результат
Полученный дизайн презентовали заказчику, который был принят без правок. Нас поблагодарили за решение и то, как органично встроился сгенерированный контент в общую концепцию. Дизайн сверстали на Тильде в zero блоках, подключили каталог, настроили корзину, написали два скрипта для нестандартных решений, подключили сервис доставки и платежную систему, сделали технические настройки. На текущий момент сайт в боевом режиме, работает и приносит прибыль своим заказчикам.
Расскажите о своем опыте работы со Stable Diffusion и другими нейросетями — поделитесь в комментариях.
Привет, нейрохудожники! 🙋🏻♀️Сегодня список терминов, которые пригодятся, чтобы сделать фотореалистичное изображение с отличительными характеристиками.
Общим для всех камер в списке является то, что каждая из них предоставляет уникальные возможности и подходы к созданию изображений. В зависимости от выбранной камеры можно достичь различных эффектов, отражающих свой индивидуальный стиль.
1. DLSR (Digital Single-Lens Reflex) Camera: Профессиональная цифровая однообъективная зеркальная камера с возможностью смены объективов. То, что мы используем в традиционных фотосессиях. Так же можно использовать название конкретных моделей .
Fox in the wild, close-up shot taken with a Nikon D850, 200mm f/2.8 lens accentuating intricate fur texture, alert gaze, natural environment background, photography, aspect ratio 16:9, vibrance level 5, ultra fine, dramatic lighting.
2.Underwater Camera (Underwater Photography): Специально разработана для использования под водой. Позволяет создавать уникальные подводные сцены. Также можно вписать модель, например Nikon Coolpix W300, SeaLife DC2000 или Canon PowerShot D30.
Dolphin gliding with effortless elegance, immersed in the tranquil azure of the ocean's embrace, gentle ripples caressing its sleek form, coral reefs and schools of fish in the background, captured using an underwater camera, Nikon Coolpix W300, aspect rat
3. Panoramic Camera: Предназначена для создания широкоформатных панорамных снимков. Позволяет запечатлеть широкие ландшафты и архитектуру с хорошей детализацией.
A beachfront perspective overlooking the ocean with an endless horizon and azure waters, skillfully captured using a Panoramic Camera to create a wide-format shot that encompasses the expansive seascape, Panoramic Photography, Hasselblad X1D II 50C
4. Pinhole Camera: Простая камера без объектива, где изображение формируется через небольшое отверстие. Создает мягкие, искаженные снимки с уникальной атмосферой.
A captivating portrait of a girl, shot with a Pinhole Camera to enhance the scene with a vintage, lo-fi charm, Pinhole Photography, Homemade Pinhole Camera
5. CCTV Camera (Closed Circuit Television): Используется для видеонаблюдения, записи или передачи изображений на ограниченный набор мониторов. Может быть использована в искусстве уличной фотографии, захватывая непосредственные моменты и детали повседневной жизни.
street, on a CCTV camera, bustling urban life, CCTV photography,
6. Vintage Polaroid Camera: Фотокамера, производящая мгновенные снимки на полароидную пленку. Позволяет создавать снимки с характерным винтажным стилем.
A group of people, looking directly into the camera, enjoying a summer day against the backdrop of a cityscape, captured with a Vintage Polaroid Camera, Vintage Photography, Polaroid Camera
7. Schlieren Imaging Camera: Используется для визуализации тонких изменений в плотности воздуха или других прозрачных средах. Визуально может создавать удивительные и необычные эффекты, делая невидимое видимым.
A captivating depiction of a person breathing, captured with the Schlieren Imaging Camera, Schlieren Photography, Intensely highlighting the subtle air movement during each breath, Set in a serene and contemplative atmosphere, evoking a sense of mindfulnes
8. Lomo Camera Photo/Lomography: Выдает фотографии с характерной насыщенностью цветов, высокой контрастностью и некоторыми искажениями. Мягкий ретро эффект.
A cat sitting by the window, captured through the distinct lens of a Lomo Camera, Lomography style, with rich and saturated colors that add a touch of artistic flair to the scene, The window setting bathes the cat in soft, nostalgic light, creating an atmo
9. Night Vision Camera: Камера ночного видения. Создает загадочные и атмосферные сцены, освещенные лишь деталями и контурами.
An intriguing image of a girl taken with a Night Vision Camera, emphasizing the shadows and highlights, adding an element of mystique to the scene, the distinctive features of the camera contributing to the unique aesthetic, Night Vision Camera
10. GoPro Camera: Компактная и прочная камера, специально разработана для активного использования в экстремальных условиях. Изображения, сделанные с использованием GoPro, часто выделяют динамичные и захватывающие моменты, особенно во время спортивных событий или приключений.
close up, An exhilarating moment frozen in time, featuring a mountain biker in mid-air jump, captured with a GoPro Camera, emphasizing the dynamic and thrilling perspective, GoPro Camera, wide-angle lens, high shutter speed
11. 360-Degree Camera: Способна снимать вокруг себя в полный круг, охватывая 360 градусов.
Culinary processes unfolding in a kitchen, visible from all sides, captured with a 360-Degree Camera, showcasing the dynamic and immersive view of cooking and food preparation, 360-Degree Camera, wide-angle lens, vibrant colors
12. Instax Camera: Фотокамера, производимая фирмой Fujifilm, предназначенная для создания мгновенных фотографий на инстакс-пленку. Фотографии, созданные с использованием Instax Camera, обладают особой ностальгической атмосферой, изображение четкое, цвета яркие, в отличие от Vintage Polaroid Camera.
A candid and spontaneous portrait of a girl, captured with the instant charm of an Instax Camera, emphasizing the unique qualities of instant film, Instax Camera, showcasing vibrant colors, natural lighting, and a lively atmosphere
👉Ставь лайк, если статья пригодится в качестве терминов для запроса или для вдохновения и новых идей .
Присоединяйся к нашему сообществу в ТГ ТУТ, в нем ежедневно новые промты, токены и другая полезная инфа, заходи!
О том, как из одного фото сделать фотосессию в разных стилях, читай ТУТ.
Узнать о положении камеры и ракурсах при съемке ТУТ.
Хотите сделать из себя ведьму, русалку или волшебника? А может быть пирата, астронавта? Есть бесплатный крутой сервис InstantID стилизации фото, где это делается проще простого. Ловите гайд. Погнали.
Заходим в редактор по ссылке. Видим рабочую область.
1. Верхний блок Upload a photo of your face. Сюда загружаем фото человека, главного героя фотосессии. Если на фото будет несколько лиц, распознается самое большое. Лучше всего получается из качественных фото. Лицо должно быть хорошо видно и не размыто. Кстати, улучшить качество фотографий, устранить размытость можно с помощью любого апскейлера.
2. Под ним ниже блок Upload a reference pose image (optional). Сюда можно загрузить второе фото для указания на положение тела, управление позой. Это необязательно. В случае отсутствия второго фото, как ориентир будет использоваться первое. Пример влияния на фото ниже.
3. Еще ниже поле Prompt- сюда вводим текстовую подсказку (запрос, промпт, промт- как угодно). О том, как составлять есть множество разных статей , а если нет своих идей, можно использовать готовые промты.
4. Под ней оранжевая кнопка Submit, которую мы нажмем, чтобы начать генерацию.
5. А еще ниже под этой кнопочкой есть окно с расширенными настройками. Нас в основном интересует верхняя cтрока- Style template. Здесь мы можем выбрать стиль будущего изображения или оставить без стиля. Их пока немного, но поработать есть с чем.
Итак, для того, чтобы получить новый арт: Загружаем фото, пишем текстовую подсказку, выбираем стиль и жмем кнопку генерировать. Вот и вся наука 😎🔥👍
В карусели ниже последнним фото будет оригинал, остальные- получившиеся варианты стилизованных изображений.
1/7
Теперь немного о настройках. Они находятся под уже известным нам полем со стилями. Пригодятся они для более точного управления генерацией.
Если картинки недостаточно похожи, увеличьте значение controlnet_conditioning_scale (IdentityNet) и ip_adapter_scale (Adapter) .
В расширенных настройках чуть ниже можно вписать свой Negative Prompt (негативный запрос), настроить Number of sample steps (количество шагов при генерации) и отрегулировать Guidance scale. Этот параметр влияет на степень схожести сгенерированного изображения с промтом. Большее значение приводит к более строгому соответствию промту, а меньшее значение дает больше свободы для творчества модели.
Так вот, энтузиасты создали каталогна Hugging Face, в котором очень удобно работать с дополнениями к Stable Diffusion XL.
Плюс
➕ Работает бесплатно
Больше полезных сервисов для работы и учебы в моем телеграмм канале (ссылка в описании профиля), там я рассказываю, как можно использовать нейросети для бизнеса