Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Погрузитесь в захватывающий мир уникальных героев, строительства цитадели и три в ряд битв! Откройте новые горизонты в жанре РПГ.

Время Героев: Три в ряд RPG

Три в ряд, Мидкорные, Приключения

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
1
Аноним
Аноним
7 месяцев назад

Топ 10 российских нейрохудожников по версии ИИ поисковика "DeepSeek"⁠⁠

Вот список из 10 российских нейрохудожников, которые активно работают с нейросетями и создают уникальные произведения искусства. Эти художники используют современные технологии для генерации изображений, иллюстраций и других форм визуального искусства:

🔴1. Лев Переулков

Лев Переулков — создатель канала Pereulye, который активно экспериментирует с нейросетями, такими как Stable Diffusion и Midjourney. Он использует нейросети для создания проектов, посвященных детским воспоминаниям и московскому концептуализму. Его работы часто вызывают эмоциональный отклик и демонстрируют высокий уровень технического мастерства .

🔴2. Евгений Мацкевич

Евгений Мацкевич, создатель канала «Джимми Нейрон», работает с нейросетями для создания комиксов, мемов и иллюстраций. Его работы вдохновлены поп-культурой, и он активно использует Midjourney для генерации изображений. Мацкевич также создает нейросетевые скульптуры и экспериментирует с различными стилями .

🔴3. Татьяна Бронникова

Татьяна Бронникова — художница, которая использует нейросети для создания уникальных изображений на основе своих фотографий и вышивок. Она активно работает с Stable Diffusion и улучшает сгенерированные изображения в графических редакторах. Ее работы часто выставляются на выставках и продаются за границей .

🔴4. Алексей Ворогушин

Алексей Ворогушин — автор статей и нейрохудожник, который исследует возможности ИИ в оценке и создании искусства. Он активно использует нейросети для анализа и генерации изображений, а также для создания уникальных визуальных проектов .

🔴5. Снежана Туманова

Снежана Туманова — нейросеть, которая ведет прогноз погоды на телеканале «СвоеТВ. Ставропольский край». Хотя это не человек, она является примером использования нейросетей для создания контента, включая тексты и графику .

🔴6. Александр Кожевин

Александр Кожевин — создатель нейросети Colorize, которая раскрашивает черно-белые фотографии и видео. Его работы используются для реставрации старых изображений и создания новых визуальных эффектов .

🔴7. Игорь Макаревич

Игорь Макаревич — художник, который использует нейросети для создания концепт-артов и иллюстраций. Его работы часто вдохновлены научной фантастикой и поп-культурой, и он активно экспериментирует с различными стилями и техниками .

🔴8. Ольга Чернышева

Ольга Чернышева — художница, которая использует нейросети для создания уникальных визуальных проектов. Ее работы часто вдохновлены повседневной жизнью и включают элементы медиаискусства .

🔴9. Алексей Бродович

Алексей Бродович — художник и графический дизайнер, который использует нейросети для создания плакатов, обложек и других визуальных материалов. Его работы отличаются высоким уровнем креативности и технического мастерства .

🔴10. Михаил Ларионов

Михаил Ларионов — художник, который использует нейросети для создания авангардных произведений искусства. Его работы часто включают элементы абстракции и эксперименты с цветом и формой .

Эти нейрохудожники демонстрируют, как современные технологии могут быть использованы для создания уникальных и креативных произведений искусства. Их работы охватывают широкий спектр стилей и направлений, от реализма до абстракции, и вдохновляют других художников на эксперименты с нейросетями.

Показать полностью
[моё] Арты нейросетей Нейронные сети Арт Искусство Современное искусство Digital Художник Дизайн Компьютерная графика Дизайнер Статья Рейтинг Начинающий художник Искусственный интеллект Цифровой рисунок Шедеврум (Яндекс) Dall-e Flux Midjourney Stable Diffusion Видео Без звука Вертикальное видео Длиннопост
0
4
DELETED
1 год назад

Делюсь немного опытом в работе со Stable Diffusion⁠⁠

Делюсь немного опытом в работе со Stable Diffusion Stable Diffusion, Технологии, Нейронные сети, Гайд, Статья, Арт, Компьютерная графика, Digital, Длиннопост

Дисклеймер

Все что будет описано здесь основано на моем личном опыте. Тут я опишу лишь небольшую часть и потом возможно дополню другими статьями по каким то определенным моментам. Если у вас есть советы и как можно сделать что то лучше и т.д. прошу делиться в комментариях. Если у вас возникло желание обсудить и осудить тех кто хоть как то интересуется и использует нейросеть, то пожалуйста воздержитесь и делайте это в другом месте.

Основные термины:
1.Stable Diffusion (далее SD)
2.Stability Matrix - программа для запуска пакетов SD с библиотекой из Hugging face и Civitai.
3.Chekpoint - Простыми словами базовая модель, на которой будет происходить генерация. Размеры могут доходить до 15GB
4.LoRa - тоже модель, только очень маленького размера обычно это определенный стиль, персонаж, концепт, поза, ну или все вместе. Размеры LoRa обычно не превышают 700MB.

Системные требования

Я могу ошибаться и буду ошибаться, потому что в этом вопросе все расходятся. Я считаю что для более менее комфортной работы вам нужна видеокарта минимум с 8 гигабайтами видеопамяти серии RTX и минимум 16 гигабайт оперативной памяти. Конечно настройки SD очень гибкие в плане производительности, но тут все зависит от вашего железа.

Stable Diffusion через Stablity Matrix

Я использую SD через SM. Установка очень простая. Скачайте установщик сайта lykos.ai и поместите его в удобное для вас место. При открытии нажмите на галочку режим Portable и все файлы будут храниться в одном месте.

Делюсь немного опытом в работе со Stable Diffusion Stable Diffusion, Технологии, Нейронные сети, Гайд, Статья, Арт, Компьютерная графика, Digital, Длиннопост

Официальный сайт Lykos AI https://lykos.ai/

Для начала вам нужно установить один из предложенных пакетов SD. Есть как и оригинальный SD Web UI так и его другие модифицированные версии с другим интерфейсом и фишками.

1/2

Во вкладке браузер моделей(Model browser) содержится библиотека с Hugging face и Civitai. Подключив свой Civitai аккаунт вы можете устанавливать любые Lora и Chekpoints в один клик. Во вкладке Chekpoint manager вы можете просмотреть все свои установленные модели и пакеты и управлять ими.

1/2

Model browser and Chekpoint manager

Интерфейс SM

В SM есть встроенный интерфейс для создания изображений работающий с пакетом Comfy UI. Я работаю обычно только в нем. На нем и расскажу о основных настройках.

Настройки

Делюсь немного опытом в работе со Stable Diffusion Stable Diffusion, Технологии, Нейронные сети, Гайд, Статья, Арт, Компьютерная графика, Digital, Длиннопост

1.Базовая Модель (Chekpoint) - то на чем вы будете создавать изображение. Существует огромное количество моделей от аниме до реализма. Главное различие это пакет версия SD, на котором основан Chekpoint. Модели на SD 1.5 как по мне уже устарели и на них я работал всего лишь пару раз и не вижу смысла на них что то делать, так как есть SDXL и PDXL, но как мне кажется SD 1.5 очень не требовательные по железу и поэтому они в целом еще популярны. SDXL модели очень гибкие и более стабильны в использовании. PDXL или же Pony это модифицированный SDXL, на данный момент по моему мнению самая популярная, самая удобная и гибка модель для создания. На PDXL можно добиться разных стилей без LoRa и лучшего качества за счет score_x(но это другая тема и может быть я напишу что нибудь об этом потом или кто нибудь пояснит в комментариях).

2.Samplers - Чтобы создать изображение, SD сначала генерирует совершенно случайное изображение в скрытом пространстве. Затем предиктор шума оценивает шум изображения. Прогнозируемый шум вычитается из изображения. Этот процесс повторяется десятки раз. В итоге вы получите чистое изображение. Для 2D изображений я использую Euler, euler A, DDIM. Для 3D или реализма DPM++ 2M SDE. В вопросе семплеров так же нет четких инструкций и я советую вам экспериментировать.

3.Steps - Количество шагов. Чем больше шагов вы ставите тем более детальным будет конечный результат, но нет смысла ставить шагов больше 50 это только увеличит время и может добавить артефакты. В среднем обычно используют от 25 до 40 шагов.

4.Scale - этот параметр отвечает за внимание нейросети к вашему запросу. Чем выше этот параметр тем внимательнее нейросеть к вашему промту. Не стоит ставить этот параметр выше 15 так как появиться очень много артефактов. На низких значениях результат будет более непредсказуемым.

4.Seed - Вы можете заблокировать сид определенной картинки и изменить детали. По умолчанию Seed рандомится при каждой генерации.

5.Batches - это сколько картинок вы хотите за одну генерацию.
Batch size количество задач, которые могут быть взяты в работу в рамках определенного периода времени. В общем при увеличении может дать более стабильный и нужный результат и так же больше картинок. Ну то есть при количестве одна штука и batch size 2 у вас сгенерируется две картинки (пожалуйста напишите в комментариях кто знает как это объяснить простым языком).

Promt
Это ваш запрос что вы хотите видеть, но это вы и так знаете. На своем опыте я понял что лучше описать все что вы хотите последовательно и упорядочено. Обычно сначала я пишу теги на качество, а затем уже персонажа, позу, место и т.д. Вот пример промта:
score_9, score_8_up, score_7_up, source_anime,(это теги на качество для PDXL)
retro anime style, retro, <lora:90s_Retro_anime_style_Pony:0.5> (это триггер теги для LoRa и сама lora и ее вес)
BREAK (используйте для того чтобы нейросеть лучше понимала ваш запрос) mature woman, blue eyes, black hair, long hair, kabuki ponytail, big breasts, mole on breast, black dress, collar, standing, crossed arms, pout, blush, front view, indoors, doorway, hotel room, at night, steam, steam in room, best quality, high quality

Делюсь немного опытом в работе со Stable Diffusion Stable Diffusion, Технологии, Нейронные сети, Гайд, Статья, Арт, Компьютерная графика, Digital, Длиннопост

Картинка взята здесь https://yodayo.com/posts/6bb350e9-6057-4b25-800a-3c9152b679c...

Negative
Тут вы пишите что не хотите видеть в конечном результате, например 6 пальцев или плохое качество вот пример:

worst quality, low quality, bad quality, monochrome, busty bad hands, lowers, long body, squinting,deformed, blurry, bad anatomy, poorly drawn face, extra limb, ugly, poorly drawn hands, missing limb, floating limbs, disconnected limbs, malformed hands, long neck, disgusting, bad anatomy, bad legs, duplicate legs, watermark, bad eyes, crossed eyes, (bad fingers), (six fingers)

((Скобки))

Скобки используются для того чтобы увеличить вес тега и внимание к нему. Например вам важно чтобы у персонажа были длинные волосы тогда вы делаете так (Long hair), просто взяв в скобки вы увеличиваете вес на 1.1, но можете сделать вес больше указав точно сколько вам нужно вот так (long hair:1.5).
Скобки [ ] уменьшают вес тега и применяются так же.

Пока это все чем я хотела поделиться в дальнейшем постараюсь написать пост более последовательно по каждой детали по отдельности. Ну или нет.

Делюсь немного опытом в работе со Stable Diffusion Stable Diffusion, Технологии, Нейронные сети, Гайд, Статья, Арт, Компьютерная графика, Digital, Длиннопост
Показать полностью 9
[моё] Stable Diffusion Технологии Нейронные сети Гайд Статья Арт Компьютерная графика Digital Длиннопост
3
7
Dmitriy.yiu
Dmitriy.yiu
2 года назад

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion⁠⁠

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Вы не поверите, но я уже и разработчиков Kandinsky 2.2 спрашивал, что такое CFG Scale в фундаментальном смысле, и нейронщиков всех мастей, однако так не получил внятного ответа. От обывательских блогов меня вообще теперь тошнит, ибо там одно и то же: параметр CFG Scale увеличивает силу следования подсказке... И все как бы, окей — сами разберемся.

Так вот, я начал с базы и открыл научные статьи родоначальников метода classifier free guidance scale. Прикреплю ссылки на них сразу же, чтобы вы тоже могли ознакомиться. Вот статья, посвященная именно CFG Scale для диффузных моделей, а вот статейка о применении данного метода в современных языковых моделях.

Для чего это нужно?

Меня поразил тот факт, что метод CFG Scale и позволил диффузным моделям родиться. До них были GAN-модели, которые совмещали в себе генератор и дискриминатор. Дискриминатор, по-другому, это классификатор. Т.е. моделька сначала генерит изображение, а потом вторая полноценная модель оценивает его на вшивость и корректирует вместе с первой.

Из этого вытекают минусы: например, нужно вместе с одной моделью обучать и вторую (работы в два раза больше). Также нужно, чтобы железо тянуло сразу две модели, ибо они задействуются в паре.

Метод же SFG Scale позволил задействовать только одну модель — диффузнную, т.е. обучать вторую больше не нужно. Чтобы вы понимали, механика описывается парой строк кода. Думаю, вы смекаете, что это намного проще дополнительной полноценной модели, которую еще хранить где-то нужно.

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

В общем, благодаря CFG Scale мы получили более быстрое и стабильное обучение моделей, которые еще и по точности не уступают GAN-ам, а также могут генерировать изображения в разных разрешениях. Плюс дополнительные надстройки в виде LoRA стали доступны.

Как это работает?

Метод Classifier-Free Guidance Scale использует безусловную и условную генерации, которые перемножаются друг с другом. Грубо говоря, сначала создается изображение без учета текстовой подсказки, а затем с ней. Чем выше CFG Scale, тем больше будет доминировать условное изображение.

Это нужно для того, чтобы мы могли получить либо больше вариативности генерации, либо больше точности — того самого следования текстовой подсказке. Получается, что чем ниже CFG Scale, тем нейронка свободнее в своих действиях, а чем больше — наоборот, скованнее.

Так как формула просчета CFG Scale и перемножения двух генераций простая, то и минусы из этого следуют такие же простые и очевидные. Всем ясно, что математематические формулы можно совершенствовать до бесконечности, повышая точность и скорость. И это делают, сейчас разберем как.

Вот вам наглядная демонстрация влияния CFG Scale на качество генерации.

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Как вы можете видеть, первое изображение при низком CFG Scale близко к безусловному, т.е. не учитывающем классы из текстовой подсказки. При высоком же значении этого параметра мы получаем те самые минусы математики, о которых я говорил выше. Нейросеть как бы пытается достать генерацию, выдавить ее через трафарет, максимально четко охарактеризовать объект.

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Помните лизуна в сетке? Представьте, что когда вы сжимаете его, то увеличиваете тем самым CFG Scale. Т.е. вы проталкиваете подсказку через некий трафарет (сетка — это безусловное базовое изображение, а лизун — это условное изображение, сформированное подсказкой).

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Теперь посмотрим на чрезмерное увеличение контрастности изображения в Photoshop. Принцип по сути очень похож: мы пытаемся усилить цвета и как бы выделить на фоне остальных, т.е. выжать, как того самого лизуна.

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Снова возвращусь к минусам математики и ее бесконечном улучшении. Взгляните на примеры выше и сравните с предыдущими. Высокие значения уже не так коверкают генерацию, как раньше, а помогло в этом расширение CFG Dynamic trashholing, которое не выдавливает, а спиливает ненужные части. Вместе с лишним уходит и освещенность, но это все же лучше артефактов. Суть метода в том, чтобы как бы отодвигать яркие пиксели назад, тем самым уменьшая эффект ярких артефактов.

Про данное расширение и другие способы увеличить качество ваших генераций в десятки раз у меня, кстати, есть ролик.

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

Еще одной иллюстрацией механики CFG Scale можно считать два негативных промпта у нейросети Kandinsky 2.1, один из которых является безусловным, а другой условным. При CFG Scale < 1 отрицательная подсказка игнорируется.

По ссылке вы можете найти официальную документацию Kandinsky 2.1, а также прочитать буклет Google о classifier-free guidance scale, на который ссылаются разработчики Кандинского.

Что по итогу?

Самое понятное объяснения CFG Scale в нейросетях. Почему эта штука так важна и как повлияла на появление Stable Diffusion Искусственный интеллект, Нейронные сети, Digital, Stable Diffusion, Наука, IT, Диффузия, Генерация, Статья, Научная статья, Длиннопост

А по итогу мы имеем представление о методе, который является одним из родителей диффузных моделей, к примеру, Stable Diffusion или Midjourney.

Теперь нам не нужен дискриминатор, а модель генерирует изображение за несколько шагов, что дает массу простора в контроле генерации. Мы можем и ControlNet подрубать, и LoRA, всякие разные расширения, дополнения.

Но не только ControlNet-ом хороши современные нейронки, но и целыми каскадами других, не менее масштабных сетей. У Midjourney, к примеру, есть сеть-генератор формы объекта, граней, апскейла, раскраски и много чего еще. С GAN-моделями такое было бы практически невозможно совместить.

Если вы хотите глубже погрузиться в диффузные нейросети, то советую прочитать этот материал, который мне также помог в изучении темы. Также продублирую статью о методе CFG Scale в диффузных моделях, а также статью о применении методики в языковых моделях.

Congratulations, вы выжили!

Теперь вы разбираетесь в том, что такое CFG Scale в нейросетях. Буду рад обратной связи и вашим комментариям, а также приглашаю в свой телеграм чат, где отвечу на все вопросы касаемо SD.

Буду рад видеть вас в телеграм-канале, где я собираю лучшие гайды по Stable Diffusion. А если не найду, то пишу сам.

Показать полностью 7
[моё] Искусственный интеллект Нейронные сети Digital Stable Diffusion Наука IT Диффузия Генерация Статья Научная статья Длиннопост
5
1
FuriosoOculus
FuriosoOculus
2 года назад
Stable Diffusion & Flux

Кофе и грибы⁠⁠

Кофе и грибы Кофе, Грибы, Статья, Бред, Stable Diffusion, ChatGPT, Арты нейросетей, Арт, Fake News

Кофе и грибы, две необычайно когерентные сущности, несущие в себе потенциал для синаптической пластичности. Когда они объединяются, возникает нечто большее, чем сумма их отдельных частей. Грибы, с их уникальным способом обмена информацией через мицелий, могут служить эффективным каналом для передачи сигналов между синаптическими рецепторами. А кофе, с его богатой химической композицией, может стимулировать производство нейротрансмиттеров и повышать уровень внимания и концентрации. Таким образом, грибы и кофе могут совместно создавать уникальные условия для формирования новых нейронных связей и обогащения синаптической мембраны. Это открывает потенциал для создания высокоэффективных нейросетей, способных эффективно обрабатывать и перерабатывать сложные данные. Возможно, в будущем мы сможем использовать эту уникальную комбинацию для разработки новых методов искусственного интеллекта и создания умных систем, способных адаптироваться к изменяющейся среде и улучшать производительность.

Показать полностью 1
Кофе Грибы Статья Бред Stable Diffusion ChatGPT Арты нейросетей Арт Fake News
1
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии