Когда объясняешь соседу снизу, что ты его затопил...
... потому что он рыба.
Крипо-рты
Генерировал тут: https://playgroundai.com/create
Prompt - girl, mouth, long tongue and round teeth appearing from the wet mud, in the style of gehry, macro lens, shallow depth of field, highly detailed, digital painting, trending artstation, concept art, illustration, cinematic lighting, vibrant colors, photorealism, epic
Как я сделала книгу (не приложив усилий) и распространила её по Москве (и сняла видео, конечно!)
Привет, Пикабутяне!
В марте было совсем мало времени на творчество, поэтому один месяц своего челленджа я запорола. Челлендж в том, чтобы выкладывать на ютаб хотя бы один ролик в месяц) Это реально сложно, когда у тебя есть работа, отношач, дела в виде приезда родственников, гулянок и прочего, прочего…
Однако я стремлюсь к качеству контента, не только к количеству, так что этим роликом я крайне довольна. Давайте расскажу в чём его суть:
Нейросети. Нейросети и творчество. Да, про нейросети уже давно визжат из всех щелей, но мне же тоже интересно опробовать их в творчестве. Я, как исследователь и поклонница технологий, решила создать книгу с помощью нейросетей. Название тоже выбирала одна из сетей)
Что произошло дальше? Я отправила свою книгу в несколько книжных магазинов города и провела несколько экспериментов. Я хотела узнать, как люди будут реагировать на мою книгу, что они вообще думают на счёт использования современных технологий в создании художественной литературы.
Результаты эксперимента были фантастическими! Я разговаривала с людьми, дурачилась, показывала им книгу и задавала вопросы. В стиле старого-доброго «Серёжи и микрофона»..
Помимо этого я пригласила эксперта – Внука Елькина, который объяснил, можно ли продавать нейросетевое творчество и что будет с профессиями писателей и художников в будущем (он очень много дельного поведал мне, думаю, надо из исходника сделать отдельный видос)
Так что же это значит для нас? Это означает, что нейросети могут стать одним из самых важных инструментов в нашей жизни, и мы можем использовать их для создания чего-то нового и уникального. Возможности бесконечны, и я не могу дождаться, чтобы узнать, что нам предложат нейросети в будущем!
Обязательно посмотрите видос и расскажите, как вы используете нейросети.
+ там ещё розыгрыш одной книги из видоса будет, тоже предлагаю поучаствовать. Всем добра!
Как Dall-e видет страны Европы
Албания
Австрия
Хорватия
Украина
Франция
Германия
Ответ на пост «Нейросеть изобразила марки авто в человеческом облике»
Ребят, а вы сами пробовали генерить нейросетью? А то все супер посты как нейросеть что то нагенерировала, хотя либо это 1 на миллион удача - либо нарисованно человеком по мотивам сегенерированного нейросетью.
Вот я вам покажу разницу ожидание-реальность пример того что генерирует нейросеть, топовая DALE-E-2 на хуманизацию машин.
Вот хонда:
Вот альфа ромео:
Крупным планом:
Лексус:
Вот я пытала нейросеть чтоб получить три однотипных иконки для приложения с изображением солнца-тучек, ну иконы я тут вижу да. , второй результат без слова "иконки", со словом "картинки"
Уже слышу крики с дивана - Машка, да ты подробнее описывай, нейросетке то нужно детали и конкретику.
Вот тут я очень конкретно просила два бассейна, один с розовой водой - другой с обычной. Причем сама нейросетка же описание и сделала, и не смогла по своему описанию нарисовать, бассейн везде один:
Куча запросов ушло на то чтоб нарисовать милую картинку кактуса в горшке, но чтоб на горшке не было глаз. Все мимо - милая - значит глаза на горшке. И нейросеть не колышет что я прямо прошу глаза на горшке не рисовать.
Нарисовать серию однотипных картинок нужных для приложения, чтоб на них было то что запрошенно - почти нереально. Фон для приложения я смогла использовать только после 20 генераций и еще пришлось доработать руками.
Слышу другие возгласы в дивана - Машка, да этож дело не нелегкое, надо тебе поучится больше чем пару дней.
Во первых не забываем что такое обучение платное, каждый запрос - денежка
Во вторых сетка меняется и обучается каждый день сама, и то что сегодня дает нужный результат - завтра мимо.
И в третьих - если уж я трачу время и деньги на обучение - я лучше научусь сама рисовать (пиксель арт не требует поставленной руки и высокого художественного вкуса)
В общем расходимся - чем использовать для генерации картинок нейросеть проще и эффективнее на эти деньги нанять человека-дизайнера.
С 80-х годов эта тема с нейросетями, учатся-учатся - все не научатся. Да, современные мощности позволяют генерировать что то сложное, но абсолютно бесполезное, и этот порог непреодилим принципиально, по все тем же причинам, что нейросеть это тупо случайная компиляция, а не высокоинтеллектуальная.
Как получить LimeWire AI Studio Premium на 1 год?
Акция доступна для всех пользователей
— ПОЛУЧИТЬ | 11 999₽
💁🏻♂️ LimeWire AI Studio [обзор сервиса] — это место для создания, публикации и монетизации контента с использованием возможностей искусственного интеллекта. Используйте LimeWire AI Studio для создания потрясающих генеративных изображений, музыки и аудио. Публикуйте свои творения на LimeWire и получайте до 90 % от всего дохода от интегрированной рекламы.
↘️ Нашел информацию (см. ниже) о том, что LimeWire дарит "Premium на 1 год" всем, кто опубликует обзоры в соц. сетях, таких как Twitter*, YouTube и т.д., просто создайте публикацию, к примеру в Twitter*, похвалите сервис и отправьте отчет на почту: support@limewire.com, чтобы получить Premium на 1 год, подписка позволит генерировать до 2 000 изображений/месяц через DALLE 2, Stable Diffusion XL v1.0, Google Imagen и другие доступные модели ИИ.
Перевел на наш родной, чтобы было удобнее ознакомиться с акцией
*Twitter (X) признан в РФ экстремистской организацией, деятельность в стране запрещена. Не знаю зачем, но лучше пропишу 😂
🤷🏻♂️ ЧТО НУЖНО ДЕЛАТЬ:
1. Регистрируемся на LimeWire.
└ Далее заполняем свой профиль
2. Теперь создаем отзыв в Twitter*.
└ Вот пример моего отзыва в Twitter*
3. Не нужно копировать весь текст.
└ Сделайте свой текст уникальным
4. Опубликуйте отзыв в Twitter*.
└ Или на YouTube, где вам удобнее
5. Создаем отчет для отправки.
└ Пример отчета для отправки:
Обязательно на английском языке, постарайтесь не полностью копировать мой текст (см. ниже), местами редактируйте текст, так как руководство LimeWire может подумать о том, что им пишет один и тот же человек, в таком случае могут отказать.
Hello, I recently joined your site: limewire.com and I really liked it, but I loved you more when I found out that you can leave a review on Twitter(X) / YouTube and get a Premium subscription for free for 1 year.
I created a post on Twitter, here it is:
https://twitter.com/allchemical/status/1714627830217154995
My account is registered to this email: почта@почта.ru
My username: allhimic
I really want to get your premium subscription for 1 year and I hope that I have fulfilled all the conditions.
Thank you for such an action, I want to note that this is not the last publication about your site on my social networks, now I am planning to create and upload videos to YouTube using the 1-year Premium subscription received as a gift.
Thank you again, I wish you development and prosperity, I hope my publications will help you!
6. Так, отправляем отчет им на почту:
└ Почта: support@limewire.com
7. Готово, дожидаемся ответа.
└ Получаем Premium на 1 год и наслаждаемся
Ответили практически моментально и подключили Premium на 1 год
Здесь можете увидеть, что платный тариф у меня активирован
Имеются разные модели ИИ, в любом случае полезный сервис
🔥Пост, скопирован из Telegram 👉🏻 FREEHVB для Пикабу.
Kandinsky 2.2: что нового в нейросети от Сбера
Вчера Кандинский обновился до версии 2.2. Решила сравнить его с предыдущей версией и заодно проверить, начал ли он догонять известную нейросеть Midjourney. Итак, спойлер: он пока еще не дотягивает до уровня Midjourney, но новое обновление вышло действительно интересным!
В обзоре буду сравнивать версии 2.1 и 2.2, используя один и тот же промпт. И чисто из интереса те же промпты выдам Midjourney.
Идеи для промптов брала на сайте Prompt Hero — постаралась выбрать разные тематики. Кандинский понимает запросы и на русском, и на английском, так что переводить их не стала.
Немного об обновлении
Вот что пообещали разрабы:
Генерируемые изображения стали более фотореалистичными;
Теперь можно указывать соотношения сторон будущего изображения. Раньше генерируемые изображения были ограничены квадратным форматом 1:1;
Функционал ControlNet: он предоставляет вам возможность вносить локальные изменения на картинке без изменения всей сцены.
Портрет
Решила начать с портретов, чтобы проверить, насколько изображения стали более реалистичными
a commercial photo portrait of stunning instagram model, sparklecore, appropriation artist, shiny/glossy, clear edge definition, unique and one-of-a-kind pieces, light brown and light amber, Fujifilm X-T4, Sony FE 85mm f/1. 4 GM
Кандинский 2.1 vs 2.2
Сразу заметна разница. Хотя с первого взгляда и видно, что это не фотография живого человека (либо сильно отфотошопленная версия), но результаты уже получше. Для сравнения вот такую фотореалистичность сейчас выдает Midjourney:
Не удержалась и решила провести эксперимент на Папе Римском. В этот раз обойдемся без переодевания его в белый пуховик (вы еще помните тот тренд с Баленсиагой?), а отправим его в Майами в 80-е годы.
Pope Francis in 80s Miami Style
Кандинский 2.1 vs 2.2
Вот тут вообще не впечатлило. Версия 2.1 получается даже более интересной и оригинальной. Да и цветовая гамма у нее сразу ассоциируется с розовым стилем и пальмами, о которых думаешь, когда слышишь о Майами 80-х. Версия 2.2 от Кандинского имеет излишнюю желтую насыщенность, это кстати сильный минус новой версии. Кажется, в 2.1 этого было меньше. Ну ладно, пойдем дальше.
Кстати, вот вам версия от Миджорни:
Несмотря на колоссальную разницу в качестве, 2.1 и Midjourney в общем-то попали в один вайб!
Стиль: мультфильм
Ладно, давайте оставим фотореализм на время и сделаем что-то забавное и мультяшное. Вот промпт, который мы выбрали:
a cartoon of an astronaut in space full of other characters, in the style of dreamscape portraiture, youthful protagonists, dark cyan and bronze, vibrant murals, lit kid, photorealistic renderings, intricate underwater worlds
Кандинский 2.1 vs 2.2
Есть впечатление, что новая версия стала чуть более... скучной? Я пробовала этот промпт в разных стилях — и в мультфильме, и в аниме, и во всяких разных. Однако все равно получается некая «пустоватая» картинка с характерной засвеченностью. В общем, хочется снова отдать свой голос за предыдущую версию.
А вот Midjourney:
Как будто бы они тут с 2.1 опять мыслили в одном направлении. У Кандинского даже персонажи на заднем фоне повеселее вышли :)
Предметная съемка
Одно из интересных применений нейросетей — генерировать референсы для предметных съемок. Давайте попробуем создать рекламу бургера!
Flying food photography with a burger as the main theme, splash of toppings and spices, cheddar flavored cheese, onion, pickles, sesame Bun
Кандинский 2.1 vs 2.2
Опять же, версия 2.1 действительно проявляет больше фантазии, здесь и соусы, и кусочки бургеров. Зато вот у 2.2 получается гораздо реалистичнее.
И вот такой результат показывает Midjourney:
Архитектура
Давайте попросим нейросеть нарисовать для нас интерьер дома с большими окнами, открытой планировкой и использованием натуральных материалов.
open spaces that are arranged to be viewable, in the style of ludwig mies van der rohe, light brown and light amber, post-war french design, voigtlander brilliant, balcomb greene, use of common materials, windows vista
Кандинский 2.1 vs 2.2
Девиз 2.2: Еще больше желтизны богу желтизны...
Животные
Давайте еще раз вернемся проверить фотореалистичность. Хочется ленивца!
A photo of a cute sloth swimming in a river, summer day
Кандинский 2.1 vs 2.2
Ну, стало чуть более реалистично. Но все равно заметна повторяющаяся проблема с излишней насыщенностью.
Забавно наблюдать, как Midjourney и версия 2.1 выдают примерно похожие результаты:
Новая функция: смешивание картинки и текста
В телеграм-боте Кандинского появились новые функции взаимодействия с изображениями, например возможность «смешивания». В этом режиме, по аналогии с функцией «remix» в Midjourney, вы можете загрузить изображение и написать тестовый промпт. Тогда нейросеть не только сгенерирует изображение, но и возьмет за основу загруженное изображение.
Решила поэкспериментировать с портретом девушки, который сгенерировала ранее, и в промпте написала всего одно слово: смокинг
Вышло интересно, вот это мне понравилось :)
Новая функция: перенос стиля
Очень похоже на функцию смешения. Здесь вы можете использовать одно изображение в качестве основы и передать его стиль другому. Не нужно дополнительно писать, что вы хотите получить — нейросеть все сделает сама.
Нажала «смешать картинки» и получила это:
Функции смешения и переноса стиля тянут потестировать их еще. Можете загружать свои фотографии и использовать их в качестве основы для генерации других изображений с разными стилями. Поле для экспериментов огромное!
Делаем стикеры
Выбираете соответствующую команду в меню тг-бота, вводите промпт, и получаете изображения, которые можно сразу же использовать для создания стикерпака прямо в телеграме:
Итог
Новые функции 2.2 мне зашли. В них не нужно долго разбираться да и проблем с ними не возникло.
Конечно, Кандинский, несмотря на свои достоинства, уступает Midjourney во многих аспектах. Но учтем, что Midjourney имеет больший объем данных для обучения — будем верить, что у Кандинского еще все впереди :D
Недостаток обновления, который сильно расстроил — «безликость» и желтизна получаемых изображений. Кроме того, несмотря на увеличение количества стилей до двадцати, разница между ними оказалась не всегда заметна и особого восторга не вызвала.
Как вам обновление? Успели затестить?
Источник: Нейросекта
В Питере шаверма и мосты, в Казани эчпочмаки и казан. А что в других городах?
Мы постарались сделать каждый город, с которого начинается еженедельный заед в нашей новой игре, по-настоящему уникальным. Оценить можно на странице совместной игры Torero и Пикабу.
Реклама АО «Кордиант», ИНН 7601001509