Сообщество - Нейросекта

Нейросекта

133 поста 386 подписчиков

Популярные теги в сообществе:

4638

Как улучшить изображение нейросетью: 13 сервисов1

Это должны быть фотографии человеческого лица, сгенерированные нейросетями изображения тоже подойдут. ИИ исправит размытость, уберет шумы и немного оживит цвета на фото:

Fotofix : 1 бесплатный запрос.

Restore Photos : 5 бесплатных запросов.

Face Photo Restorer : полностью бесплатный.

Zyro AI Image Upscaler : полностью бесплатный.

Waifu2x : полностью бесплатный.

Let’s Enhance : 4 бесплатных запроса.

AI Image Enlarger : 8 бесплатных запросов/месяц.

Deep Image : 5 бесплатных запросов.

Vance AI Image Enlarger : 3 бесплатных запроса.

icons8 AI Image Upscaler : 3 бесплатных демо-запроса.

Upscale Pics : 8 бесплатных запросов.

Topaz Gigapixel AI : имеется пробная версия.

Crea8tiveAI Photo Refiner : Платный сервис.

После того, как вы потратите бесплатные запросы/генерации, просто чистите куки или открывайте инкогнито, или включайте VPN и повторно пользуйтесь бесплатно.

Источник: Нейросекта — это новый канал в Telegram, где каждый день редакторы в поте лица стараются себя и вас удивить все новой и новой информацией о технологиях будущего. Создаем различные интересные подборки нейросетей с платным/бесплатным доступом.

Показать полностью 13
317

30 нейросетевых инструментов для обработки

30 нейросетевых инструментов для обработки

Нейросетевые инструменты для обработки изображений и видео. По крайней мере, собрали всё, что более-менее хайповало. Грубо говоря, данная публикация будет полезна даже новичкам, которые только-только начинают знакомство с нейросетями, проведем для них экскурсию + прикрепляю видео с YouTube, которые будут полезны для заинтересованных, если вы не знаете английского языка, тогда используйте Яндекс браузер с функцией голосового перевода видео.
└ Обработка и генерация фотографий и видео с помощью всяких нейросетей в тренде уже год-полтора, и только сейчас их начинает двигать ChatGPT. Поэтому можно оглянуться назад и вспомнить всё, что понаделали эксперты из больших компаний по этой теме:

Трансфер стиля на фотографии

Парень объясняет как можно стилизовать одно изображение под другое, используя специально натренированную под это дело модель. С примерами кода, само собой.

Великий и ужасный DALL-E, с которого всё началось

DALL-E — это вариация нейросети-трансформера GPT-3, самой современной модели для обработки естественных языков. Русская нейросеть ruDALL-E была основана на зарубежной модели : видео посмотреть здесь.

Апскейлинг и восстановление старых видео

Архитектура, примеры, объяснения зачем и почему, всё как вы любите.

Свёрточные нейронные сети широко используются в задачах распознавания изображений. Отличие от стандартных нейронных сетей, где все сигналы передаются от каждого нейрона предыдущего слоя на следующий, то тут используются специальные матрицы свертки разных размеров, которая скользит по изображению, умножается поэлементно на то, что под ней и передает сумму результата дальше в элемент следующего слоя.

Вот, как они работают:

Генерация аниме-девочек

Хотите создавать аниме-девочек, которые никогда не существовали? Опять обращаемся к генеративным нейронным сетям. Нам поможет нейросеть StyleGAN2 и её реализация на TensorFlow. Если у вас есть набор лиц одного стиля, то эта нейросеть прекрасно справляется с тем, чтобы поймать этот стиль и начать генерировать.

Генерация реалистичных несуществующих людей

Нейросети научились генерировать лица несуществующих людей, которые человек не может определить. Позже Microsoft решили использовать эти лица, чтобы тренировать другие нейросети.

Результаты исследования показали, что детекторы и мапперы лиц, натренированные на синтетических людях показывают практически те же результаты, что и state of the art модели, которые обучались на реальных данных. И вот таким щелчком пальцев можно избавиться от предвзятости нейронных сетей из-за несбалансированного датасета и проблем с этикой.

Редактирование видео на лету с изменениями стиля

Новый метод позволил ИИ делать сразу много разных вариантов работы с видео. Он позволяет генерировать новые экземпляры, увеличивать длительность, добавлять/убирать элементы с определёнными условиями, при этом всё из одного стартового видео.

Можно создать фарш из воды, добавить футболистов в матч или продлить выступление балерины.

Создание 3D-панорамы из нескольких фото

Создать панораму поможет view synthesis, описывающая недавно разработанный метод под названием NeX.

Чем он лучше других? Качеством (можете посмотреть на примерах), а ещё он работает в тысячу раз быстрее методов, опубликованных всего год назад.

Какие могут быть применения? Представьте что для создания VR-музея вам надо сделать небольшое количество снимков, а остальные точки зрения дорисует нейросеть.

Результаты работы надо обязательно посмотреть в видео, потому что то, как модель ловит и просчитывает различные варианты освещения и отражения просто надо увидеть.

Редактирование видео от Adobe

Исследователи из Adobe представили ИИ, позволяющий редактировать/изменять/добавлять элементы и фон на видеофайлах. Нейросеть отделяет фон от остального, разделяя видео на два атласа, которые затем можно редактировать и запихивать обратно в видеофайл (как пример приведён мальчик катающийся на велосипеде по психоделическому пейзажу).

Создание изображений по описанию от NVIDIA

NVIDIA научилась создавать абсолютно фотореалистичные изображения из описания со скоростью мысли.

На самом деле, просто научились они это делать в 2019 году с помощью нейросети GauGAN, но тут как со Шреком, сиквел получился ещё лучше. Теперь GauGAN 2 оформлена в приложение NVIDIA Canvas, в котором простыми набросками кисти и описанием можно генерировать очень крутые фотореалистичные изображения, с дальнейшей переброской в фотошоп.

Нейросеть GLIDE для локального изменения изображений

Многие слышали про нейросеть DALL-E, которая генерировала постеры фильмов/картинки по описанию. Так вот, вышла новая нейросеть GLIDE, у которой не только с генерацией всё намного лучше, но и есть способность локально изменять части картинок.

Google Collab с реалистичными фильтрами а-ля Snapchat

Обзор самой новой техники редактирования видео в реальном времени с помощью GAN. Можно приделать себе усы, которые будут весьма натурально шевелиться и перемещаться вместе с вашим лицом (зачем это вам, мы не знаем). Причём редактировать можно не только человеческие лица, а любую отмеченную зону. Ссылка на Google Collab, чтобы провести свои эксперименты прилагается.

Редактирование людей на видео (эмоции, возраст, макияж)

Улучшенный метод по редактированию людей/персонажей на видео, который позволяет менять эмоции, возраст и макияж. Отличие от предыдущих методов в том, что для обработки одного кадра используются изменения, которые применяли в предыдущих (есть зависимость от времени). Результаты хоть и не идеальны, но очень близки к идеалу. Вариантов применения подобной техники будет масса (если ещё немного доделать).

Редактирование изображений от NVIDIA (лучше, чем было)

Семантическое редактирование изображений с помощью EditGAN от NVIDIA. Можно добавлять области редактирования на изображение и прописывать то, что в этих областях должно находиться (например можно добавить номер на машину или нарисовать птицу с помощью только этих областей). Качество лучше чем у предыдущих методов, но это и понятно, иначе никто бы публиковать подобное не стал.

DALL-E 2: Electric Boogalo

Примеры работы нейросети DALL-E 2, которая создаёт изображения из контекстного описания. Тогда digital художники артов забили тревогу, а результаты работы, хоть и не безупречны, очень впечатлили публику.

Нейросеть Imagen для генерации изображений от Google

В игру генерации врывается Google со своей сетью Imagen. Архитектура проще и умеет генерировать изображения из более длинных описаний, плюс правильно отображает текст, который её попросили поместить на изображение.

Стилизованное изменение изображений от NVIDIA (StyleGAN-NADA)

Новый StyleGAN-NADA умеет генерировать лица и натягивать на них контекстные изменения, может вы хотите стать ведьмаком, белым ходаком или картиной в стиле кубизма. Отличается от предыдущих нейросетей этой самой функцией и лучшими результатами.

Ещё одна генерация изображений от Google (Parti AI)

Google Parti AI с ноги врывается в команду искусственных интеллектов генерирующих изображения (таких как DALLE-2 и Imagen). Главное отличие — отрисовка изображения не из базового шума, а из некоторых кусочков общей картины: видео посмотреть здесь.

Дипфейки от Samsung

Новые варианты deepfake-ов в реальном времени с большим разрешением. Конечно, всё ещё не идеально, но намного лучше чем в 2020 году. А если вспомнить, как быстро менялась та же генерация изображений, то вероятно, что до совсем качественных deepfake-ов уже недалеко.

Генерация текстур от OpenAI

То, что DALLE-2 умеет генерировать изображения по тексту мы знаем. А теперь посмотрите, где люди уже навострились применять эту функцию. Генерация текстур, фотореалистичных лиц и виртуальных миров это только часть.

Stable Diffusion 1.4

Код StableDiffusion (альтернатива DALLE-2) для создания изображений и их непрерывного изменения в другие появился в открытом доступе. Можно попробовать запустить у себя или покопаться под капотом и попытаться улучшить (если есть что улучшать).

Модификация фотографий от Google (DreamBooth)

Через ИИ под названием DreamBooth люди могут генерировать изображения, на основе уже существующих с дополнительным описанием. Например, можно загрузить фотографии своей собаки и и попросить нарисовать её плавающей или на приёме у грумера. Можно смешивать изображения, модифицировать детали, бэкграунд или угол зрения.

Генерация изображения «вглубь» от Google (InfiniteNature-Zero)

InfiniteNature-Zero от Google AI, это улучшенная версия предыдущего метода по генерации изображения «вглубь». На этот раз, для обучения ему нужны только фотографии (а не видеоряд), плюс результаты сильно качественнее и контроль за «полётом вглубь» лучше (можно, например, поворачивать): видео посмотреть здесь.

Генерация 3D-ассетов от Google (DreamFusion)

Google, в дополнение к уже существующим DALLE-2 и StableFusion, добавили ИИ под названием DreamFusion, который умеет по тексту генерировать 3D модели. И не просто 3D модели, их сразу можно использовать в качестве ассетов для игр/видео/куда там ещё можно эту модель запихнуть: видео можно посмотреть здесь.

Text-to-video от Google

Google теперь умеет генерировать небольшие видео по входному тексту, при этом сохраняя временную когерентность (то есть кадры переходят друг в друга очень плавно). Правда ИИ с небольшим «костылём», если так вообще можно сказать. Сначала генерируется видео в очень плохом разрешении, а затем с помощью апскейлинга дотягивается до 720p: видео здесь.

Waifu-diffusion (создай свою аниме-девочку)

Может кто-то из вас уже видел результаты работы stable diffusion моделей, которые рисуют красивых девушек. Так вот, таких моделей несколько, можно использовать Stable Diffusion, можно использовать его вариацию Waifu Diffusion (по названию можете понять, на чём конкретно ее обучали), Dreambooth и NovelAI: видео посмотреть здесь.

Анимирование изображений от Google (StyleGAN)

StyleGAN умеет хорошо анимировать различные картинки по нашему запросу того, что должно происходить, причём с хорошей темпоральной когерентностью (от кадра к кадру детали объекта почти не меняются), лучше чем предыдущие text-to-image модели.

Style-трансфер на видео с людьми

Модель с новым подходом может производить стайл-трансфер на видео с реальными людьми, со скоростью от 5 до 10 изображений в секунду, сохраняя темпоральную когерентность (например, при смене кадра волосы не колбасит и они не идут странными узорами).

Спецэффекты на видео с помощью текста от NVIDIA

Новый ИИ от NVIDIA умеет накладывать спецэффекты на видео с помощью всего нескольких предложений. Хотите чтобы пятна на жирафе были из разноцветного стекла? Так и скажите. И вам всё сделают.

Локальное изменение изображений с помощью текста от Google

Новый ИИ от Google под названием Muse умеет изменять части изображений, но теперь вам даже не надо рисовать слой-маску, под которым надо что-то менять. Дали изначальное изображение, написали конечный результат (который должен хоть частично напоминать стартовую точку) и получаем изначальную композицию с изменёнными деталями.

Создание короткометражек по сценарию от Google AI

ИИ от Google под названием Phenaki теперь умеет создавать долгие видео из последовательности строчек сценария, при этом вполне последовательно и с нужными переходами: видео посмотреть здесь.

От переноса стиля на фотографии, до короткометражек из текста всего за 1.5 года. Прогресс действительно не стоит на месте.

Нейросекта — это новый канал в Telegram, где вы сможете найти больше инструкций и полезных публикаций, так как мы потеем над контентом и вручную все тестируем, к слову нас уже почти 3 000 подписчиков, спасибо за поддержку!

Показать полностью 24

GPT-4 глупеет или СМИ раздувают фейк?

Сейчас пытаются раздуть новость из исследования с очень узкой выборкой тестов GPT-4. Мол, главная нейросеть прямо сейчас глупеет на глазах, уже не работает как надо, а юзеры через одного жалуются на качество генераций и т.д., сейчас Нейросекта постарается раскидать факты.

Вот что говорят специалисты: произошел некорректный анализ, а ИИ только лучше стал! Да-да, такое бывает, когда люди гонятся за громкими заголовками, к примеру в миллионных СМИ каналах выдают информацию без проверки и разбора (см. скрин ниже), а значит - это еще одна причина не доверять всему тому, что публикуют и старайтесь лично все перепроверять.

Вот собственно говоря источник самой статьи, где утверждается, что GPT-4 работает хуже:
How is ChatGPT's behavior changing over time?

Исследование подтвердило — GPT-4 потупела! Или нет..? Давайте разбираться в нашумевшей статье — мне уже пару друзей в личку пишут, спрашивают, мол, правда ли.

Stanford и UC Berkley пытались сравнить ChatGPT и GPT-4 версии марта и июня 2023го года (да, для каждой из них существует по два варианта). А то люди в последнее время начали жаловаться (например, вот на Reddit), мол, модель стала работать хуже, ответы менее полезные!

Для тестирования взяли 4 задачи:
1) математика, или ответ на вопрос, является ли число простым или составным? (если забыли, то простые числа — это такие, которые делятся только на 1 и на само себя)
2) кодинг, или возможность модели выдавать осмысленный код
3) ответы на чувствительные ("токсичные") вопросы
4) задачи на visual reasoning (для тех кто знает - это бенчмарк ARC. Нужно по нескольким картинкам выявить паттерн и применить его для нового примера, см. картинку ниже)

В математике GPT-4 очень сильно потупела - почти перестала отвечать корректно (чуть больше 2% правильных ответов!!). При этом ChatGPT наоборот стала гигантом мысли - рост метрик к июню более чем десятикратный.

Напомню, что проверялась возможность модели определить, являлось ли число простым. Если честно, сложно сказать, что это именно проверка "математических способностей" модели. Я бы сказал, что это про запоминание данных - ведь модель сама по себе не может выполнять валидации вычислений и вывод (конкретно для простых чисел, без обобщения на другие задачи).

В программировании всё тоже очень плохо - обе модели просто скатились в нулину по качеству.

...или нет?

Если посмотреть внимательно на картинку и на выделенные части, а затем внимательно прочитать статью, то начинают появляться странные вещи. По сути, авторы даже не запускали код и не проверяли его на правильность - они просто смотрели, что это валидный Python-код. Более того, как видно по картинке, "свежие" модели научились обрамлять код в специальный декоратор (три кавычки и слово python) — И ИМЕННО ЭТО МЕШАЛО ЗАПУСКАТЬ КОД!

Да, вы все правильно прочитали - модель не проверяли на качество написанного кода, не проверяли на правильность с точки зрения выполнения программы, нет. Наоборот, я бы сказал что модель стала более "пользовательской", то есть напрямую сообщать, что вот тут, мол, код — а еще давать какие-то комментарии и советы.

То есть ни результат, ни сам эксперимент НЕЛЬЗЯ СЧИТАТЬ доказательством деградации моделей — они просто начали по другому себя вести, по другому писать ответ.

На двух других задачах качество наоборот улучшилось: GPT-4 стала реже реагировать на "неправильные" промпты (более чем в 4 раза реже!), а на задаче Visual Reasoning качество приросло для обеих моделей на пару процентов. То есть никакой деградации, только улучшение!

А что же по "математическим навыкам"? Неужели и тут какой-то прикол есть?

Оказывается, да — все числа, которые дали модели, были простыми. То есть она ВСЕГДА должна была отвечать "Yes". При этом если добавить в выборку и составные числа, то...оказыается никакой деградации нет. Это чистого рода изменение поведения модели - раньше она чаще говорила да, а не отнекивалась, а теперь говорит нет (потому что не уверена, видимо).

Это отчетливо можно увидеть на приложенном графике (он не из статьи, а вот отсюда).

То есть ещё раз - тест странный, однобокий, и его результаты объясняются не изменением качества моделей, а изменением скорее их поведения.

Важно отметить, что тестировались API-версии, а не те, что находятся в Web-браузере. Возможно, с целью экономии ресурсов модельки в браузере действительно подрезали (сделали меньше, или применили разные методы оптимизации с потерями в качестве), однако приложенное исследование этого точно не доказывает.

Таким образом, если говорить правильно, по уму, "данное исследование не отвергает нулевую гипотезу о том, что модели стали хуже".

Ну а мы ждём, пока кто-то сделает грамотное разностороннее и честное тестирование!


Отдельно напишу главный тезис, который я вынес для себя и который хотелось бы донести:

Влияние изменения поведения и снижения возможностей моделей на конечного пользователя может быть очень похожим.

У нас с вами обычно есть определенные рабочие промпты, наработанный опыт, которые вроде как работали с GPT. Однако когда происходят подобные отклонения в поведении, этот опыт может стать малорелевантным.

И главное — это особенно актуально для приложений, созданных на основе GPT-4 API. Код, написанный для конкретных пользователей и под конкретную задачу, может просто сломаться, если модель изменит свое поведение.

В компании Unleashing.AI, например, сейчас переделывают подход к разработке подобных продуктов: добавляют тестирование, собирают отдельный набор данных, который прогоняется раз в неделю и помогает определить, есть ли деградация. Пока звоночков плохих не было, и надеюсь, что еще долго не будет, но кто знает?

Рекомендую добавлять подобное тестирование и вам :) Просто набор промптов + текстов для модели, и ожидаемый результат, а дальше проверка на схожесть ожидания и реальности. Как только они расходятся - что-то надо чинить!

По сути, это полноценные Unit-тесты 👀, таким образом рано хоронить GPT-4.

Вдогонку — люди в твиттере посчитали новые метрики с учётом фикса, и по ним модель стала "умнее".

И да, основной вывод публикации в том, что:
Не то что модель отупела, а то что грубо говоря разработчикам, делающим продукты над LLM, нужно уделять этому больше внимания.

Источник: Нейросекта — это новый канал в Telegram, где каждый день редакторы в поте лица стараются себя и вас удивить все новой и новой информацией о технологиях будущего, в том числе мы все перепроверяем и не доверяем раздутой информации в СМИ и вам советуем.

Показать полностью 8

SeaArt AI сгенерирует красивую девушку?

SeaArt AI — это нейросеть, схожа с Midjourney, но выделяется тем, что ее можно использовать бесплатно, работает при помощи модифицированных моделей Stable Diffusion. Еще вы можете смотреть работы других пользователей и копировать промты для точной генерации. Я скопировал некоторые промты и попытался сгенерировать:

└ В начале вам нужно пройти регистрацию (временные почты не подходят) или войти через Google-почту. Чтобы сгенерировать изображение, перейдите по этой ссылке и вводите промты для генерации, если не знаете какие, тогда копируйте в разделе: Площадки ИИ у других.

ИИ качественно генерирует, важно подобрать правильно промт:

Были и неудачные дубли:

Кстати, на канал: Нейросекта— загрузили более интересные результаты, мужчины гарантированно оценят. Мы стараемся вручную все тестировать и рассказывать про самые свежие новости из сферы ИИ, спасибо за вашу поддержку, нас почти 2 000 подписчиков!

Показать полностью 5

Deep Floyd IF круче Midjourney?

Deep Floyd IF — это еще одна нейросеть, генерирующая изображение на основе текста. Пока что она находится на раннем этапе развития, а про нее говорят уже все.

Чем Deep Floyd IF круче Midjourney?
Midjourney и прочие популярные нейросети создают крутые детализированные арты – это факт. Но у них до сих пор есть проблема с интеграцией текста в изображение – а Deep Floyd их в этом уже обошел. Вот отсюда и вся шумиха.

Как работает Deep Floyd IF?
Создание картинки проходит в два этапа. Сначала пишем промпт (подсказка) и на его основе получаем 4 микроскопических изображения 64х64 пикселя. Берем лупу (шутка) и выбираем тот, который нравится больше. Дальше нажимаем на кнопку “Upscale” – изображение обрабатывается еще раз и наконец появляется в размере 1024х1024.

Наше мнение:
Сейчас Deep Floyd IF доступен бесплатно и не требует дополнительных регистраций, так что грех было не потестить его самим. Впечатление осталось хорошее — даже несмотря на то, что не везде у нейросети получилось нарисовать слово «Neirosekta» – сделаем поблажку на то, что для англоязычной модели это слово выглядит непонятно. А вот арт с граффити «Neurosect» получился с первого раза. Написать четыре буквы N, R, S, T в правильном порядке у нас так и не получилось — на десятом промпте мы сдались.
└ Многие отмечают, что сами арты пока не отличаются качеством — но на хлебособаке (куда без них) текстура у хлеба безумно реалистичная (см. последнюю фотографию)👌🏻

Источник: Нейросекта — это новый канал в Telegram, где вы сможете найти больше инструкций и полезных публикаций, так как мы потеем над контентом и вручную все тестируем, к слову нас уже почти 1 000 подписчиков, спасибо за поддержку!

Показать полностью 6

Ответ на пост «Нейросеть сгенерирует дизайн для вашей комнаты»1

Ответ на пост «Нейросеть сгенерирует дизайн для вашей комнаты»
Показать полностью 1
52

Ответ на пост «Как улучшить изображение нейросетью: 13 сервисов»1

Что ж среди миллионных постов о средствах AI для улучшения фото, которые умирают в сохраненках, я решила выделить именно этот и затестить так называемые апскейлеры. Есть у меня горячо любимое лого, стащенное в ужасном качестве у близзард:

В рамках аватарки оно мне очень импонирует, но хочется конечно и нормальный исходник иметь. Для начала покажу, до чего я дошла просто обычным апскейлером Stable Diffusion когда-то давно, когда у меня загорелась такая идея:

Как видно, результат меня не очень порадовал, а углубляться в таинства настройки нейронки мне было впадлу, да и памяти на видеокарте достаточно мало, чтобы можно было с комфортом тестить.
Давайте посмотрим результаты апскейлов, предложенные сервисами из поста:
- Fotofix

Приятный улучшение с первой попытки! Однако артефакты все еще видны и в расфокусе сохраняется тот некачественный блюр из оригинала. С очками малесь беда и не рекомендую вглядываться в зубы.

Let’s Enhance

Сразу видно кисть мастера, комментировать не очень хочется, наложили вотермарку и добавили лазерганов.

Face Photo Restorer

Не смотря на поломанный добрым AI нос, этот вариант мне понравился, но использовать так же я не буду.

Deep Image

Вотермарки мои вотермарочки. Из прекрасного гигачада мне сделали акулу с доп рядом зубов, прям как на тех кошмарных фотках с зубами детей. Результат крайне грустный, если бы мое мнение кого то интересовало.

Vance AI Image Enlarger

Здесь также мои любимые вотермарочки и немного выпадающая очевидно вставная челюсть. Сохранить вариант, к сожалению, платно, а платить за сомнительный результат мне неочень хочется.

И на этом все.

Как все? В оригинальном посте 10+ сервисов, а результат есть только у пяти? Увы и ах, остальные сервисы не влияют никак на качество фото, а выполняют именно апскейлинг - увеличивают размеры изначальной картинки. Вот например, restorePhotos.io:

Более того почти каждая платформа требовала регистрации (гуглопочты мне хватило), а скачивать на свой компуктер сомнительные программы в век облачных сервисов показалось мне сомнительной затеей.

Выполнила ли я свое желание улучшить фото гигачада? Нет)) Я более чем уверена, что это возможно, но явно не с помощью бесплатных сервисов, а скорее людей, которые занимаются нейронками, моделями и точно понимают, что они делают. Проще вложить свое время в изучение хорошего инструмента, чем получить результат качества? как приводится в посте.

И конечно же, ЧИТАЙТЕ что делают инструменты, 13 сервисов из оригинального поста НЕ выполняют улучшение картинки, половина просто выполняет умное масштабирование.

Всем добра:)

p.s. если у вас получится улучшить фото, буду рада посмотреть и поизучать инструментарий.

Показать полностью 8
2394

Нейросеть сгенерирует дизайн для вашей комнаты1

└ К примеру, вам захотелось обновить дизайн/ремонт.. что делать? Все просто, сфотографируйте комнату и обратитесь за помощью к нейросети RoomGPT, нейросеть поможет и сгенерирует новый дизайн/интерьер в вашей комнате. Из фотографии (см. выше), получился такой результат:

RoomGPT — это нейросеть, которая обновит интерьер комнаты по фотографии, просто войдите на сайт через Google, загрузите фотографию своей комнаты, выберете желаемый стиль (минималистичный, тропический, винтажный, современный и офисный) и ждите результата.
└ Войти на сайт необходимо через Google, вам выдают 3 кредита, которые можно потратить на 3 бесплатные генерации, как по мне результаты получаются неплохими.

Можете присылать в комментариях свои результаты, очень интересно увидеть ваш вкус, также ниже посмотрите еще результаты - попытался обновить стиль комнат из популярных сериалов.

Комната из сериала «Друзья»:
На примере гостиной видно, что большое количество деталей ИИ воспринимать и обрабатывать пока сложно – у нас на заднем фоне пропал холодильник, а двери RoomGPT заменил на окна.. интересный, но спорный дизайнерский ход 😂

Комната из сериала «Теория большого взрыва»:
Если не сильно вглядываться, готовый рендер выглядит как настоящая дизайнерская работа. Вот только у нейросети весь процесс занял меньше минуты 🔥

Разбавили дизайном комнату бабушки:
Больше всего понравился этот результат с обычной комнатной, так как ИИ даже висящую на ковре подвеску учел и везде индивидуально интегрировал в дизайн, но холодильники почему-то пропадают, возможно ИИ работает за еду 😂

Источник: Нейросекта — это новый канал в Telegram, где вы сможете найти больше инструкций и полезных публикаций, так как мы потеем над контентом и вручную все тестируем, к слову нас уже почти 1 000 подписчиков, спасибо за поддержку!

Показать полностью 4

Как правильно сгенерировать изображение в Midjourney?

Самое сложное в Midjourney — сформулировать, что ты вообще хочешь. Мы нашли решение, которое поможет быстро сгенирировать все что угодно. По слухам, Кандинский от Сбера тоже неплохо работает с этим генератором промптов.

Midjourney Prompt Helper – это бесплатный сайт, который составит идеальный промпт. На главной странице нужно просто ввести основную идею, например, “хомяк в скафандре улетает от взрыва в космосе”. А после выбрать нужные параметры – от художественного стиля до уровня детализации.

Сайт на английском, но каждый параметр сопровождается картинками с примерами. Так что интуитивно все понятно и без знания языка 👌🏼

После того как все настроили, сайт выдает готовый промпт.
Для этого хомячка (см. выше) промт выглядит так:

/imagine a cinematic wide shot of a hamster in a space suit floating away, space explosion, action, cinematic, matrix filter, photorealistic, 8k, cinematic lighting, cinematic filter

Источник: Нейросекта — это новый канал в Telegram, где вы сможете найти больше инструкций и полезных публикаций, так как мы потеем над контентом и вручную все тестируем, к слову нас уже почти 1 000 подписчиков, спасибо за поддержку!

Показать полностью 2
Отличная работа, все прочитано!