Ответ на пост «Котик сгенерированный новой нейросетью Sora от Open AI»
Зачем одно видео, когда можно все выложить?
Зачем одно видео, когда можно все выложить?
Дополнение ElevenLabs для Sora позволяет генерировать звуковые эффекты для видео, созданных с помощью Sora.
Это означает, что пользователи Sora теперь могут добавлять к своим видео реалистичные звуки, такие как голоса, шаги, музыку и фоновый шум.
Преимущества использования дополнения ElevenLabs для Sora:
👉 генерирует реалистичные звуки, которые невозможно отличить от записанных человеком.
👉 может использоваться для генерации широкого спектра звуков, таких как голоса, шаги, музыка и фоновый шум.
👉 дополнение ElevenLabs является экономичным решением для создания реалистичного звукового сопровождения видео.
В настоящее время дополнение ElevenLabs для Sora находится в стадии бета-тестирования. Записаться на участие в бета-тестировании можно здесь
- - -
NeuroTrends 👇:
https://t.me/neuro_trends8/6345
Друзья, произошло важное событие в генерации видео нейросетями. OpenAI запустили SORA - text2video модель для генерации видео из промптов. Результаты не сразу можно отличить от реальной съемки. Я, честно говоря, до сих пор под впечатлением 🤯 Заверяют, что генерация видео по запросу длится до 1 минуты
Сегодня доступ к SORA получил ограниченный круг пользователей: эксперты по кибербезопасности, художники, дизайнеры, режиссеры.
После того, как они дадут свою оценку потенциальным рискам, а так же рекомендации по улучшению модели, SORA будет доступна всем пользователям. Это совершенно новый уровень создания видео!
Лучше сами посмотрите, Сэм Альтман в Твиттере показал возможности нейросети Sora, причем видео создаются по коротким промптам:
Промпт: Два золотистых ретривера ведут подкаст на вершине горы.
Промпт: Обучающая кулинарная сессия по приготовлению домашних ньокки, проведенная бабушкой, влияющей на социальные сети, на деревенской тосканской кухне с кинематографическим освещением.
Как можно заметить, тут и руки отлично получились.
Промпт: Велосипедная гонка по океану с различными животными в качестве спортсменов, едущих на велосипедах, с камеры беспилотника.
Вообще, рекомендую зайти на сайт SORA и посмотреть еще примеры генерации видео, бьюсь об заклад, вы удивитесь!
Помимо того, что нейросеть создает пока самые реалистичные видео, фокус-группа отметила в SORA еще любопытные функции.
Нейросеть Sora еще может Img2vid - сделать анимированное видео из картинки:
Вот еще пример:
Так же, нейросеть может комбинировать два видео. Получилось очень интересно, и это только начало:
Я думаю, сейчас не хило напряглись Pika Labs, который с недавних пор стад платным, и Runway, который до сегодняшнего дня был лучшим генератором видео. Скоро можно будет написать полноценный сценарий для фильма, а а снимать ничего не нужно будет 🙈 А что вы думаете? Ждете релиз?
Хотите быть в курсе полезных ии сервисов для работы, учебы и облегчения жизни? Подпишитесь на мой канал в Telegram НейроProfit, там я рассказываю о том, как зарабатывать с помощью нейросетей и использовать ии-сервисы для бизнеса 😉
Компания OpenAI, которая создала ChatGPT и Dall-E, представила новую нейросеть Sora — программу на базе искусственного интеллекта для преобразования текста в видео. Она может превращать короткие подсказки в фотореалистичные ролики.
Фрагмент из видеоролика, созданного нейросетью Sora / © OpenAI
Sora способна создавать целые видеозаписи продолжительностью до 60 секунд или расширять созданные видео, чтобы сделать их длиннее, следуя указаниям пользователя.
Выше приведен пример видео, созданный по текстовому запрос для Sora: «Стильная женщина идет по токийской улице, залитой теплым светящимся неоном, с анимированными городскими вывесками. На ней черная кожаная куртка, длинное красное платье, черные сапоги, черная сумочка. На ней солнцезащитные очки и красная помада. Она идет уверенно и непринужденно. Улица влажная и отражающая, что создает зеркальный эффект разноцветных огней. Многие пешеходы прогуливаются рядом».
Пример генерации видео по текстовому промпту от openai.
На данный момент это лучшее решение в сегменте text-to-video. Нейронка способна создавать сложные сцены с несколькими персонажами, определенными типами движения и точными деталями объекта и фона. Модель понимает не только то, что пользователь запросил в командной строке, но и то, как эти вещи существуют в физическом мире.
🤩 из плюсов:
- необыкновенное качество, модель просто обходит всех конкурентов в этом сегменте
- отличное понимание анатомии, никаких 6 пальцев и рук из неоткуда
- удалось найти золотую середину между качеством и уникальностью результатов. Например, можно создать видео с экзотическими рыбами в стиле документальных фильмов BBC.
😒 теперь по минусам:
- точная дата выпуска модели остаётся неопределённой, так как предстоит провести ряд тестирований для предотвращения создания дипфейков и прочих проблем.
- в модели предусмотрено два уровня цензурных фильтров.
- все видео выглядят эстетически привлекательными и стильными, но возникает вопрос, не приведёт ли это к ситуации, аналогичной MidJourney, где все работы выделялись характерным узнаваемым стилем.
Только посмотрите на эти видео:
Заценить возможности Sora и подать заявку на доступ можно тут: https://openai.com/sora#research
Подписаться на тг-канал, чтобы быть в курсе новостей и всяких ии-полезностей можно тут: https://t.me/robot_fleksa
OpenAI сегодня выпустили SORA - text2video модель, которая генерирует видео по текстовым промптам.
Косяки, конечно, встречаются, но на простых видео качество поражает. Скоро тревелблогеры, рекламщики и подобные вымрут :)
По ссылке больше примеров.