Ответ на пост «Котик сгенерированный новой нейросетью Sora от Open AI»
Зачем одно видео, когда можно все выложить?
Зачем одно видео, когда можно все выложить?
Походу через 2-3 года фильмы генерировать будет
На данный момент это лучшее решение в сегменте text-to-video. Нейронка способна создавать сложные сцены с несколькими персонажами, определенными типами движения и точными деталями объекта и фона. Модель понимает не только то, что пользователь запросил в командной строке, но и то, как эти вещи существуют в физическом мире.
🤩 из плюсов:
- необыкновенное качество, модель просто обходит всех конкурентов в этом сегменте
- отличное понимание анатомии, никаких 6 пальцев и рук из неоткуда
- удалось найти золотую середину между качеством и уникальностью результатов. Например, можно создать видео с экзотическими рыбами в стиле документальных фильмов BBC.
😒 теперь по минусам:
- точная дата выпуска модели остаётся неопределённой, так как предстоит провести ряд тестирований для предотвращения создания дипфейков и прочих проблем.
- в модели предусмотрено два уровня цензурных фильтров.
- все видео выглядят эстетически привлекательными и стильными, но возникает вопрос, не приведёт ли это к ситуации, аналогичной MidJourney, где все работы выделялись характерным узнаваемым стилем.
Только посмотрите на эти видео:
Заценить возможности Sora и подать заявку на доступ можно тут: https://openai.com/sora#research
Подписаться на тг-канал, чтобы быть в курсе новостей и всяких ии-полезностей можно тут: https://t.me/robot_fleksa
Друзья, всем привет! Сегодня я расскажу вам о новом чуде технологий от ребят из OpenAI. Знакомьтесь — Sora, искусственный интеллект, который умеет делать видео по вашему текстовому описанию. Да-да, вы не ослышались: напишите ему, что вы хотите видеть, и он это создаст. Волшебство? Почти. Давайте разбираться, что за зверь такой этот Sora и почему это круто. Ведь все видео в этой статье сделаны с помощью искусственного интеллекта.
Sora — это не просто очередная ИИ-игрушка. Это серьезный шаг вперед в области искусственного интеллекта. OpenAI научили свою новую модель превращать текстовые инструкции в видео. И не просто какие-то видео, а реалистичные и детализированные сцены, выполненные точно по вашему запросу.
Представьте, что вы хотите объяснить кому-то что-то сложное, или у вас в голове родилась фантастическая идея для короткометражки. Вместо того чтобы часами рисовать эскизы или пытаться найти подходящие изображения, вы пишете текст, а Sora превращает его в видео. Это открывает бесконечные возможности для обучения, творчества и развлечений.
Sora использует технологию, похожую на то, как работает ваш мозг, когда вы мечтаете: берет кучу информации (в данном случае текст), и на ее основе строит визуальные образы. Но, в отличие от нас с вами, Sora делает это с помощью алгоритмов и большого количества данных, на которых она обучалась.
Sora умеет создавать видео длительностью до минуты, соблюдая при этом все ваши указания. Это может быть что угодно: от простой сцены с двумя персонажами до сложной сценки с детально проработанным фоном.
Однако, как и любая технология, Sora не идеальна. Ей сложно справляться с очень сложными физическими сценами и иногда она может запутаться в деталях. Например, если вы попросите ее показать, как персонаж кусает печенье, она может забыть оставить след от укуса.
OpenAI серьезно подходят к вопросу безопасности. Прежде чем Sora станет доступна широкой публике, ее тестируют на предмет различных рисков: от дезинформации до предвзятости. Команда разработчиков работает над созданием инструментов, которые помогут обнаруживать и фильтровать потенциально вредоносный или вводящий в заблуждение контент.
Потому что Sora — это не просто новый ИИ. Это шаг к будущему, где технологии помогают нам реализовать самые смелые идеи. Сегодня это видео по текстовым описаниям, завтра — кто знает? Может, полноценные фильмы на основе наших снов?
OpenAI открывает нам окно в будущее, где границы между воображением и реальностью стираются. Sora — это только начало. Представляете, что будет дальше?
Так что следите за новостями, экспериментируйте и не бойтесь мечтать. В мире ИИ наступают захватывающие времена, и каждый из нас может стать частью этого приключения.
Почитать подробнее про Sora можно на официальной странице OpenAi. Пишите в комментариях, как думаете сделают ли модель открытой, или она будет доступна только за пару десятков баксов?
Я рассказываю больше о нейросетях и делюсь иллюстрациями у себя на YouTube, в телеграм и на Бусти. Буду рад вашей подписке и поддержке. Всех обнял.
AIFreeBox – платформа, которая предлагает бесплатные инструменты с искусственным интеллектом, для улучшения проектов в различных социальных сетях и на платформах электронной коммерции.
В AIFreeBox есть различные AI-инструменты, включая генераторы описаний товаров, сценарии видеороликов TikTok, посты для Инста и многое другое. Также можно генерировать любовные послания и сопроводительные письма для резюме.
Позволяет отслеживать эффективность контента с помощью подробной аналитики. Дает понять, что лучше всего работает на каждой платформе, плюсом можно уточнить стратегию для достижения максимального эффекта.
Хотите быть в курсе полезных AI сервисов для работы, учебы и облегчения жизни? Подпишитесь на мой канал в Telegram НейроProfit, там я рассказываю о том, как зарабатывать с помощью нейросетей и использовать ии-сервисы для бизнеса 😉
В сети обсуждают OnlyFake — сервис генерирует поддельные паспорта и права: за фотографию одного ненастоящего документа просят 15 долларов. ИИ умеет рисовать и российские паспорта.
Из горизонтального видео легко сделать вертикальное с помощью CapCut, а вот как быть с обратной ситуацией? Вот у меня есть вертикальный ролик для Tik-Tok, мне нужно сделать из него видео с разрешением 16:9:
Как это сделать? На помощь придет Pika Labs. Все, что потребуется - ввести необходимый промпт, и ИИ автоматически расширит картинку, генерируя недостающие объекты. Попробуем!
Заходим на сайт Pika Labs
загружаем вертикальное видео, которое нужно расширить:
3. Нажимаем Expand Canvas, выбираем нужный размер, перетаскиваем влево-вправо-в середину вертикальное видео. Я выбрала поставить вертикальное посередине и написала промпт "торшер слева диван справа" на английском и размер 16:9:
4. Нажимаем на кнопку рядом с промптом в виде звездочки и получаем видео нужного размера:
Так что не обязательно видео перемещать либо в левый угол, либо в правый, вы вполне можете поместить вертикальный ролик посередине и получить хороший результат.
Нейросеть дорисовывает все, что справа. Результат тоже хороший
- на бесплатном тарифе мне удалось сгенерировать только три 3-секундные видео
- изначально видео у меня длилось 7 секунд, Pika Labs обрезал его до 3-х
- Звук тоже пропал
Инструмент хорош, я бы посоветовала обрезать ваше вертикальное видео на несколько трехсекундных, и по очереди бы расширяла с одним и тем же промптом, а потом заново собрать, движение губ он не трогает.
Если хотите делать такие же крутые изображения и использовать Midjourney на полную мощь, вступайте в Закрытый клуб Midjourney, курс мощно обновлен и с 1 февраля будет подорожание. Все ученики получают обновления по курсу бесплатно и навсегда состоят в чате с единомышленниками и с уроками, так что есть смысл начать оучаться по привлекательной цене. Так же, бонусом, я добавила урок по созданию СЕРИИ киношных изображений, наверняка все видели сгенерированные нейросетями трейлеры в YouTube? Я про те, которые круто сделаны. Так вот, они сделаны из качественных референсов. И та-да 🎉 Вы научитесь создавать реальные киношные снимки, познакомитесь со стилями и научитесь еще более профессионально владеть Midjourney 🔥
Хотите быть в курсе полезных ии сервисов для работы, учебы и облегчения жизни? Подпишитесь на мой канал в Telegram НейроProfit, там я рассказываю о том, как зарабатывать с помощью нейросетей и использовать ии-сервисы для бизнеса 😉