Stability AI представила модель для генерации видео по тексту Stable Video Diffusion. Она основана на модели изображений Stable Diffusion.
Проще говоря, если вы хотите сделать видео, но у вас нет камеры или актеров, вы можете ввести описание того, что хотите увидеть, и модель превратит ваши слова в видеоклип.
Этот инструмент может быть очень полезен для разных людей: журналистам он поможет сделать репортажи без выезда на место, учителям - создать обучающие видео, рассказывающие о сложных вещах простым и понятным языком, а рекламщикам - визуализировать продукты и услуги для клиентов.
Важно то, что компания сделала эту программу открытой, то есть любой желающий может ей пользоваться и даже улучшать ее.
Модель уже лежит в открытом доступе на GitHub, так же можно попробовать на huggingface
Stable Video Diffusion выпущена в двух вариантах: для генерации видео в 14 и 25 кадрах в секунду. Говорят, что модель обходит конкурентов с закрытым кодом от Runway и Pika Labs.
Подробнее про Runway я рассказывала в этом посте
Про модели Runway GEN-1 GEN-2 в этом посте
Как сделать видео в Runway GEN-2 я подробно рассказала в этом посте
Как бесплатно сделать видео в нейросети Pika Labs я показывала в этой статье
Вскоре Stability AI запустит сайт для генерации видео, доступ к которому будет выдаваться через лист ожидания.
Хотите узнавать первыми о полезных сервисах с искусственным интеллектом для работы, учебы и облегчения жизни? Подпишитесь на мой тг НейроProfit, там я рассказываю, как можно использовать нейросети для бизнеса