SORA 2 — ИИ, который снимает жизнь, обзор + приглашение
OpenAI представила SORA 2 — новый уровень генерации видео, где искусственный интеллект понимает физику, движение и звук. Я посмотрел, как работает система, какие возможности она открывает для креаторов и что нужно, чтобы попасть внутрь через приглашение.
🖥 Коротко о Sora 2!
1. Доступно 100 генераций видео в день.
2. Создать своё Cameo (ИИ-Аватар) можно пока только в приложение на iPhone.
3. Озвучка на русском есть, промты лучше оптимизировать через GPT.
4. Watermark можно убрать только через костыли.
https://github.com/GitHub30/Sora2WatermarkRemover 🖥 софт с GitHub 👈
5. Invite (приглашения) постоянно обновляются, коды могу работать вновь спустя пару дней, чекаем закреп в чате, хватит на всех! https://t.me/nikitasakhnov/833 👈
На Iphone приложение выглядит как социальная сеть, по сути это нейро-тикток)
Для того чтобы генерировать видео с собой в главной роли или с друзьями, вам нужно создать своё Cameo. Сделать это можно пока только в приложении на iPhone.
OpenAI заявляет, что Sora 2 теперь умеет не только «видеть», но и слышать.
Видеогенерация теперь сопровождается синхронизированным звуком, шумами и даже голосами. Представьте: вы пишете в промте «девушка идёт по мокрой улице», — и Sora создаёт не только кадры, но и звук шагов по лужам, шелест ветра, отдалённый гул машин.
То, что раньше требовало трёх разных инструментов, теперь делается одним нажатием.
Дополнительно в настройках Cameo вы можете персонализировать свой ИИ аватар, прописать промт, который будет использоваться для всех ваших видео, например нужная вам одежда, то что не должно менять и всегда быть часть вашего персонажа.
Ещё вы можете удалить своё Cameo и создавать новое, обновлять прическу и внешний вид.
И при этом — важный момент — OpenAI встроила контроль: если кто-то использует ваш образ, вы об этом узнаете. То есть идея цифрового аватара становится не только технологией, но и инструментом этического самовыражения.
В браузере Sora тоже работает, нажав внизу на три точки можно поделиться инвайтом с другими людьми. Количество инвайтов 4, но спустя пару дней у вас вновь могут быть приглашения по тому же коду.
Если первая версия Sora была впечатляющим, но иногда «фантазирующим» художником, то теперь перед нами режиссёр, который знает, как работает гравитация, движение и перспектива.
Sora 2 научилась ощущать физику:
— мяч не летит сквозь корзину,
— человек не проваливается в землю,
— свет и тень взаимодействуют так, как они должны в реальном мире.
Это не просто визуальный апгрейд — это шаг к пониманию контекста. Раньше видео из ИИ выглядели как сон, теперь — как сцена из фильма.
Можно делать и широкоформатные ролики.
Пока что сервис доступен только в США и Канаде, и только по приглашению.
OpenAI выдаёт инвайты ограниченному числу пользователей, которые могут пригласить ещё несколько человек.
Поэтому сейчас Sora 2 — это что-то вроде закрытого клуба будущего, куда пока не каждый попадёт.
Технически, можно поменять регион Apple ID, но это уже вопрос обхода правил, а не официального доступа.
Решение как и приглашения вы можете найти у нас в канале и чате.
В чате канала активно идет обмен инвайтами.
Invite (приглашения) постоянно обновляются, коды могу работать вновь спустя пару дней, чекаем закреп в чате, хватит на всех! https://t.me/nikitasakhnov/833 👈
Watermark можно убрать только через костыли. Держите софт.
https://github.com/GitHub30/Sora2WatermarkRemover 🖥 софт с GitHub 👈
Видео с вотемаркой
Разумеется, не всё идеально.
Доступ только по инвайтам, качество иногда «плывёт» на мелких деталях — руки, лица, фоновые объекты всё ещё поддаются «артефактам». OpenAI заявила, что в Sora 2 встроена система фильтров и модерации, но, как показывает практика, идеальных алгоритмов ещё не существует.
Sora 2 — это уже не просто инструмент, это новая форма искусства.
Как когда-то камера изменила живопись, так теперь ИИ меняет само представление о видео.
Мы на пороге времени, когда фраза «сними ролик» будет означать «опиши словами».
Это и вдохновляет!
Но одно точно: если раньше мы учились управлять камерами, то теперь нам предстоит учиться управлять воображением машин.
Делаем селфи с исторической личностью через нейросеть и открываем для себя культурных героев России
Как сделать селфи со знаменитостью через нейросеть? Теперь не нужны фотошоп и бесконечные поиски редких референсов. Исторические личности России и культурные знаменитости в нейросети доступны каждому: буквально за несколько минут можно оказаться на одном снимке с кумиром прошлого или создать кадр в духе эпохи. В этой статье разберём, как сделать селфи со знаменитостью через нейросеть, создать эффектные фотографии с историческими персонажами и получить новые идеи для творчества.
Что объединяет школьника из провинции, стартапера и учителя истории? Желание почувствовать себя частью большого сюжета, а не просто слушателем на задней парте. Пока одни спорят, стоит ли подключать ИИ к учебе, другие уже фотографируются с Петром I, Гагариным и, прости господи, даже с Мона Лизой. Не на словах, а буквально — делая новые селфи, где история становится частью личного архива, а не страницы учебника.
Эта история не только для детей — здесь есть место креативу педагогов, авторам контента, даже SMM-щикам, которым надо удивлять подписчиков. Виртуальное фото с Екатериной II — отличный способ втянуть аудиторию и поговорить о прошлом, которое вдруг становится ближе, чем казалось. Если умеете удивлять, даже самый заученный параграф заиграет.
Рассказываем, как шаг за шагом собрать такое селфи, чтобы история стала вашим личным приключением — и ни грамма музейной пыли.
Как сделать селфи со знаменитостью через нейросеть: технологии и возможности
В эпоху, когда DeepFake пугает, а нейросети уже всерьез конкурируют с классическим Photoshop, возникает новый жанр: историческое селфи. Но тут не про обман — тут про творчество и вау-эффект, который вызывает у людей возможность сделать кадр с Гагариным или Петром I, будто вы знакомы лично.
Технически всё строится на связке DeepFace и Sora Images. Первый отвечает за распознавание лиц и аккуратную замену, второй — за генерацию фонов и персонажей, которых раньше видели только в учебнике. За пару минут из вашего портрета и картинки из энциклопедии получается фото, на которое хочется звать друзей: «Смотри, это я и Маяковский!»
Что с этим делать? Отправлять на конкурс, в школу, в личный архив, в корпоративный Instagram. И каждый раз получать отклик — потому что такие фото почти никто не ожидает увидеть. А теперь самое интересное: где именно можно использовать такие снимки и кому это особенно зайдёт.
Где использовать фото с историческими личностями и культурными знаменитостями
Одна картинка порой говорит больше, чем десяток слайдов: когда ученик защищает проект по истории, и на экране появляется он сам — плечом к плечу с Гагариным или Екатериной II — даже самый суровый преподаватель не сможет сдержать улыбку. Такие фото — не просто «вау-эффект», это рабочий инструмент для учебных презентаций, когда надо не только рассказать, но и показать свою вовлечённость.
Творческие конкурсы? Легко. Попробуйте устроить школьный или городской баттл на тему «Я и герой своей эпохи». Здесь важна не только фантазия, но и умение ловить тренды: фото с Петром I или Чеховым могут стать вирусными, если сделать их с душой.
В соцсетях такие снимки работают как магнит для комментариев. Они не просто вызывают реакцию — они втягивают в диалог. А если хочется добавить немного иронии, мем с вами и Маяковским за пять минут может собрать больше репостов, чем целая неделя скучных постов.
Всё это не требует технических знаний или сложных установок. Главное — подготовить правильные исходники.
Подготовка к работе с нейросетями
Всё начинается с правильного портрета. Забудьте про селфи на бегу или групповые снимки в лифте — нейросети любят чёткие кадры и простые фоны. Лучше всего работает спокойный ракурс, когда лицо в камеру, эмоция — лёгкая улыбка или задумчивость. Вспомните, как фотографируются на визы или документы, только чуть душевнее. Белая стена или нейтральный фон — залог того, что потом не будет артефактов и странных пятен.
Теперь — главный герой эпохи. Ищите портреты исторических личностей на сайтах музеев, в открытых галереях, в цифровых архивах. Можно пойти дальше: использовать картины или даже сгенерировать собственную сцену в стиле нужного века — от «царицы в зале» до «учёного за работой». Главное — чтобы на изображении персонаж был чётко виден, без размытых силуэтов и фоновых шумов.
Когда исходники подготовлены, сам процесс превращается в творческое приключение. Осталось только собрать всё по шагам — переходим к самому интересному.
Создание селфи с исторической личностью (инструкция)
Всё гениальное — просто. Вот как работает ваш путь к кадру, который удивит не только коллег, но и всю школьную администрацию:
1. Подготовьте свой портрет
Выберите хорошее фото: лицо открытое, взгляд в камеру, эмоция — живая, но не «паспортная». Уберите пятна, лишние детали и фильтры — всё, что может сбить нейросеть.
2. Загрузите портрет в нейросеть
Откройте этот бот и загрузите портрет. Обязательно сохраните лицо через кнопку «Сохранить DeepFace» — это база для дальнейшей магии.
Обратите внимание, что «Сохранить DeepFace» можно только тогда, когда в боте подключена нейросеть Stable Diffusion.
Почему стоит выбрать Telegram-боты для работы с нейросетями? Просто большинство оригинальных нейросетей созданы иностранными разработчиками, поэтому такие сервисы чаще всего «заточены» под английский язык. А боты избавляют от этого барьера, через них можно генерировать картинки на русском, без лишних сложностей и переводов.
3. Подберите групповое или сюжетное фото с исторической личностью
Придумайте сцену: Пётр I на корабле, Гагарин у ракеты, Екатерина II на балу и сгенерируйте иллюстрацию в Sora Images.
Sora Images — отличный инструмент для генерации референсов с картинки, подробнее об этом рассказали здесь (ссылка на статью). Но если в кадре несколько героев, используйте функцию DeepFace для редактирования лица каждого персонажа.
У Sora Images есть ещё один кайф: ей вообще не нужны километровые описания. Просто коротко пишете, что хотите, — и нейросеть сама ловит ваш вайб, делает картинку по сути и выдаёт результат без лишних танцев с бубном.
Если вы до сих пор находитесь в Stable Diffusion, жмите на кнопку с названием нейросети и меняйте на Sora Images.
В нейросеть Sora Images отправляет промпт на генерацию изображения с исторической личностью.
Промпт:
Два человека стоят рядом на фоне Петропавловской крепости в Санкт-Петербурге. Первый персонаж — Пётр I: высокий, статный мужчина с длинными тёмными волосами до плеч, аккуратными усами, выразительными чертами лица. На Петре I надет парадный кафтан глубокого синего цвета с золотыми пуговицами, белый кружевной воротник, на груди — орден Андрея Первозванного, темно-зелёные брюки, высокие сапоги. Лицо Петра I сосредоточенное, взгляд уверенный и немного устремлённый вдаль, выражение лица — гордость и спокойствие.
Рядом с ним — современный молодой мужчина 25–30 лет, светлая кожа, короткие тёмные волосы, одет в стильную куртку тёмно-синего цвета, белую футболку, джинсы и кроссовки. У него лёгкая улыбка, доброжелательное выражение лица, он смотрит прямо в камеру. Оба персонажа стоят плечом к плечу, между ними дружеская, уважительная атмосфера. За ними видна Петропавловская крепость, золотой шпиль собора и старинные крепостные стены, лёгкое дневное освещение, чистое небо, ощущение исторической связи времён.
Получаем исходное фото от Sora Images.
4. Перейдите к редактированию фото
Откройте нужное изображение, выберите «Опции».
Затем — Inpaint.
Перейдите по ссылке в браузер.
5. Выделите лицо, которое хотите заменить
Обведите область лица на историческом снимке — аккуратно, чтобы не зацепить фон.
6. Выберите функцию DeepFace
В меню выбирайте DeepFace — он как раз и будет подставлять новое лицо.
7. Подставьте свой портрет на место выбранного лица
Укажите ранее сохранённый портрет — система сама всё подгонит по форме и цвету.
8. Запустите генерацию и получите готовое изображение
Остаётся только нажать кнопку запуска. Через пару минут у вас на руках готовый кадр с вашим участием в любой эпохе.
Результат генерации можно скачать в боте.
Кстати, ваши фотографии могут быть не только статичными — представьте, Пётр Первый будет не просто стоять рядом, а, например, даст вам «пятюню» или подмигнет. Всё это можно сделать прямо в боте: оживите свои селфи в пару кликов! Как — рассказываем здесь (ссылка на статью).
Итоги и новые идеи
Селфи с историческими личностями — это не только способ оживить скучные уроки, но и реальный шанс для бизнеса и образования показать себя с новой стороны. Этот приём легко встроится в корпоративные квизы, праздничные ролики, ивенты, да хоть в рассылку для клиентов: креатив ограничивается только вашей фантазией.
Главное — всё это максимально просто: не нужны специальные навыки или сложные монтажи. Достаточно смартфона и нейросеть, которая генерирует качественный контент без лишних описаний да еще и на русском языке. И вот — перед вами не «очередной проект», а визуальный экспириенс, который обсуждают все.
Делитесь результатами, отмечайте коллег, сохраняйте лучшие находки — давайте вдохновлять друг друга! Для учителей и блогеров это повод втянуть аудиторию в диалог, где прошлое становится ближе и интереснее. Исторические личности России и культурные знаменитости ждут новых идей и свежих селфи. Создайте свой необычный кадр через нейросеть прямо сейчас.
Сам себе режиссёр: от Midjourney V.1 до Veo 2
Славные старые времена...
Не помню, когда точно вкатился во всю эту тему с нейросетями — то ли в 2021 году, то ли в начале 2022 года, но с тех пор пытаюсь ими заниматься в меру сил и возможностями. Не создаю никаких шедевров, больше в прикладном плане — использование нейросеток в МРТ и КТ. Поглядывал, как там дела обстоят на других фронтах, но не более. В ту пору ничего зрелищного ещё не было — те же генеративные изображения выходили кривыми и не впечатляли.
Но примерно с осени 2022 года количественные изменения наконец-то перешли в качественные: вышла Midjourney v.4, порвал всех ChatGPT. С тех пор отошёл от чисто математики/физики и принялся следить за направлением уже пристально. И, как оказалось, не зря. Я хоть и гик и топлю за технологии/науку, но даже меня оторопь берёт, как всё быстро развивается. Год в нейросетях — это уже устаревшие технологии, которые мало кому нужны, а два года — древняя древность, не стоящая внимания вовсе.
Оценить, насколько сильно продвинулись генеративные сети, лучше всего на изображении и видео. Хотя прогресс идёт по всем областям, но математические задачки интересны узкому кругу красноглазых фанатов спецов, а вот визуально его оценить может даже не специалист. В качестве примера изображение, которое создавало Midjourney про одному и тому же промту:
Р азница между первым и последним — около 2 лет. В последних изображениях отличия не так заметны, но просто потому, что достигнут фотореализм — даже спец не отличит от обычного фото с фильтрами.
А вот так сетки прокачались в рисовании четырёхлапых:
Прогресс шёл не только по качеству изображения, но и по физике. Первые три версии выдавали что-то мало похожее на реального котейку.
Теперь же неспециалисту различить, где сгенерированное фото, а где реальное, очень сложно. Мало того — и спецу всё сложнее.
Конечно, в процессе развития бывали анекдотичные ситуации — нейросети любили рисовать дополнительные пальцы (не иначе, на что-то намекали), людей-раскоряк и всякую галиматью вместо текста (они его просто не понимали и рассматривали как изображение). Часто получалась прямо-таки крипота:
Однако очень быстро всё поправили и нейросети научились и в пальцы и в текст, и правильно понимать промт. Мало того — начали появляться нейросетевые редакторы, которые позволяли не просто сгенерировать изображение, а и отредактировать его без каких либо навыков. Сейчас существует с десяток сеток, которые выдают прекрасные картинки на уровне лучших художников. Мало того — нейросетки научились имитировать разные стили и продолжают учиться. На очереди — создание образа и возможность затем использовать его без изменений.
В тоже время, с видео всё было не так хорошо. Ну, оно и понятно — где одно изображение, а где целый набор? Да не просто набор, а связанные логически и художественно? В общем, сначала все довольствовались чем-то вроде такого:
И тут попробуй ещё пойми, что более страшное — люди или чудовище.
И как бы не бились разработчики, что-то вменяемое удалось создавать только из почти статичных картинок, да и то, длительностью только в 2-3 секунды на сцену. Но даже это смотрелось круто:
Однако было ясно, что не видать нам с таким прогрессом нормального порно видео ещё долгие годы.
И вот, в январе 2024 года я наткнулся на трейлер «Гарри Поттера и Молот Войны»:
Видео было сделано всего одним человеком, но смотрелось очень хорошо (и да, нужен фулл). Но даже с таким качеством картинки и постановки было понятно, что до нормального качества ещё далеко.
А уже в следующем месяце вышла Sora. И она была реально крута.
Новый этап
Выход Sora хотя и был несколько локальным событием, но прекрасно показал — пределов, оказывается, нет. Генерировать реалистичные видео если и сложнее, чем реалистичные изображения, то не намного:
Конкуренты, максимум которых тогда было слегко анимированное изображение, приуныли. Казалось, всё. Ну правда, кому они нужны, когда тут такое?
Однако доступ тогда к этой сетке дали лишь избранным, и, как оказалось, не без причины. Впоследствии выяснилось, что:
На создание нескольких секунд подобного видео уходит просто чудовищное количество компьюта (времени работы видеокарт);
Такие ролики получаются хорошо, если один раз на пятый;
Ошибки в физике всё равно встречаются частенько.
В общем, после некоторого периода спада народ опять бросился пилить свои видеонейросетки. И не зря — буквально через несколько месяцев у нас начали появляться Luma, RunWay, Kling и прочие, и прочие. Они выглядели не так впечатляюще, зато их можно было попробовать простым смертным. Народ тогда знатно упоролся в туже же Luma, оживляя изображения и мемы. Иногда получалось очень хорошо, но в целом эти нейросетки создавали нечто похожее и до Sora им было весьма далеко. Как оказалось, создать что-то действительно вменяемое сложно.
Энтузиасты, впрочем, не унывали и со временем у нас начали появляться ролики, которые не вызывали фейспалма:
Да, как что-то применимое в работе их было рассматривать трудно, но как демонстратор того, что при должной прямоте рук и времени можно сделать нормально — вполне. Графика достигла очень хорошего уровня (кое-где выйдя на уровень реальных съёмок, хоть и с особенностями), но в физику нейросети умели плохо.
Началось
И вот, на днях OpenAI наконец-то релизнула свою нейросеть Sora. Не только сам генератор, но и редактор, позволяющий проводить манипуляции с видео. Некоторые ролики, несмотря на огрехи, очень хороши:
Демо, представленные на сайте, впечатляюще выглядят, так что народ ринулся тестировать, несмотря на высокую плату (200 долларов за возможность генерить видео в 1080p). И разочаровался: несмотря на крайне достойную картинку, с физикой у генератора получилось не очень:
В общем, как и ранее, чтобы получить хороший результат, придётся постараться. Энтузиасты опять разошлись пилить ролики, но уже на более высоком уровне.
Далеко, правда, расходиться не пришлось — сегодня Google представил Veo 2.
Забавно, но Google Deep Mind, ребята из которого (тогда ещё Google Brain) в своё время и изобрели трансформерную архитектуру, сильно запоздали с развитием своих нейросетей. Ударившись в научные изыскания, они пропустили расцвет как генерации изображений, так и видео. Первые версии своих продуктов они представили в начала 2024 года и они откровенно проигрывали конкурентам. В общем, Google списали со счетов. И зря, как оказалось. После прохладного приёма работников загнали в шарашки пацаны и пацанессы собрались и к концу года выкатил-таки генератор изображений Imagen 3 и генератор видео Veo 2. И они реально хороши. Настолько, что по изображениям приблизились к конкурентам, а по видео — обошли всех:
Как утверждают разработчики, им удалось заметно снизить частоту галлюцинаций нейросеток, так что теперь кривоногих людишек и пропадающих вникуда объектов стало заметно меньше.
Им, разумеется, никто не поверил (народ уже учёный) и бросился сравнивать видео. Оказалось, что да — действительно заметно меньше артефактов, хотя не обошлось и без них:
Но пока все ждут, когда компания предоставит доступ всем желающим. Сейчас он только по талонам заявкам.
Текущие проблемы и их решения
Над генерацией изображений и видео сейчас принято подшучивать. Есть за что: начиная от пресловутых пальцев и заканчивая непониманием устройства мира, когда нейросеть запросто может пририсовать берег моря внутри дома.
Однако ничего нового тут нет. Нейросети сейчас проходят этап становления, как и любая технология до них. Когда-то мобильная связь начиналась со звонилок, камера в которых казалось роскошью. А сейчас смартфоны оставили на обочине цифровые фотокамеры, плееры, часть консолей, заменили бумажные книги, калькуляторы, будильники и множество других предметов. И продолжают развиваться — на днях T-Mobile объявила о сотрудничестве со Starlink. Теперь позвонить, пообщаться в месседжерах или полазить в интернете можно вне зоны действия сотовой сети с обычного смартофона. Учитывая, что Starlink – глобальная спутниковая сеть, речь идёт о связи в любой точке мира (ну, кроме стран, где эта забугорная дрянь запрещена).
Ровно то же самое и с нейросетями, текущие проблемы которых можно разбить на несколько типов:
Высочайшая стоимость обучения и использования.
Эх, вот рано человечество изобрело трансформер. Лет через 20 всё было бы куда проще, а пока обучение и работа крупной нейросети на миллиарды параметров стоит очень дорого. Кластеры на сотни тысяч видеокарт — норма и компании уже задумываются о кластерах на миллионы карт. А это деньги, время, энергия… всего нужно много. Так что Дженсен «Куртка» Хуанг гребёт деньги лопатой, сделав свою Nvidia самой дорогой компанией в истории. Всем нужны его карточки, хотя конкуренты и пытаются вайтивайти и соорудить что-то своё.
Как бы там ни было — эта проблема проблемой не является. Несмотря на постоянные заявления скептиков о том, что энергия кончилась ещё вчера, чипы упёрлись в нанометровый барьер, общая выработка растёт год из года, а стоимость компьютерных мощностей падает. Модель, на обучение которой года два назад надо было потратить месяц, сегодня можно обучить за день-два на домашней стойке. Некоторые модели уже можно запихнуть на локальный компьютер.
Ошибки генерации.
Это те самые галлюцинации, когда пропадают и пропадают предметы и люди, происходит мешанина и прочее.
Проблема существенна, но тоже решаема, что и показывает развитие нейросетей. И главное — проблема решаема в короткие сроки. В 2021 году о нейросетях знали только энтузиасты, а теперь они проникают во все отрасли жизни. Нет сомнения — года через 3-4 практически от всех багов удастся избавиться.
Вот тогда-то и настанет время роликов с тентаклями!Недостаток данных.
Большие языковые модели так устроены, что чем больше данных в неё для обучения подашь, тем лучше они работают. В своё время именно масштабирование позволило совершить прорыв в работе моделей. Увы, доступные данные ограничены и они если не близки к исчерпанию, то где-то близко. На десятилетия их точно не хватит. Значит, развитие моделей должно прекратиться.
На деле же никакого прекращения развития не ожидается. Во-первых, новые данные появляются постоянно и чем дальше, тем их становится больше. С видео это особенно заметно — стоит человеку завести телефон, как он тут же стремится выложить всю свою жизнь в сториз. Людей, у которых до сих пор нет смартфона, огромное количество. Рано или поздно они точно также подключатся к сети и начнут выкладывать видео. Вдобавок, никто не мешает компаниям нанимать дата-майнеров — людей, которые будут по заказу снимать видео на заданные темы. Работа для студентов, школьников и просто всех подряд, которая позволит взять дешёвой массовостью.
Во-вторых, результат очень сильно зависит от качества данных. Одно дело просто снять ролик и обозначить его как «закат на реке», и совсем другое — разметить видео «тут река-тут берёза-тут собака пробежала». Чем выше качество данных, тем меньше их требуется. Разница вполне может достигать пары порядков. Так что помимо дата-майнеров у нас могут появиться ещё и разметчики.
Наконец, разработчики меняют сами подходы. Недавно прошёл эксперимент по распределённой тренировке нейросети. Результаты заметно хуже, чем при обучении в дата-центре, но приемлемы, учитывая первый опыт. Так что рано нести свою видеокарту на Авито, она ещё пригодится. Есть попытки провернуть нечто подобное и с процессорами, хотя они для такого не предназначены.
Кроме эксперимента, меняются и алгоритмы. Нейросети начинают учиться на собственных сгенерированных данных, контроль которых осуществляет часть сети. Скайнет? Оно самое. Трудности есть и тут, но метод рабочий.
Относительно недавно начал распространяться подход к работе, когда нейросеть рассуждает шаг за шагом, а не пытается выявить закономерности. Он уже показал отличные результаты в некоторых областях. Есть ещё целый ряд алгоритмических улучшений. Нынешние нейросети — это совсем не те нейросети, которые были ещё пять лет назад.
Так что повторимся — технология сейчас проходит начальный этап развития, ошибки и проблемы неизбежны. Ну а скептики, любящие говорить про «никогда», в очередной раз ошибутся. Как оно и бывало ранее.
P.S. Ещё у меня есть бессмысленные и беспощадные ТГ-каналы (ну а как без них?):
Про игры и игровую индустрию: https://t.me/gameprodev;
Мой личный, куда сваливается наука и всякое гиковское: https://t.me/deeplabscience.
Алиса, я иду к тебе
Только что вышедшая на свободу нейросеть SORA, уже способна просто по текстовому запросу создать почти полноценный трейлер несуществующего блокбастера. С учетом того, с какой скоростью они(нейросети) эволюционируют, через год-два я смогу заказать себе уже полнометражный фильм на свой вкус. Я уже составляю список своих "хотелок"). Например окунуться в детство и посмотреть несуществующий второй сезон про Алису Селезнёву и её приключения в космосе. Причем с артистами из того времени, а не этот современный новодел с кудрявым и смазливым Колей Герасимовым. Или анонсированную в "Бриллиантовой руке", но так и не вышедшую кинокомедию "Костяная нога".)) #нейросети #кино #будущее #технологии #трейлер #фантастика #SORA
OpenAI выпустила Sora
Подписчики ChatGPT Plus из США смогут воспользоваться новой нейросетью для создания видео на сайте https://sora.com/. Жители других стран получат доступ к сервису позже на этой неделе.
Sora генерирует видео продолжительностью до 20 секунд с разрешением 480p, 720p и 1080p. В интерфейсе можно объединять короткие ролики в одно длинное видео, создавая единую сюжетную линию.
Дождались, господа!
Нашумевший видеогенератор OpenAI SORA просочился в сеть
Вчера вечером неизвестный пользователь разместил ее на платформе Hugging Face, внедрив в код токены доступа к API. К модели было приложено письмо, якобы от группы художников, которые утверждали, что их обманули: сначала им обещали роль тестировщиков, а затем просто вынудили выполнять бесплатную работу для OpenAI. Таким образом, модель была опубликована в качестве акта мести.
Сейчас она уже удалена, и воспользоваться ею успели лишь единицы. В конфигурации указано, что это была версия turbo. Почти нет сомнений, что это была именно SORA, поскольку запрос использовал конечную точку OpenAI, и примеры её работы не похожи ни на одну другую модель.
🔥 Вот это мы понимаем месть...































