Продолжаю тестировать Hunyuan 3D 2.5
Все модели были сгенерированы в Hunyuan 3D 2.5, текстуры и геометрия вообще не исправлялась. Риг сделал сам и для одного робота использовал авториг про. В последующем сделаю небольшой синематик из нагенерённых моделей в UE5.
Обзор нейросети для генерации 3д моделей Hunyuan 3D 2.5
Продолжаю тестировать нейросети для генерации 3D-моделей. Сделал небольшой обзор Hunyuan 3D 2.5 и пример использования сгенерированной модели. В примере использовал только модель персонажа, остальное доделывал самостоятельно. Спасибо за просмотр!)
https://youtu.be/XTwEShCOhsE?si=qvmkddQrP_ZPyvpL
НОВЫЙ ГЕНЕРАТОР 3D-МОДЕЛЕЙ
Нейросеть Sparc3D умеет создавать детализированные 3D-модели. Выходит очень круто, даже аниме-девочки выглядят как живые.
Главная фишка — модель достраивает объекты, даже если часть сцены скрыта.
Подходит для 3D-печати: разработчики уверены, результат не стыдно будет показать.
📱 GitHub
🤗 Демо на HuggingFace
Источник: 🎯 НЕЙРО-ПУШКА ● НОВОСТИ И ОБЗОРЫ НЕЙРОСЕТЕЙ
Google представила 3D-систему видеосвязи Beam, для которой не нужны очки
В 2009 году вышел «Аватар», первый фильм, который показал, что 3D – это действительно может быть круто. После его выхода разные компании на хайпе кинулись разрабатывать 3D-телевизоры, надеясь впарить потребителям очередной очень нужный им девайс. Однако очень быстро выяснилось, что смотреть телевизор в очках не очень-то и удобно, а контент качеством уровня «Аватара» внезапно стоит как «Аватар».
В общем, все поигрались, да и забили, так что года с 2017 3D-экраны покинули массовый сегмент. Тем, кому прям нужно было объёмное изображение, переместились в VR.
И вот Google зашёл на новый круг со своей инновационной (действительно инновационной) системой Google Beam, в девичестве Project Starline:
Представили её в 2021 году, а разрабатывать начали ещё раньше. Тогда на хайпе был коронавирус и удалёнка, так что компания надеялась впарить клиентам оборудование для телеконференций:
Только в отличие от ныне существующих систем Google Beam действительно создаёт эффект присутствия:
Как всё это работает? К сожалению, компания практически не поделилась техническими подробностями (корпорации хранят свои секреты), но известно, что человека одновременно снимает сразу несколько камер. Затем получившееся изображение синтезируется при помощи нейросети и транслируется на 3D-дисплей, способный отображать глубину:
Наиболее вероятной технологией Beam является световое поле, когда изображение захватывается целой матрицей камер:
Основной фишкой Beam является отсутствие необходимости в очках. Приходит, включаем, общаемся. Проведённые исследования показали, что примерно треть испытуемых заметили улучшения общения: запоминается большей деталей разговора, люди меньше перебивают друг-друга и и дополняют общение жестами.
На этом хорошие новости заканчиваются и начинаются не очень. Стоит такая система как чугунный мост: 25 тысяч американских долларов за одно рабочее место. Учитывая, что систем нужно две, нужно быть готовым раскошелиться как минимум на 50 тысяч долларов.
Кроме этого, для 65-дюймового экрана нужен соответствующих размеров стол, причём желательно в отдельном закутке и с экраном за спиной, на фоне которого будет проще обрабатывать изображение человека.
Так что пока это игрушка для богатеньких, которые получили возможность поменьше гонять свои суперджеты. С другой стороны, именно так и развиваются все технологии — сначала дорого для избранных, а потом для всех.
P.S. Ещё у меня есть бессмысленные и беспощадные ТГ-каналы (ну а как без них?):
О науке, творчестве и прочей дичи: https://t.me/deeplabscience
Об играх и игровой индустрии: https://t.me/gameprodev
Процедурная симуляция ткани
Сделал в Блендере с помощью геометрических нод. В нодах настраивается анимация текстуры, которая используется для симуляции ткани.