NVIDIA устроила революцию? Анализ анонса GeForce RTX 4000
Итак, Nvidia анонсировала новую линейку видеокарт GeForce 40. Напомню, что в предыдущем поколении AMD с помощью своей технологии апскейла FSR 2.0 таки обошла конкурента в виде DLSS 2.0 - показав аналогичное качество и прирост скорости, но без использования тензорных ядер, которые занимают существенное место на чипе. Да, они также используются и для помощи блокам рейтрейсинга, но РТ в играх до сих пор очень мало.
Поэтому подход AMD, где обошлись общими вычислительными блоками, многие посчитали более соответствующим нынешним реалиям. Даже появились мнения о том что это полный провал концепции Nvidia. Тем более что современные консоли также работают по схеме AMD, сделав рейтрейсинговую супер-мощь видеокарт Nvidia еще менее востребованной.
Поэтому была интрига: как ответит Nvidia? Переметнется в лагерь врага, откажется от выделенных тензорных ядер? Или наоборот, продолжит гнуть свою линию, рискуя получить еще одну мощную ответку от AMD? В итоге Nvidia не подвела ожиданий, и выбрала третий путь — устроив еще одну революцию.
Она представила технологию DLSS 3.0, которая уже не просто растягивает картинку, генерируя дополнительные пикселы. Вместо этого она рисует целые кадры, увеличивая производительность в играх до 4 раз! Идея была подсмотрена у современных телевизоров: их «уплавнялки» тоже рисуют дополнительные кадры, повышая плавность изображения. Правда в динамических сценах эта технология начинает работать из рук вон плохо: информации для создания промежуточных кадров при скорости в 24 fps просто не хватает.
Однако игра — это совсем другое дело. У игровой «уплавнялки» есть возможность получать дополнительную информацию — в частности, данные об объектах и векторах их движения. Также в распоряжении DLSS есть на порядки больше вычислительной мощности, чем у процессоров ТВ. Эта мощность (305 триллионов операций в секунду) тратится на сравнительный анализ кадров для выявления сложных закономерностей между перемещениями пикселей и объектов (частиц, отражений, теней и прочего). Сопоставляя эти данные с данными о векторами движения, можно точно воссоздавать происходящие в сцене изменения геометрии.
По сути, эта технология снижает процессорозависимость любой игры. В
разы! Процессору достаточно наклепать 20-30 кадров, создать "костяк"
происходящего, а видеокарта своими мощностями дорисует нужный fps. В
принципе, вся игровая индустрия уже давно подумывает как бы переложить
задачи с тормозного процессора на шустрые видеокарты. И вот пожалуйста -
максимально простое и элегантное решение, хоть и не радикальное.
Конечно, освободившихся мощностей не хватит чтобы физику крутую
запилить, или еще что. Но все же лучше чем ничего.
Ну и все это накладывается на прорыв в производительности железа. GeForce 4090 имеет аж 76 миллиардов транзисторов, 18 тысяч CUDA-ядер и производительность почти в 90 терафлопс. При этом энергопотребление составляет 450 Вт, всего на 100 Вт выше, чем у GeForce RTX 3090. Стоит это чудо 1600 баксов. GeForce 4080 с 16 ГБ стоит $1200 и потребляет 320 ватт. GeForce 4080 с 12 ГБ имеет вполне гуманный ценник в $900 и потребление в 285 ватт, при этом она в 2-4 раза производительнее 3080 Ti. Чем тяжелее сценарий (типа рейтрейсинга в 4К), тем больше превосходство. И да, это БЕЗ учета работы DLSS.
Вообще, все и так давно знали что Nvidia лишь притворяется. Они ушли далеко вперед от AMD, и лишь играли в конкуренцию, не желая усложнять самим себе жизнь. Но видать, AMD все же прижала их в этом поколении, и они решили показать, кто на рынке хозяин. Хотя инсайдеры клевещут что инженеры до последнего не могли решить, а не сделать ли им шину памяти поуже и самой памяти поставить поменьше? Так что, возможно, на характеристиках видеокарт еще успели сказаться последние события — и крушение рынка, и проблема с запасами 30-ой серии, и избыток заказанных мощностей на TSMC.
Как бы то ни были, презентация прямо порадовала. Скорость, цены, фишки, да еще умеренное энергопотребление - зря слушали инсайдеров, предсказывавших потребление в 800 ватт. Конечно надо подождать мнения экспертов и независимых тестов. Ну и реальных цен в магазинах заодно. Но в целом, похоже, технологии решили тряхнуть стариной и вспомнить славные деньки, когда такие революции случались каждые пару лет как по расписанию. Сегодня они случаются куда реже, но Nvidia показала что есть еще порох в пороховницах, ягоды в ягодицах и ежи в рукавицах. Ждем теперь, чем ответит AMD!
pikabu GAMES
3.4K постов7.9K подписчиков
Правила сообщества
Коротко: никаких "кулвидосиков" с нарезкой геймплеев и смешных моментов, никаких комиксов, артов, косплея и т.д. Только полезная и важная информация для геймеров.
Помни!
- Новостные/информационные публикации постим в pikabu GAMES
- Развлекательный контент в Лигу Геймеров