NVIDIA устроила революцию? Анализ анонса GeForce RTX 4000

Итак, Nvidia анонсировала новую линейку видеокарт GeForce 40. Напомню, что в предыдущем поколении AMD с помощью своей технологии апскейла FSR 2.0 таки обошла конкурента в виде DLSS 2.0 - показав аналогичное качество и прирост скорости, но без использования тензорных ядер, которые занимают существенное место на чипе. Да, они также используются и для помощи блокам рейтрейсинга, но РТ в играх до сих пор очень мало.


Поэтому подход AMD, где обошлись общими вычислительными блоками, многие посчитали более соответствующим нынешним реалиям. Даже появились мнения о том что это полный провал концепции Nvidia. Тем более что современные консоли также работают по схеме AMD, сделав рейтрейсинговую супер-мощь видеокарт Nvidia еще менее востребованной.


Поэтому была интрига: как ответит Nvidia? Переметнется в лагерь врага, откажется от выделенных тензорных ядер? Или наоборот, продолжит гнуть свою линию, рискуя получить еще одну мощную ответку от AMD? В итоге Nvidia не подвела ожиданий, и выбрала третий путь — устроив еще одну революцию.


Она представила технологию DLSS 3.0, которая уже не просто растягивает картинку, генерируя дополнительные пикселы. Вместо этого она рисует целые кадры, увеличивая производительность в играх до 4 раз! Идея была подсмотрена у современных телевизоров: их «уплавнялки» тоже рисуют дополнительные кадры, повышая плавность изображения. Правда в динамических сценах эта технология начинает работать из рук вон плохо: информации для создания промежуточных кадров при скорости в 24 fps просто не хватает.


Однако игра — это совсем другое дело. У игровой «уплавнялки» есть возможность получать дополнительную информацию — в частности, данные об объектах и векторах их движения. Также в распоряжении DLSS есть на порядки больше вычислительной мощности, чем у процессоров ТВ. Эта мощность (305 триллионов операций в секунду) тратится на сравнительный анализ кадров для выявления сложных закономерностей между перемещениями пикселей и объектов (частиц, отражений, теней и прочего). Сопоставляя эти данные с данными о векторами движения, можно точно воссоздавать происходящие в сцене изменения геометрии.


По сути, эта технология снижает процессорозависимость любой игры. В разы! Процессору достаточно наклепать 20-30 кадров, создать "костяк" происходящего, а видеокарта своими мощностями дорисует нужный fps. В принципе, вся игровая индустрия уже давно подумывает как бы переложить задачи с тормозного процессора на шустрые видеокарты. И вот пожалуйста - максимально простое и элегантное решение, хоть и не радикальное. Конечно, освободившихся мощностей не хватит чтобы физику крутую запилить, или еще что. Но все же лучше чем ничего.


Ну и все это накладывается на прорыв в производительности железа. GeForce 4090 имеет аж 76 миллиардов транзисторов, 18 тысяч CUDA-ядер и производительность почти в 90 терафлопс. При этом энергопотребление составляет 450 Вт, всего на 100 Вт выше, чем у GeForce RTX 3090. Стоит это чудо 1600 баксов. GeForce 4080 с 16 ГБ стоит $1200 и потребляет 320 ватт. GeForce 4080 с 12 ГБ имеет вполне гуманный ценник в $900 и потребление в 285 ватт, при этом она в 2-4 раза производительнее 3080 Ti. Чем тяжелее сценарий (типа рейтрейсинга в 4К), тем больше превосходство. И да, это БЕЗ учета работы DLSS.


Вообще, все и так давно знали что Nvidia лишь притворяется. Они ушли далеко вперед от AMD, и лишь играли в конкуренцию, не желая усложнять самим себе жизнь. Но видать, AMD все же прижала их в этом поколении, и они решили показать, кто на рынке хозяин. Хотя инсайдеры клевещут что инженеры до последнего не могли решить, а не сделать ли им шину памяти поуже и самой памяти поставить поменьше? Так что, возможно, на характеристиках видеокарт еще успели сказаться последние события — и крушение рынка, и проблема с запасами 30-ой серии, и избыток заказанных мощностей на TSMC.


Как бы то ни были, презентация прямо порадовала. Скорость, цены, фишки, да еще умеренное энергопотребление - зря слушали инсайдеров, предсказывавших потребление в 800 ватт. Конечно надо подождать мнения экспертов и независимых тестов. Ну и реальных цен в магазинах заодно. Но в целом, похоже, технологии решили тряхнуть стариной и вспомнить славные деньки, когда такие революции случались каждые пару лет как по расписанию. Сегодня они случаются куда реже, но Nvidia показала что есть еще порох в пороховницах, ягоды в ягодицах и ежи в рукавицах. Ждем теперь, чем ответит AMD!

pikabu GAMES

3K постов7.8K подписчика

Добавить пост

Правила сообщества

Коротко: никаких "кулвидосиков" с нарезкой геймплеев и смешных моментов, никаких комиксов, артов, косплея и т.д. Только полезная и важная информация для геймеров.

Помни!

- Новостные/информационные публикации постим в pikabu GAMES
- Развлекательный контент в Лигу Геймеров