Crysis 3 на видеокарте

Crysis 3 на видеокарте Видеокарта, Картинка с текстом, Rtx 3090, Crysis
Вы смотрите срез комментариев. Показать все
429
Автор поста оценил этот комментарий

А что толку, исполняемые потоки, такие как логика механика и вычисления всеравно идут на процессор, то что она сделала только сделала хуже,  так как поток информации который хоанится на видеокарте теперь идет чере pci на мать на проц перативу и снова возвращается на карту, да, текстуры допустим не будут затрагиваться процессором но они будут выкачиваться с оперативного диска видахи на мать и снова возвращаться на видяху, только лишний раз загрузила шину, потому то так никто из мужиков не поступает и не делал до нее.

раскрыть ветку (105)
155
Автор поста оценил этот комментарий

Это просто чтобы выпендриться. Так это рамдиск.


А ещё кто-то там хотел объединённое адресное пространство на ПК - для системной и видео памяти. Но вроде этим занималось АТИ, а не нвидиа. Так это обычно делается на консолях.

раскрыть ветку (36)
77
Автор поста оценил этот комментарий

Все приходит на круги своя. В Спектруме ПЗУ, видеопамять, ОЗУ, и порты ввода-вывода все были в едином адресном пространстве 64 К.

раскрыть ветку (20)
26
Автор поста оценил этот комментарий

Да и не только в спектруме. Многие микрокомпьютеры так работали, так же БКшка, например.


Просто сначала возникает ситуация, когда специализированный чип работает лучше, чем ЦПУ. А потом специализированный чип получает расширенные возможности, свой собственный мини язык программирования, и сам становится ещё одним ЦПУ.


Например, вот это видели?

https://www.shadertoy.com/view/MddGzf


Это на графической карте работает. В браузере. И есть и круче.

раскрыть ветку (13)
12
Автор поста оценил этот комментарий

я хз, что ты хотел показать, но в арканоид я залип, сука! а я спать собирался, между прочим.

раскрыть ветку (5)
9
Автор поста оценил этот комментарий

XD


В этом арканоиде игровая логика - считается на графической карте. Не на процессоре.

раскрыть ветку (4)
2
Автор поста оценил этот комментарий

почему у меня музыка идет, а сама игра нет?

раскрыть ветку (3)
Автор поста оценил этот комментарий

та же херня

Автор поста оценил этот комментарий

Видюха слабовата.

Автор поста оценил этот комментарий
Во во, сам хотел спросить. Черный квадрат, секунды идут и музыка
4
Автор поста оценил этот комментарий

Но только это всё же не ЦПУ. ЦПУ это центральное процессорное устройство. Графический процессор, хоть и расширил свои возможности далеко за пределы далеко за пределы графики, и обзавёлся даже несколькими "языками программирования", но всё же центральным он не является. В принципе графический ускоритель остался хорош именно в том, в чём изначально был лучше - в параллельных вычислениях, в частности для обсчёта векторов и прочей линейной алгебры.

раскрыть ветку (4)
4
Автор поста оценил этот комментарий

Современный БИОС может - иногда, в зависимости от модели - может выйти в меню при отсутствии центрального процессора.


в чём изначально был лучше

Не, видеокарты изначально этим не занимались. Они пиксели рисовали, самые первые причём не использвоали аппаратное ускорения для вершин. Это уж не говоря о вещах вроде CGA/Hercules.


А ещё вспомните, что случилось с FPU. Потому что когда-то он был отдельным.


-------


Детали это всё. Детали.

раскрыть ветку (2)
7
Автор поста оценил этот комментарий

Ну, выйти в БИОС не значит полноценно функционировать. Есть конечно отдельные случаи, вплоть до видеокарт которые работают напрямую с сетью. Но тем не менее, говорить что видеокарты всё же развились до отдельного, своего ЦПУ внутри другой системы считаю всё же неверным. Видеокарта не является центральным управляющим устройством, не должна им являться, а чаще всего - и не может. Иногда лишь может взять на себя некоторые, отдельные функции, да и то при помощи своих собственных сопроцессоров. Даже если там БИОС работает на самом графическом процессоре (честно, не знаю, но сомневаюсь), это ничего не меняет, VBIOSы существовали с ранних времён существования IBM PC, только вот их задачи - низкоуровневые процессы обеспечения взаимосвязи с тем самым ЦПУ.

И да, естественно я веду речь про трёхмерные ускорители, именно с момента их появления берут начало устройства, которые мы сейчас именуем видеокартами. То что существовало до этого не имеет никакого отношения ни к эволюции современных графических карт, ни к тому как графика сейчас отрисовывается вообще. Несмотря на идентичное название и идентичную роль, считаю что называть трёхмерные ускорители развитием двухмерных - не верно. Всё равно что считать светодиодные лампы развитием ламп накаливания. Это, безусловно, развитие, но в общем смысле, а не в плане того что одно "развилось" до другого.

P.S. Вообще, считаю что спор потерял смысл. Вы ради красного словца сказали что ГПУ "развились до своего собственного ЦПУ" не придав значения аббревиатуре "ЦПУ", а теперь просто защищаете это без каких-либо весомых аргументов. Меня это, честно, зацепило, потому как с ГПУ я работаю довольно плотно. Я понимаю что вы хотели сказать, это просто доебон до формулировки. И нет, это не детали, это херовая формулировка. Графический ускоритель не может выступать в роли центрального процессорного устройства.

раскрыть ветку (1)
2
Автор поста оценил этот комментарий
своего ЦПУ внутри другой системы считаю всё же неверным

На мой взгляд вы слишком заостряете внимание на "центральный" и точности определения. Что я не считаю полезным.


Вы ради красного словца

Вот не надо нормальный диалог уводить в сторону наездов и подкалываний а затем спускать его в унитаз. Поковыряйте возможности современных шейдеров и CUDA фреймворков, посмотрние RWStructuredBuffer и также ссылки на шейдертой, которые я сбрасывал в другом комментарии. И подумайте так ли сильно отличие.


И ещё вот, например:
https://www.nvidia.com/en-us/geforce/forums/gaming-pcs/8/265...

1
Автор поста оценил этот комментарий
А дифуры как решает, загляденье
1
Автор поста оценил этот комментарий

Не работает

Автор поста оценил этот комментарий

У меня теперь лагает изображение везде

4
Автор поста оценил этот комментарий

Для меня ребенка это была магия, пишешь много раз poke(рандомная цифра) и что то менялось в непредсказуемом месте. Чаще всего ничего.

2
Автор поста оценил этот комментарий

память - да. у портов было свое пространство. мало того, с неполной дешифрацией. вот у букашки действительно все было в одной кучке

раскрыть ветку (1)
Автор поста оценил этот комментарий

Да. Подзабыл малость.

Автор поста оценил этот комментарий

Так давно уже в x86/x64 есть MMIO - память ус-в мапится в общее адресное пространство.

Автор поста оценил этот комментарий

Вы немного попутали. в процессоре Спектрума Z80 адресное пространство и порты ввода-вывода разделены. А вот в i8080 там всё в куче.

Автор поста оценил этот комментарий
Интегрированное в проц видео всегда использовало часть озу как видеопамять, нет?
8
Автор поста оценил этот комментарий
Кто хотел, тот уже давно сделал. На всех компах, у которых видео встроено в процессор, видеопамять выделяется из системной.
раскрыть ветку (7)
9
Автор поста оценил этот комментарий

Это не тоже самое. Просто часть оперативки выделяется для видео. Это уже изолированный отдельный кусочек памяти к которому только видеоядро имеет доступ и по сути ничем не отличается от памяти распаяной на видюхе, ну кроме качественных показателей.

раскрыть ветку (4)
2
Автор поста оценил этот комментарий
Нет. Доступ к памяти для встроенной в процессор видокарты осуществляется по принципу Uniform Memory Access (гуглите), то есть как в многопроцессорных системах. Центральный процессор, через видеодрайвер, эту память полностью контролирует, имеет к ней доступ, да ещё и динамически меняет её объем.
раскрыть ветку (3)
4
Автор поста оценил этот комментарий

"через видеодрайвер"


Вот тут то и собака зарыта. UMA( https://en.wikipedia.org/wiki/Uniform_memory_access ) относится к мультипроцессорным системам, и вы её спутали c HSA (https://en.wikipedia.org/wiki/Heterogeneous_System_Architect...) , которую как раз таки пропихивает AMD, и которую называли hUMA.


Отличие в том, что со сшаренной видеопамятью, доступ в банк памяти будет осуществляется как к системной, БЕЗ бодания с видеодрайвером.


А то, что там "через драйвер", это всё хрень. Вы мне возьмите указатель на блок памяти на GPU, без маппинга в объект буфера, Map/Unmap/Lock/Unlock, тогда и поговорим.


И то же самое с встроенным видео, кстати. Обычно встроенная видеокарту блок памяти резервирует полностью и делает его недоступным для всех.

1
Автор поста оценил этот комментарий

Да. Я не прав. Но я нашел только про технологии амд. У интела разве подобный принцип?

раскрыть ветку (1)
2
Автор поста оценил этот комментарий

Вы как раз правы, а вот товарищ путает термины.

1
Автор поста оценил этот комментарий

И то же самое было с видеокартами в слотах AGP в конце 90х.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Все же у AGP было какое-то количество собственной памяти, хотя и системную они, за счёт быстрой на тот момент шины, использовали с удовольствием.
4
Автор поста оценил этот комментарий

Да в начале 90-х так все играли без хардов! Каждый школьник так умел. То же уфо 1 или герои. Заканчивались с дискет и валились на них. Только что при выключении сейвы не делались. Эх, молодость. Родители ещё молодые были, бесшабашность и все впереди.

2
Автор поста оценил этот комментарий

но ведь это уже было до нулевых

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

С аппаратным ускорением - не было.


Но зато до нулевых были майнфреймы, которые очень схожи с современными идеями с "облаком".

1
DELETED
Автор поста оценил этот комментарий
И все равно, там большая часть медленной ддр4, и остальная для видяхи быстрая гддр6
ещё комментарии
47
Автор поста оценил этот комментарий

Вот вы вообще ничего о 3090 не знаете.

30я серия видеокарт от nVidia задействует новую технологию SSD-to-VRAM, названную RTX IO, передавая напрямую в видеопамять данные минуя процессор.

При должной реализации и утилитах можно это "провернуть" с любой игрой, даже внутри сэмулированного виртуального жесткого диска внутри VRAM.


https://www.guru3d.com/news-story/nvidia-announces-rtx-iogpu...

раскрыть ветку (29)
24
Автор поста оценил этот комментарий

30я серия видеокарт от nVidia задействует новую технологию SSD-to-VRAM, названную RTX IO, передавая напрямую в видеопамять данные минуя процессор.

Вы пишите о том что слегка не понимаете: чтобы это работало, необходима поддержка этого в игре.

При должной реализации и утилитах можно это "провернуть" с любой игрой, даже внутри сэмулированного виртуального жесткого диска внутри VRAM.

Пруфы можно? Потому что есть существенные сомнения, что виртуальный диск в видеопамяти реализуется корректно, а не через хак и поддержвает передачу данных через DMA.

раскрыть ветку (2)
2
Автор поста оценил этот комментарий
Это спрашивайте у той которая сэмулировала жёсткий внутри VRAM, а не у меня
раскрыть ветку (1)
Автор поста оценил этот комментарий

GPU Ram Drive нужная вам прога. Выдаёт на GDDR 5X памяти показатели неплохого NVME SSD  2,2гига линейки и 80 метров рандома.

19
Автор поста оценил этот комментарий
Да, только это для текстур только, а игра не только из текстур состоит.
раскрыть ветку (20)
9
Автор поста оценил этот комментарий

Тем не менее nVidia обещает увеличение скорости распаковки до 100 раз и уменьшение нагрузки на процессор на 40%. При чем это все будет делаться аппаратно самой видеокартой!

раскрыть ветку (19)
12
Автор поста оценил этот комментарий
Я так понимаю, 5ти тысячным сериям и процессор не нужен будет?
раскрыть ветку (14)
12
Автор поста оценил этот комментарий

Походу скоро компы будут целиком находиться в видеокарте)

раскрыть ветку (7)
26
Автор поста оценил этот комментарий

Судя по габаритам последних, юзеры тоже будут сидеть в видеокарте.

раскрыть ветку (5)
7
Автор поста оценил этот комментарий

Зато ноги мёрзнуть не будут

раскрыть ветку (3)
4
Автор поста оценил этот комментарий

Будут хлюпать в водянке.

раскрыть ветку (2)
1
DELETED
Автор поста оценил этот комментарий

Одна голова наружу торчать будет...

раскрыть ветку (1)
Автор поста оценил этот комментарий
Курить, пиздец, люблю
4
Автор поста оценил этот комментарий

Ну вот так постепенно и решат проблему с доступным жильём.

Автор поста оценил этот комментарий

А тем временем nVidia уже засунули датацентр в видеокарту)

Предпросмотр
YouTube23:46
Автор поста оценил этот комментарий
Ага, и монитор...
раскрыть ветку (2)
Автор поста оценил этот комментарий
Вывод изо на РГБ подсветку
раскрыть ветку (1)
Автор поста оценил этот комментарий

По wifi7 прямо в мозг.

Автор поста оценил этот комментарий

Не, ну для приличия арм какой-нибудь воткнуть и хватит

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

Всё новое - хорошо забытое старое = 4004.

Автор поста оценил этот комментарий

Какой-нибудь арм сопроцессор воткнут - и не нужен будет

5
Автор поста оценил этот комментарий

в приведенной выше статье уменьшение нагрузки на проц не 40 а 20%

но это маркетинг, минимум делим вдвое не 20 а 10%

Технология будет запушена в следующем году а зная что вокруг рукожопы то увеличить а не уменьшить

раскрыть ветку (2)
Автор поста оценил этот комментарий
Посмотрите тесты 30 серии и не говорите чуши.
раскрыть ветку (1)
1
Автор поста оценил этот комментарий
Они не благодаря этой технологии такие. Её ещё вообще на практике не показали, только на словах и примерные цифры.
Ну и главное это не отменит - ЦП все равно будет сильно участвовать в процессе.
Автор поста оценил этот комментарий
Ну да, это для подгрузки ассетов (моделей, текстур) в реальном времени, например пока башкой крутишь, или в какой то портал в другую карту прыгаешь, потому что в данный момент скорости не хватит так делать - будут "выпрыгивать". А вот на скорость вычислений эта технология не повлияет никак
2
Автор поста оценил этот комментарий

брехня, технология в винде появится через год минимум, сами майкрософт сказали. И еще не факт, что все кинутся её срузу делать, её еще и  прикручивать к игре нужно будет, а не прям все игры ускорит

1
Автор поста оценил этот комментарий
RTX IO станет доступна как только разработчики начнут выпускать игры с её поддержкой. Однако, предварительные версии Microsoft DirectStorage для разработчиков появятся только в следующем году, так что раньше второго квартала 2021 года ждать появления игр с RTX IO не стоит. Отметим также, что RTX IO будет работать как на новых графических процессорах Ampere, так и на предыдущих Turing. Поэтому владельцы RTX 20-й серии не останутся без внимания.
1
Автор поста оценил этот комментарий

не только 30я серия, 20я тоже

2
Автор поста оценил этот комментарий

идея 10 баллов: передавать данные в видеопамять из видеопамяти для процессора минуя процессор

Автор поста оценил этот комментарий

Они заново изобрели DMA?

10
Автор поста оценил этот комментарий
Иллюстрация к комментарию
5
Автор поста оценил этот комментарий

В смысле? Мужики никогда ничего не использует не по назначению лулзов ради? Какие мужики скучные существа.

10
Автор поста оценил этот комментарий

Подозреваю, что главная проблема производительности крайзиса это частые подгрузки данных с диска, поэтому такой эффект произошел

раскрыть ветку (27)
18
Автор поста оценил этот комментарий

Проще в рам диск создать и дешевле

16
Автор поста оценил этот комментарий

nvme ssd типа samsung 970 evo plus будет ни разу не медленнее памяти видеокарты через pci-e, подключенной через эмулятор, лишняя нагрузка на процессор идёт при чтении/записи этих файлов.

да и поставить 32/64гб оперативки и создать рамдиск в ней будет дешевле и быстрее

раскрыть ветку (20)
5
Автор поста оценил этот комментарий

могу конечно ошибаться, но у самсы скорости порядка 2-3 Гигов в секунду, скорость памяти видеокарт на пару порядков выше. [ UPD] у 3090 около 1 Тбайта в секунду. Такие пиковые цифры конечно далеко не всегда являются показателями конечной производительности, но уже дают возможность прикинуть приблизительную разницу

раскрыть ветку (19)
8
Автор поста оценил этот комментарий

Память может и пропускает условный терабит в секунду, однако она не будет быстрее шины pci-e, для 3.0 предел 16гб/с, для 4.0 32гб/с.
Для сравнения память ddr4 2666мгц имеет пропускную способность ~20гб/с, а в двухканалке все 40гб/с (в 4 канальном режиме ~80гб/с), что в разы быстрее шины pci-e и самое главное имеет меньшую задержку чтения/записи по сравнению с pci-e

раскрыть ветку (1)
5
Автор поста оценил этот комментарий

там не терабит указан был, а именно терабайт. А по ограничениям шины памяти, да всё верно, тут я не в ту сторону думал

6
Автор поста оценил этот комментарий

Пропускная pcie 4 - 32 Гбайт в сек на 16 линий. думаю можно смело поделить на 4, получится 3х кратный прирост по сравнению с nvme

раскрыть ветку (5)
4
Автор поста оценил этот комментарий
Именно, есть модели ссд которые используют все 16 линий и скорости там уже близко к пиковым.
раскрыть ветку (1)
Автор поста оценил этот комментарий
Вопрос в задержках. Видеопамять не просто так рядом с видео процессором располагается.

Видеопамять для своих задач даёт намного лучшие задержки, нежели оперативка и ссд. Оперативка лучше ссд раз в 5 тупо по скорости, а ссд вообще ни туда ни сюда - у него и скорости говно и задержки. Вмешательство в видеопамять имеет смысле, если эти данные нужны непосредственно для видеокарты - иначе будешь по кругу гонять данные из видеопамять процессору и обратно
1
Автор поста оценил этот комментарий

32 не Гбайт, а Гбит

раскрыть ветку (2)
1
Автор поста оценил этот комментарий

именно Гбайт. 32 гбит это скорость 16 линий pcie v1

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

ух ты, у 4х реально 1ГгБайт.

учитывая, что в DDR5 наконец есть полноценный ECC, использование видеопамяти для кеша данных уже как то не выглядит странным.

но есть нюанс, у DDR4(которая в оперативке) идеальная скорость 17Гбайт/с,, при случайном доступе уже в разы хуже.

Автор поста оценил этот комментарий

это пропускная способность pci-e 16x

Автор поста оценил этот комментарий
Лол, откуда данные про терабайт? Прекрасно знаю что это неверно но интересно стало где вы это вычитали
раскрыть ветку (9)
2
Автор поста оценил этот комментарий
Данные по пропускной способности памяти 3090, да я не учёл шину pci , и привел цифру только по скорости видеопамяти
1
Автор поста оценил этот комментарий
Официальные данные нвидии.
Откуда вы вычитали, что данные не верные?
раскрыть ветку (2)
Автор поста оценил этот комментарий

речь про скорость, а не про пропускную способность. у памяти 3ххх карт скорость 21 гбит.

Я к тому что некорректно говорить "да не, у самсунга 2-3 гигабайта, а у нвидии аж целый терабайт"

раскрыть ветку (1)
Автор поста оценил этот комментарий
Их вообще сравнивать некорректно. По пропускной способности-то все правильно сказали - пропасть разницы. Проблема в том, что это скорость/пс внутри видеокарты, а при взаимодействии с остальной системой она уже куда ниже. Но ничто не мешает закинуть в память все данные и потом ими оперировать внутри супер-быстрой памяти. Ссд такого варианта не имеет, он всегда стороннее устройство
Автор поста оценил этот комментарий
Иллюстрация к комментарию
раскрыть ветку (4)
Автор поста оценил этот комментарий

bandwidth - не скорость, а пропускная способность

раскрыть ветку (3)
2
Автор поста оценил этот комментарий

В вычислительной технике пропускная способность — это максимальная скорость передачи данных по заданному пути.

https://ru.wikipedia.org/wiki/Пропускная_способность_(сеть)

раскрыть ветку (2)
Автор поста оценил этот комментарий

Перекину из соседней ветки: некорректно говорить "да не, у самсунга 2-3 гигабайта, а у нвидии аж целый терабайт"

раскрыть ветку (1)
Автор поста оценил этот комментарий
скорость памяти видеокарт на пару порядков выше. [ UPD] у 3090 около 1 Тбайта в секунду.
Лол, откуда данные про терабайт? Прекрасно знаю что это неверно но интересно стало где вы это вычитали
Иллюстрация к комментарию
3
Автор поста оценил этот комментарий
верно, я так лет 5 назад на серваке под скуль запилил рам диск и операция которая должна была пройти в неделю +, пролетела за пару часов
раскрыть ветку (4)
1
Автор поста оценил этот комментарий

Но зачем? Даже 2014 ms sql, при наличии достаточного количества памяти, грузит базу в оперативку.

раскрыть ветку (3)
4
Автор поста оценил этот комментарий
там как раз нужен был i/o винта, из одной базы в другую конвертировалась ебанутым образом пачка инфы, выхода не было, причем надо было за выходные всё провернуть
з.ы. от скорости мы сами охуели, думали день минимум уйдёт
1
Автор поста оценил этот комментарий

Это не совсем верно: да, данные будут кэшироваться в оперативке, но все транзакции обязаны сохраняться на диск (ACID - Durable), поэтому обращения к диску будут. Более того, если идёт работа с tempdb то её данные всегда будут писаться на диск, по тем же самым причинам.

раскрыть ветку (1)
Автор поста оценил этот комментарий

Ну tempdb то давно уже в рам диске лежит, а по поводу сохранения транзакций - да, но опять же зависит от характера запроса.

1
DELETED
Автор поста оценил этот комментарий
Вот слово в слово у меня такая же мысль возникла
5
Автор поста оценил этот комментарий

ага. только в обычном варианте сначала данные затянуть с диска в память. и это в лучшем случае sata express на pci, в худшем - просто sata.

раскрыть ветку (2)
6
Автор поста оценил этот комментарий

Эм. Почитайте на досуге, зачем нужна оперативная память. Прежде чем рассказывать о затягивании с диска в память в процессе игры.

раскрыть ветку (1)
1
Автор поста оценил этот комментарий

А может Вы мне расскажете? может в Вашей вселенной цп напрямую с диска большие массивы молотит

Автор поста оценил этот комментарий

Думаю современные технологии позволят рам-диск создать, например, на телевизоре, к которому подключен комп. И можно будет заявить о том, какой я крутой перец! Но какого либо смысла в этом нет.


p/s/ Вот был у меня когда то старый сканер. Сказёвый, и не было к нему адаптера, но надо было как то подключить. Сказёвый разъём был у меня на старом и ненужном магнитооптическом накопителе. Он, в свою очередь, подключался через какой то конвертер из скази в лпт. Причём сканер через этот конвертер не подключался. В итоге этот франкенштейн подключался последовательно. И определялся системой тоже интересно. Сначала находился лпт конвертер. Потом, опа! да у вас тут магнитооптика! Потом, опа! да у вас тут сканер ещё! Всё работало, но особого смысла, конечно, не имело.

DELETED
Автор поста оценил этот комментарий

Абсолютно не согласен.

Она разместила файлы на жестком диске. Ты думаешь процессор напрямую с жесткого диска читает, и сразу пишет обратно? Конечно же все сначала в оперативку идет при загрузке, подгружаться будут только новые локации и все такое. Опять же, они будут с жесткого диска (который тут видюха) грузиться в оперативку. Это в итоге никак не скажется на работе процессора. Конечно, было бы гораздо лучше сделать жесткий диск в оперативке и хранить игру там. В любом случае это почти не даст прироста производительности по сравнению с хорошим SSD, разве что чуть-чуть будут загрузки уровней быстрее (если оно в игре есть).

Автор поста оценил этот комментарий
Текстуры могут загружаться через mmap, в материнку оно не ходит
Автор поста оценил этот комментарий
текстуры допустим не будут затрагиваться процессором

По моему опыту gramdisk нормально так нагрузку дает на процессор. i7-2***m где-то на 40-50% загружался.

Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку