5232

Графика в играх: Как и на что она влияет?

Графика в играх: Как и на что она влияет?
Вы смотрите срез комментариев. Показать все
Автор поста оценил этот комментарий
Кстати, кто-нибудь в курсе, каким образом directx 12 и mantle снижают процессорозависимость игр?
раскрыть ветку (113)
Автор поста оценил этот комментарий
Dx12 не вышел еще, и я напишу по нему пост позже. И мнения разработчиков по этому поводу
раскрыть ветку (43)
Автор поста оценил этот комментарий
Вот как-то не верится что dx12 не требует смены видеокарты, мелкомягкие же почти евреи, где обязательно должен быть подвох.
раскрыть ветку (42)
Автор поста оценил этот комментарий
AMD официально заявило что все их карточки начиная с 7xxxx серии будут поддерживать dx12
раскрыть ветку (1)
Автор поста оценил этот комментарий
го его пост поднимем, все-таки полезная инфа
Автор поста оценил этот комментарий
Помню, как маркетологи пиарили то ли 10й dx, то ли opengl, что-то говорили про оптимизацию, говорили, что игры будут летать даже на старых видюхах. В реальности все было наоборот. Может быть видюхи на максвелле будут еще больше тормозить.
раскрыть ветку (39)
Автор поста оценил этот комментарий
это просто маркетинг, специально тормозить игры что бы покупали новые видеокарты, не люблю когда в игре плохая оптимизация, это показывает либо лень либо жопорукость разработчиков. Как по мне сейчас самые не оптимизированные игры это две последние части assassin's creed процессорозависимость в которых просто космическая, графика осталась такая же как и в третье части, но лагов стало ещё больше.
раскрыть ветку (38)
DELETED
Автор поста оценил этот комментарий
на счет ассассина поддерживаю.
"черный флаг" эта ипаная печь, а не игра, к ней в пару еще можно Far Cry 3 добавить.
вот все шутят, что от крайзиса видеокарты "горят", у моей gtx770 запеканус именно от Ubisoft.
раскрыть ветку (20)
Автор поста оценил этот комментарий
Может есть ещё узкие места в системе? Оператива не качественная, проц слабоватый, я не ванга но мой ПЕЧ460 на максимуме выдавал стабильные 26 кадров.
раскрыть ветку (16)
DELETED
Автор поста оценил этот комментарий
"Узкие места..." Блин чувак, не обижай меня так, я только пол года назад, комп обновил.
Иллюстрация к комментарию
раскрыть ветку (1)
Автор поста оценил этот комментарий
"Узкое место" это не обязательно слабая вещь. Оно может быть из-за бракованной вещи, но к счастью такой баг (как правило) долго не прячется и рано или поздно вылезет в виде синего экрана или отказа компонента. Это нормально, заменишь по гарантии и всё. Но вот если он вылезет после окончания гарантии, можно ставить ту фотку.
Автор поста оценил этот комментарий
26 кадров это очень мало для игры.
раскрыть ветку (13)
DELETED
Автор поста оценил этот комментарий
я так "тени чернобыля" прошел
раскрыть ветку (2)
Автор поста оценил этот комментарий
И что с того ?
раскрыть ветку (1)
DELETED
Автор поста оценил этот комментарий
это было ужасно
Автор поста оценил этот комментарий
Да вы товарищ зажрались :)
У меня у 2\3 знакомых, не комп, а калькулятор. Они даже запустить такое не смогут. А тут сразу 26 кадров.
раскрыть ветку (9)
Автор поста оценил этот комментарий
Это не значит, что зажрались, просто знакомые либо нищеброды, либо в игры не играют.
раскрыть ветку (8)
Автор поста оценил этот комментарий
А может именно зажрались?Или графодрочеры?
раскрыть ветку (7)
Автор поста оценил этот комментарий
Почему у меня на Geforce 9500GT все норм, без лагов?
раскрыть ветку (1)
Автор поста оценил этот комментарий
Может потому, что надо посетить окулиста?
Автор поста оценил этот комментарий
Проверь производительность, у меня в вывернутыми на максимум настройками летал без тормозов и багов. Мб репак кривой (я в лицензию играл)?
Автор поста оценил этот комментарий
Это просто маркетинг - нанимать кривожопых кодеров.
Никто не тормозит игры специально, у видеокарты банально не хватает мощностей, что бы разгрести всю ту ересь, что пришла кодеру в голову. Последние игры от Ubisoft всегда отличались ужасной производительностью. Наследство от приставок, я так понимаю.
раскрыть ветку (11)
Автор поста оценил этот комментарий
Выглядит это примерно так:
Иллюстрация к комментарию
Автор поста оценил этот комментарий
Почему AC:Black Flag у меня не лагает, хотя видео карта 9500GT
раскрыть ветку (9)
Автор поста оценил этот комментарий
Потому что играешь в 320x240.
раскрыть ветку (8)
Автор поста оценил этот комментарий
1024x678 разрешение и мне хватает
раскрыть ветку (7)
Автор поста оценил этот комментарий
и настройки самый минимум, ну ну
Зачем покупать nissan, когда мне и на запорожце збс?
раскрыть ветку (6)
Автор поста оценил этот комментарий
Среднее настройки
раскрыть ветку (5)
Автор поста оценил этот комментарий
ну не знаю 3 Асасин у меня шёл почти на максимуме на 9500 гт
раскрыть ветку (3)
Автор поста оценил этот комментарий
У не самое мощное встроенное видеоядро intel hd graphic 4000? которое мощнее вашей карты плачет, потому что не тянет ничего кроме рабочего стола, а у вас вдруг все четко.
раскрыть ветку (2)
Автор поста оценил этот комментарий
ну мне тоже врать смысла нету
раскрыть ветку (1)
Автор поста оценил этот комментарий
пруфы в студию. Если 20fps при низких настройках при 800х600 для вас нормально...
Автор поста оценил этот комментарий
Все правильно сказал. Жаль тех людей, которые не понимают, что игровая индустрия - всего лишь маркетинг. Идейных разработчиков почти не осталось. Даже среди инди разработчиков их мало.
Автор поста оценил этот комментарий
На ПК есть костыли, которые необходимы для нормального функционирование игр при всем разнообразие железа.
То есть схема примерно такая "Игра-API-Драйвер-ОС-Железо".
С Мантл цепочка сокращается, увеличивая производительность.
Как ближайшею аналогию можно привести игровые консоли, где цепочка выглядит как "Игра-Железо" из-за заранее известных характеристик и специально игровой ОС.
Сообственно Мантл как раз дает разработчикам больше свободы при работе с железом.
раскрыть ветку (35)
Автор поста оценил этот комментарий
Очень частое заблуждение... На консолях нет такой схемы, там используются модифицированные API с персоналок. В боксе API основанный на DX9, ос базируется на Windows. В PS3 API разработан на основе OpenGL, ОС по слухам freebsd - не помню, где читал о ос, возможно ошибка. В Xbone все практически так же, только версия DX другая. В PS4 добавили еще один API, позволяющий работать с железом на низком уровне. Примерно то же самое предлагает DX12.
раскрыть ветку (34)
Автор поста оценил этот комментарий
Верно. Используется специальное игровое API, разработанное для игрового железа.
Используется оно в основном для некоторого упрощения разработки и защиты железа от возможного пиратства (например та же PS3 имеет несколько уровней защиты и прав доступа, каждая для конкретный нужд).

Я её не указал на своей схеме, так как она в отличии <DX12 API не бьет сколько либо значимо по производительности, при этом упрощая разработку для некоторой категории игр.
раскрыть ветку (33)
Автор поста оценил этот комментарий
Специальное API. Надо сказать, что на основе API Xbox 360 был разработан DirectX 10.
Используется оно точно для того же, для чего оно используется в персоналках.
раскрыть ветку (32)
Автор поста оценил этот комментарий
Опять же главное разница в том, что на ПК нет конкретного железа, поэтому приходится делать так, что бы универсально было, даже если это идет во вред производительности.

Похожим примером может стать Android, который несмотря на лучшее железо сильно проигрывает в производительности, из-за необходимости в виртуальной машине.
раскрыть ветку (31)
Автор поста оценил этот комментарий
Под "универсальностью" подразумевается продумывание, какие же возможности из используемых игрой поддерживаются определенными комплектующими и что с ними делать, что бы игра работала на большем кол-ве конфигураций. Не сказал бы, что это вредит производительности.
DELETED
Автор поста оценил этот комментарий
ВЕЛИКАЯ КОНСОЛЬНАЯ ОПТИМИЗАЦИЯ - это такой себе миф.

Ее родить смогли считай только внутренние студии сони для своей плойки. Остальные девелоперы выкакивают обычно торозное или очень страшное гонево :)
раскрыть ветку (29)
Автор поста оценил этот комментарий
Собственно почему это должно быть мифом, если это действительно работает?
На среднем компьютере 9 летней давности я думаю ты не сможешь нормально поиграть в баттлфилд 4 или крайзис 3, а на среднем компьютере 7 летней давности невозможно добиться графики уровня The Last of Us и Beyond.
Это, по меньшей мере, глупо отрицать.
раскрыть ветку (28)
DELETED
Автор поста оценил этот комментарий
В бф4? Ставим 1280*720 (в момент выхода хбокс360 я играл УЖЕ в большем разрешении, в тот же обливион, на намного более слабом пека, при 18-28 фпс), вырубаем практически все что только можно и получаем консольную версию, без графона и с фпс падающим до 20 :) Не забываем только, что у нас на пека еще и полноценная система висит. Дай боже там 20% разницы буде.

TLOF - это к параграфу про сони.
раскрыть ветку (7)
Автор поста оценил этот комментарий
Опять повторюсь:
На среднем компьютере 9 летней давности я думаю ты не сможешь поиграть в баттлфилд 4 или крайзис 3.
При этом стоит понимать что разница между в версиями только в "графоне", которая для многих не столь существенна, как разница в цене между ПК и консолью.
раскрыть ветку (6)
DELETED
Автор поста оценил этот комментарий
Потому что в ящик запихали прототипное железо. На аналоге 7 летней давности вполне себе будет играться при таких же настройках. Легко.

Пк никогда и не был дешевым удовольствием. Не об этом разговор. И да, он меня уже утомил.
раскрыть ветку (5)
DELETED
Автор поста оценил этот комментарий
А кризис. Ты видел кризис на консолях как выглядит? Подгружающиеся объекты там в 15 м перед носом и прочие радости? Ужасный фпс при этом на них? На пека даже срубив все в минимум этого, простите, пиздеца не получить.
раскрыть ветку (5)
Автор поста оценил этот комментарий
Довольно субъективное представление об игре.
Игра есть? Есть. Играется хорошо? Безусловно: кадров 30 хватает, даже если есть просадки до 20-25 во время тяжелых спецэффектов. Выглядит как? Красиво - на фоне других игр.
Проблем не вижу. При этом опять же повторюсь все на железе 9 летней давности и обычному человеку не надо думать над апгрейдом конфигурации.
раскрыть ветку (4)
DELETED
Автор поста оценил этот комментарий
Есть. Играется плохо. 30 кадров для шутера даже с геймпадом мало. Выглядит, как говно, простите :) Это не оптимизация. Это костыли.
раскрыть ветку (3)
Автор поста оценил этот комментарий
На время выхода прошлых консолей железо в них было топовым. Не то что сейчас засунули даже не мидл...
раскрыть ветку (13)
Автор поста оценил этот комментарий
Но если этот ниже миддла тянет топовую графику, то в чем проблема?
раскрыть ветку (12)
Автор поста оценил этот комментарий
Где оно ее тянет то? 1080p игр нет, сглаживание x2 или вообще нет, настройки дай бог средние.
раскрыть ветку (11)
Автор поста оценил этот комментарий
Логично предположить, что на новой версии DX перенесут часть расчетов, которые обычно проводились на ЦП на видеокарту.
раскрыть ветку (24)
Автор поста оценил этот комментарий
Тоесть они тупо перенесут обработку теней и постпроцессинг с проца на видюху? Ох уж эти маркетологи.
раскрыть ветку (23)
Автор поста оценил этот комментарий
Видно прямо таки профессионала в этой области...
раскрыть ветку (22)
Автор поста оценил этот комментарий
Может быть я и не профессионал в данной области, но я прекрасно понимаю, что сейчас можно делать железо на несколько порядков мощнее. Больше всего меня бесит Intel. Вместо того , чтобы повышать тактовые частоты cpu, они уменьшают техпроцесс, значительно снижают разгонный потенциал, меняя термопасту под крышкой процессора на непонятную хрень и увеличивают мощность никому не нужного встроенного видеоядра. В итоге i7 2600k, разогнанный до 4.2 ггц греется меньше, чем хасвелл в стоке Про видеокарты я вообще молчу. В обычных видеокартах залочена такая же комфортная работа с 3d графикой , как в "профессиональных" типа tesla или quadro.
раскрыть ветку (19)
Автор поста оценил этот комментарий
Уменьшение техпроцесса, какбэ, влечет за собой увеличение производительности, транзисторы потребляют меньше энергии и выделяют меньше тепла. На одинаковой площади при меньшей технологии помещается больше вычислительных элементов.
раскрыть ветку (7)
Автор поста оценил этот комментарий
В том то и дело, что площадь тепловыделения делают меньше из-за видеоядра. Кроме сниженного энергопотребления и слегка улучшенной архитектуры и логики у haswell нет преимуществ над sandy.
раскрыть ветку (6)
Автор поста оценил этот комментарий
Если ты думаешь, что видеочип в процессоре настолько огромный, что из-за него туда даже вычислительные блоки не запихнуть, то ты сильно ошибаешься.
раскрыть ветку (5)
Автор поста оценил этот комментарий
Сейчас прослеживается тенденция к увеличению его размеров и уменьшения размеров вычислительных блоков. Если в broadwell будет термопаста вместо припоя, будем жарить шашлыки на кулерах.
раскрыть ветку (4)
Автор поста оценил этот комментарий
Для вас есть припой на ivi bridge - 4820k - 4930k - 4970x, осенью выходит haswel-e. Разгонный потенциал, несмотря на припой, не увеличился.
раскрыть ветку (3)
Автор поста оценил этот комментарий
Haswell-e будет слишком дорогим. Мне 12 потоков не нужны. Мне нужно 8 по 5ггц в стоке (да, я люблю помечтать).
раскрыть ветку (2)
Автор поста оценил этот комментарий
"Вместо того , чтобы повышать тактовые частоты cpu, они уменьшают техпроцесс, значительно снижают разгонный потенциал"
С увеличением тактовых частот растет tdp процессора. Соответственно иные требования к системе питания и к охлаждению. Для тех кто всего этого не боится - выпускается серия с разблокированным множителем. Меняете термоинтерфейс с пасты на металл и вперед разгонять. Сам так делал на 3570k.
"увеличивают мощность никому не нужного встроенного видеоядра"
Очень полезная вещь на самом деле. Можно за пару минут пожать blu-ray для просмотра на телефоне. Повышенная мощность видеоядра еще бы ускорила этот процесс. Плюс безболезненное подключение дополнительных мониторов, как бонус. Не такое оно и бесполезное.
раскрыть ветку (10)
Автор поста оценил этот комментарий
В общем я с тобой согласен, но, 95 процентов пользователей пк не знают, как поменять термоинтерфейс. Интел должны по дефолту делать нормальный термоинтерфейс. Встроенное видеоядро - неплохая штука, но она не должна сказываться на производительности cpu, тем более сейчас почти у всех стоят дискретки. На встроенной видеокарте (hd4000) в 4k видео не посмотришь, на нескольких full hd мониторах комфортно не поработаешь, про игры я вообще молчу.
раскрыть ветку (9)
Автор поста оценил этот комментарий
" 95 процентов пользователей пк не знают, как поменять термоинтерфейс."
95% это нахрен не сдалось, потому что в дефолте все нормально.
"Интел должны по дефолту делать нормальный термоинтерфейс."
LGA2011 для вас. Только припой, только хардкор. Хотя тот же 4820k и его родной брат 3770k разгоняются абсолютно одинаково. Поэтому дело не в термоинтерфейсе.
"Встроенное видеоядро - неплохая штука, но она не должна сказываться на производительности cpu"
А она кому то нужна эта производительность? Своего i5 3570k даже в дефолте большинству на много лет вперед хватит, а ведь его предшественник с аналогичной производительностью в 2011 году вышел...
"На встроенной видеокарте (hd4000) в 4k видео не посмотришь, на нескольких full hd мониторах комфортно не поработаешь, про игры я вообще молчу."
Видео 4k она спокойно крутит, 3 монитора тоже нормально поддерживает. Игры да, никак, но это и нафиг не надо.
раскрыть ветку (8)
Автор поста оценил этот комментарий
Для многих игры являются одним из главный факторов при выборе железа. Arma3, dayz, rome total war, Crysis3, dwarf fortress, gta5(если выйдет) - очень процессорозависимые игры. Для комфортной игры в них необходимо разгонять i5 хотя-бы до 4,5 ггц.
раскрыть ветку (7)
Автор поста оценил этот комментарий
Тут вчера в горячем проскакивал пост, дескать нафига мощное железо, меня и моя 9600GT устраивает и во все игры играю. Вот они 95% геймеров. По статистике стима (можете сами глянуть), типичный юзер имеет 2 ядерный core 2 duo на частоте меньше 3ГГц и какая то старая карта с 1гб рамы... О какой замене термоинтерфейса можно говорить - большинство открыть системник боятся. И даже в total war играют на подобных системах. Меня это вообще удивляет, на ультра настройках я у себя (i5 3570k 4.7ГГц - 16гб рамы - Radeon 7970 1200Мгц) в бенче наблюдаю просадки до 24fps... А ведь играют и на более слабых системах...
раскрыть ветку (6)
Автор поста оценил этот комментарий
Согласен. У меня есть знакомые, которые считают, что больше 24 кадров в играх человеческий глаз распознать не может)). Rome total war 2 после патчей вроде меньше лагать стал. Я его на своем компе не запускал, мне 5 цива больше нравится, да и в первый rome я наигрался. Кстати, dayz через год будет выдавать больше кадров и фризов будет меньше.У меня на старом компе до сих пор рабочая 9600gt в bad company 2 на 9dx выдает 60fps на максималках)).
раскрыть ветку (3)
Автор поста оценил этот комментарий
Ну просадки по разным причинам могут быть. У меня ссд видимо тупит, запускал 2 раза тест на экстриме, первый раз просел, потом уже не проседал.

П.С. проц 4,6 ггц, тест этого не видит. Разрешение 2560*1440
Иллюстрация к комментарию
Иллюстрация к комментарию
раскрыть ветку (1)
Автор поста оценил этот комментарий
раскрыть ветку (1)
Автор поста оценил этот комментарий
И ? Что с того ? Смысла в подобном я не вижу, а производителю невыгодно налаживать производство целой кучи адаптеров разом.
Автор поста оценил этот комментарий
про mantle знаю только что, эта технология работает только на платах amd, и позволяет при просчете света использовать видеокарту напрямую минуя directX, что должно увеличить производительность
раскрыть ветку (3)
Автор поста оценил этот комментарий
Что значит использовать видеокарту напрямую минуя directX? Mantle - api , собственно, как и directx. Имхо dx12 будет круче mantle, т.к. он более раскрученный.
Автор поста оценил этот комментарий
Т.е. мы получаем практически такой же API ? В DX12 обещают поддержку низкоуровнего доступа к железу.
раскрыть ветку (1)
Автор поста оценил этот комментарий
mantle вроде только в работе со светом выигрывает, наверное они будут работать вместе, если такое конечно возможно.
Автор поста оценил этот комментарий
Directx 12 обещает поддержку на PC, Xbox One и windows phone. Может в этом смысле?
раскрыть ветку (3)
Автор поста оценил этот комментарий
На xbox не будет ПОЛНОЦЕННОГО direct12, я гарантирую это.
раскрыть ветку (2)
Автор поста оценил этот комментарий
Откуда такие сведения? Всем конечно понятно, что на мобильниках и планшетах будет обрезанная версия, но на тему бокса, я бы не спешил с предположениями - майкрософт ведь заявляла в своем блоге что поддержка будет (насчет того, что урезанный или нет, думаю будет информация намного позже, но не факт что общедоступная). Не вижу никаких причин, по которым им не поддерживать новый DirectX, ведь и для современных видеокарт, поддерживающих только DirectX 11 в большинстве случаев тоже заявлена поддержка DirectX 12, поскольку на самом деле с точки зрения архитектуры на уровне железа разница в функциональности минимальна (вероятно для бокса потребуется перепрошивка). Как я понимаю это в первую очередь просто оптимизация, ну и плюс некоторый новый функционал, который при желании, насколько я понимаю, вполне можно эмулировать на существующих compute shader'ах.
Конечно, всегда есть вариант, что какую-то наиболее затратную функциональность они объявят опциональной, но это все-таки не то, чтобы говорить что на боксе не будет полноценного directx12.
раскрыть ветку (1)
Автор поста оценил этот комментарий
В чем то ты прав.
Может быть он будет и полноценным, но в играх разрабы все равно не будут использовать его функционал на полную катушку.
Я надеялся, что на xbox one железо будет круче , чем на ps4(не люблю сони). В итоге на xbox оно оказалось слабее, хотя оно оказалось слабое на обоих консолях. Ryse:son of rome идет в 900P при этом выдает 30fps - no comments.
Вы смотрите срез комментариев. Чтобы написать комментарий, перейдите к общему списку