Помню, как маркетологи пиарили то ли 10й dx, то ли opengl, что-то говорили про оптимизацию, говорили, что игры будут летать даже на старых видюхах. В реальности все было наоборот. Может быть видюхи на максвелле будут еще больше тормозить.
это просто маркетинг, специально тормозить игры что бы покупали новые видеокарты, не люблю когда в игре плохая оптимизация, это показывает либо лень либо жопорукость разработчиков. Как по мне сейчас самые не оптимизированные игры это две последние части assassin's creed процессорозависимость в которых просто космическая, графика осталась такая же как и в третье части, но лагов стало ещё больше.
на счет ассассина поддерживаю. "черный флаг" эта ипаная печь, а не игра, к ней в пару еще можно Far Cry 3 добавить. вот все шутят, что от крайзиса видеокарты "горят", у моей gtx770 запеканус именно от Ubisoft.
"Узкое место" это не обязательно слабая вещь. Оно может быть из-за бракованной вещи, но к счастью такой баг (как правило) долго не прячется и рано или поздно вылезет в виде синего экрана или отказа компонента. Это нормально, заменишь по гарантии и всё. Но вот если он вылезет после окончания гарантии, можно ставить ту фотку.
А зачем покупать тойоту - на жигулях все шикарно, такие же 4 колеса. Да что там на жигулях, велосипед наше все. И дешево и для здоровья полезно. Тоже зажрались, на машинах ездить. Нормально человеческое желание играть с комфортом и получать удовольствие. Если бы не, так называемые, графодрочеры - до сих пор бы графика была как на денди. Да и графодрочеры хотя бы могут позволить себе железо, чтобы играть как им нравится. Их это не напрягает, значит у них хороший доход, соответственно явно более высокое положение в обществе.
Вам не нужна хорошая графика? Играйте в doom, HL 1 и прочие старые игры. Они везде будут показывать приемлемый fps. А я хочу играть в фильм. Если это будет доступно - я за это заплачу.
Это просто маркетинг - нанимать кривожопых кодеров. Никто не тормозит игры специально, у видеокарты банально не хватает мощностей, что бы разгрести всю ту ересь, что пришла кодеру в голову. Последние игры от Ubisoft всегда отличались ужасной производительностью. Наследство от приставок, я так понимаю.
Мне однажды доказывали, что BF3 может на ультра настройках бегать на смешном ноуте при full hd разрешении. Уверяли, что все летает. Я же на ролике выше 20 fps значение не увидел. У 95% точно такая же ситуация.
У не самое мощное встроенное видеоядро intel hd graphic 4000? которое мощнее вашей карты плачет, потому что не тянет ничего кроме рабочего стола, а у вас вдруг все четко.
Все правильно сказал. Жаль тех людей, которые не понимают, что игровая индустрия - всего лишь маркетинг. Идейных разработчиков почти не осталось. Даже среди инди разработчиков их мало.
На ПК есть костыли, которые необходимы для нормального функционирование игр при всем разнообразие железа. То есть схема примерно такая "Игра-API-Драйвер-ОС-Железо". С Мантл цепочка сокращается, увеличивая производительность. Как ближайшею аналогию можно привести игровые консоли, где цепочка выглядит как "Игра-Железо" из-за заранее известных характеристик и специально игровой ОС. Сообственно Мантл как раз дает разработчикам больше свободы при работе с железом.
Очень частое заблуждение... На консолях нет такой схемы, там используются модифицированные API с персоналок. В боксе API основанный на DX9, ос базируется на Windows. В PS3 API разработан на основе OpenGL, ОС по слухам freebsd - не помню, где читал о ос, возможно ошибка. В Xbone все практически так же, только версия DX другая. В PS4 добавили еще один API, позволяющий работать с железом на низком уровне. Примерно то же самое предлагает DX12.
Верно. Используется специальное игровое API, разработанное для игрового железа. Используется оно в основном для некоторого упрощения разработки и защиты железа от возможного пиратства (например та же PS3 имеет несколько уровней защиты и прав доступа, каждая для конкретный нужд).
Я её не указал на своей схеме, так как она в отличии <DX12 API не бьет сколько либо значимо по производительности, при этом упрощая разработку для некоторой категории игр.
Специальное API. Надо сказать, что на основе API Xbox 360 был разработан DirectX 10. Используется оно точно для того же, для чего оно используется в персоналках.
Опять же главное разница в том, что на ПК нет конкретного железа, поэтому приходится делать так, что бы универсально было, даже если это идет во вред производительности.
Похожим примером может стать Android, который несмотря на лучшее железо сильно проигрывает в производительности, из-за необходимости в виртуальной машине.
Под "универсальностью" подразумевается продумывание, какие же возможности из используемых игрой поддерживаются определенными комплектующими и что с ними делать, что бы игра работала на большем кол-ве конфигураций. Не сказал бы, что это вредит производительности.
DELETED
ВЕЛИКАЯ КОНСОЛЬНАЯ ОПТИМИЗАЦИЯ - это такой себе миф.
Ее родить смогли считай только внутренние студии сони для своей плойки. Остальные девелоперы выкакивают обычно торозное или очень страшное гонево :)
Собственно почему это должно быть мифом, если это действительно работает? На среднем компьютере 9 летней давности я думаю ты не сможешь нормально поиграть в баттлфилд 4 или крайзис 3, а на среднем компьютере 7 летней давности невозможно добиться графики уровня The Last of Us и Beyond. Это, по меньшей мере, глупо отрицать.
В бф4? Ставим 1280*720 (в момент выхода хбокс360 я играл УЖЕ в большем разрешении, в тот же обливион, на намного более слабом пека, при 18-28 фпс), вырубаем практически все что только можно и получаем консольную версию, без графона и с фпс падающим до 20 :) Не забываем только, что у нас на пека еще и полноценная система висит. Дай боже там 20% разницы буде.
Опять повторюсь: На среднем компьютере 9 летней давности я думаю ты не сможешь поиграть в баттлфилд 4 или крайзис 3. При этом стоит понимать что разница между в версиями только в "графоне", которая для многих не столь существенна, как разница в цене между ПК и консолью.
Не будет. Не спроста же во всех играх в минималках стоит 8800. Карты до восьмой серии не поддерживают DX10, а другие карты восьмой серии попросту не осилят графику.
Я не с проста пишу про аналогичное железо, а не про такое же. Разный api, разная общая архитектура у железок, все разное с тем поколением. Ты же все пытаешься меня стянуть на сравнение в лоб, но даже не пытаешься осмыслить, что я пишу. Давай, до свидания.
Как можно взять аналогичное железо, если есть разность архитектур? В данном случае возможен только эмпирический способ сравнения с различными конфигурациями. Соответственно железо 9 летней давности не сможет запустить современные игры - это факт, даже если это так называемое "сравнение в лоб". То что ты пишешь я понимаю, а вот что я пытаюсь донести до тебя ты видимо нет. Если тебя действительно утомил разговор - то просто не отвечай на комментарий.
DELETED
А кризис. Ты видел кризис на консолях как выглядит? Подгружающиеся объекты там в 15 м перед носом и прочие радости? Ужасный фпс при этом на них? На пека даже срубив все в минимум этого, простите, пиздеца не получить.
Довольно субъективное представление об игре. Игра есть? Есть. Играется хорошо? Безусловно: кадров 30 хватает, даже если есть просадки до 20-25 во время тяжелых спецэффектов. Выглядит как? Красиво - на фоне других игр. Проблем не вижу. При этом опять же повторюсь все на железе 9 летней давности и обычному человеку не надо думать над апгрейдом конфигурации.
Если исключить Battlefield 4, то во всех играх на PS4 есть 1080p, настройки аналогичны максимальным (за исключением Nvidia спецэффектов), а сглаживание используется разное, в зависимости от предпочтений движка. Если брать эксклюзивы, то Killzone один из самых красивых шутеров, а Infamous самая красивая open world игра (да и вообще пока самая красивая игра 2014 года).
Ага, то есть теперь вместо того, что бы отвечать на логические доводы ты перешел на необоснованные оскорбления. У вас фанбойство головного мозга, сударь.
Нет, конечно не существует ничего лучше наращивания производительности. Но это требует денег. Причем в некоторых случаях довольно больших Покупка же PS4 избавляет тебя от дополнительной траты средств на будущие 5-6 лет, при этом постоянно обеспечивая максимально красивую картинку из доступного железа и играбельность игры. Это и есть схема оптимизации, которая работает уже не одну декаду. Думаю не сложно хотя бы понять.
"Покупка же PS4 избавляет тебя от дополнительной траты средств на будущие 5-6 лет, при этом постоянно обеспечивая максимально красивую картинку из доступного железа и играбельность игры. Это и есть схема оптимизации, которая работает уже не одну декаду. Думаю не сложно хотя бы понять. " Покупка нынешнего железа обеспечит мне красивую картинку в честном full hd и без тормозов еще года 3, не меньше. Игры покупаются дешево, нормальная клавиатура с мышкой, есть стратегии (что главное). Я не хочу наблюдать это мыльцо со смешным количеством fps (дай бог 30)
В первой игре разница в DOF'e. На третьей картинке - технодемка годовой давности. Для её запуска могут собрать любой ПК, чем и воспользовались Epic. В AC4 я разницы не вижу (на сжатой картинке их не видно), но как я уже говорил в некоторых играх используются проплаченные спецэффекты от Nvidia. Собственно их не увидеть даже на ПК, если у тебя не карточка от зеленных. "Покупка нынешнего железа обеспечит мне красивую картинку в честном full hd и без тормозов еще года 3, не меньше." Мне интересно узнать какой комп может обеспечить красивую картинку в FullHD еще три года, учитывая резко возросшие системные требования. Да и мы вроде поняли что на PS4 и так есть честные 1080p во всех играх (кроме BF4) "Игры покупаются дешево" Дешево. Разница в 2-3 раза. Не спорю. "нормальная клавиатура с мышкой" Говорит человек, который геймпад скорее всего ни разу в жизни не держал, а если и держал то дольше 5 минут не пользовался. Клава/мышь технологически устарели, на фоне того же дуалшока. Однако сама мышь незаменимый манипулятор для узкого жанра игр. "есть стратегии (что главное)" Каждому свое. "Я не хочу наблюдать это мыльцо" Уже FullHD мылом называют "со смешным количеством fps (дай бог 30)" От 30 до 60, в зависимости от игры и решения разработчиков.
Да. Я не упомянул про последний Томб Райдер. Ну тут самое интересное PC
"Мне интересно узнать какой комп может обеспечить красивую картинку в FullHD еще три года, учитывая резко возросшие системные требования. Да и мы вроде поняли что на PS4 и так есть честные 1080p во всех играх (кроме BF4)" У меня самый банальный i5 3570k 4.7ГГц + 16гб ram + Radeon 7970 1200Мгц. Не вышло еще ни одной игры и вряд ли будет, где бы эта связка комфортную игру на full hd не обеспечивала. "Говорит человек, который геймпад скорее всего ни разу в жизни не держал, а если и держал то дольше 5 минут не пользовался." Постоянно с боксовским в Train Simulator катаюсь. На большее он не способен. "От 30 до 60, в зависимости от игры и решения разработчиков. " А на PC не ограничего. Все что железо позволит - все твое.
Может быть я и не профессионал в данной области, но я прекрасно понимаю, что сейчас можно делать железо на несколько порядков мощнее. Больше всего меня бесит Intel. Вместо того , чтобы повышать тактовые частоты cpu, они уменьшают техпроцесс, значительно снижают разгонный потенциал, меняя термопасту под крышкой процессора на непонятную хрень и увеличивают мощность никому не нужного встроенного видеоядра. В итоге i7 2600k, разогнанный до 4.2 ггц греется меньше, чем хасвелл в стоке Про видеокарты я вообще молчу. В обычных видеокартах залочена такая же комфортная работа с 3d графикой , как в "профессиональных" типа tesla или quadro.
Уменьшение техпроцесса, какбэ, влечет за собой увеличение производительности, транзисторы потребляют меньше энергии и выделяют меньше тепла. На одинаковой площади при меньшей технологии помещается больше вычислительных элементов.
В том то и дело, что площадь тепловыделения делают меньше из-за видеоядра. Кроме сниженного энергопотребления и слегка улучшенной архитектуры и логики у haswell нет преимуществ над sandy.
Сейчас прослеживается тенденция к увеличению его размеров и уменьшения размеров вычислительных блоков. Если в broadwell будет термопаста вместо припоя, будем жарить шашлыки на кулерах.
"Вместо того , чтобы повышать тактовые частоты cpu, они уменьшают техпроцесс, значительно снижают разгонный потенциал" С увеличением тактовых частот растет tdp процессора. Соответственно иные требования к системе питания и к охлаждению. Для тех кто всего этого не боится - выпускается серия с разблокированным множителем. Меняете термоинтерфейс с пасты на металл и вперед разгонять. Сам так делал на 3570k. "увеличивают мощность никому не нужного встроенного видеоядра" Очень полезная вещь на самом деле. Можно за пару минут пожать blu-ray для просмотра на телефоне. Повышенная мощность видеоядра еще бы ускорила этот процесс. Плюс безболезненное подключение дополнительных мониторов, как бонус. Не такое оно и бесполезное.
В общем я с тобой согласен, но, 95 процентов пользователей пк не знают, как поменять термоинтерфейс. Интел должны по дефолту делать нормальный термоинтерфейс. Встроенное видеоядро - неплохая штука, но она не должна сказываться на производительности cpu, тем более сейчас почти у всех стоят дискретки. На встроенной видеокарте (hd4000) в 4k видео не посмотришь, на нескольких full hd мониторах комфортно не поработаешь, про игры я вообще молчу.
" 95 процентов пользователей пк не знают, как поменять термоинтерфейс." 95% это нахрен не сдалось, потому что в дефолте все нормально. "Интел должны по дефолту делать нормальный термоинтерфейс." LGA2011 для вас. Только припой, только хардкор. Хотя тот же 4820k и его родной брат 3770k разгоняются абсолютно одинаково. Поэтому дело не в термоинтерфейсе. "Встроенное видеоядро - неплохая штука, но она не должна сказываться на производительности cpu" А она кому то нужна эта производительность? Своего i5 3570k даже в дефолте большинству на много лет вперед хватит, а ведь его предшественник с аналогичной производительностью в 2011 году вышел... "На встроенной видеокарте (hd4000) в 4k видео не посмотришь, на нескольких full hd мониторах комфортно не поработаешь, про игры я вообще молчу." Видео 4k она спокойно крутит, 3 монитора тоже нормально поддерживает. Игры да, никак, но это и нафиг не надо.
Для многих игры являются одним из главный факторов при выборе железа. Arma3, dayz, rome total war, Crysis3, dwarf fortress, gta5(если выйдет) - очень процессорозависимые игры. Для комфортной игры в них необходимо разгонять i5 хотя-бы до 4,5 ггц.
Тут вчера в горячем проскакивал пост, дескать нафига мощное железо, меня и моя 9600GT устраивает и во все игры играю. Вот они 95% геймеров. По статистике стима (можете сами глянуть), типичный юзер имеет 2 ядерный core 2 duo на частоте меньше 3ГГц и какая то старая карта с 1гб рамы... О какой замене термоинтерфейса можно говорить - большинство открыть системник боятся. И даже в total war играют на подобных системах. Меня это вообще удивляет, на ультра настройках я у себя (i5 3570k 4.7ГГц - 16гб рамы - Radeon 7970 1200Мгц) в бенче наблюдаю просадки до 24fps... А ведь играют и на более слабых системах...
Согласен. У меня есть знакомые, которые считают, что больше 24 кадров в играх человеческий глаз распознать не может)). Rome total war 2 после патчей вроде меньше лагать стал. Я его на своем компе не запускал, мне 5 цива больше нравится, да и в первый rome я наигрался. Кстати, dayz через год будет выдавать больше кадров и фризов будет меньше.У меня на старом компе до сих пор рабочая 9600gt в bad company 2 на 9dx выдает 60fps на максималках)).
про mantle знаю только что, эта технология работает только на платах amd, и позволяет при просчете света использовать видеокарту напрямую минуя directX, что должно увеличить производительность
Что значит использовать видеокарту напрямую минуя directX? Mantle - api , собственно, как и directx. Имхо dx12 будет круче mantle, т.к. он более раскрученный.
Откуда такие сведения? Всем конечно понятно, что на мобильниках и планшетах будет обрезанная версия, но на тему бокса, я бы не спешил с предположениями - майкрософт ведь заявляла в своем блоге что поддержка будет (насчет того, что урезанный или нет, думаю будет информация намного позже, но не факт что общедоступная). Не вижу никаких причин, по которым им не поддерживать новый DirectX, ведь и для современных видеокарт, поддерживающих только DirectX 11 в большинстве случаев тоже заявлена поддержка DirectX 12, поскольку на самом деле с точки зрения архитектуры на уровне железа разница в функциональности минимальна (вероятно для бокса потребуется перепрошивка). Как я понимаю это в первую очередь просто оптимизация, ну и плюс некоторый новый функционал, который при желании, насколько я понимаю, вполне можно эмулировать на существующих compute shader'ах. Конечно, всегда есть вариант, что какую-то наиболее затратную функциональность они объявят опциональной, но это все-таки не то, чтобы говорить что на боксе не будет полноценного directx12.
В чем то ты прав. Может быть он будет и полноценным, но в играх разрабы все равно не будут использовать его функционал на полную катушку. Я надеялся, что на xbox one железо будет круче , чем на ps4(не люблю сони). В итоге на xbox оно оказалось слабее, хотя оно оказалось слабое на обоих консолях. Ryse:son of rome идет в 900P при этом выдает 30fps - no comments.