Привет, не в курсе про игру X Rebirth? Суть проблемы в том, что она лагает вообще у всех игроков даже на топ компьютерах. Все говорят о том, что это проблемы разрабов, вроде бы "с оптимизацией проблемы" . Можешь объяснить что это такое по-человечески?
Я пробовал играть на самых убогих минималках, когда ВСЁ выключено, абсолютно всё. Игра тормозит как убогое г*вно. У меня комп не топ (крайзис 3й на максималках без экшн сцен, средние при перестрелках тянет спокойно), не верю, что X требовательнее грёбанного крайзиса.
Ну и к чему ты это сказал? Там речь про APUшку двухядерную за 1200 рублей, а у тебя четырёхядерный интел. Конечно в игре не всё упирается в проц, но тем не менее у кварда больше форы чувак, да и видео классом выше. ыы?
Кажи бильше - этот же проц и радеон 7950, разрешение 1680х1050 - не потянули Ультра объекты пресловутого Крайзиса 3.
При том сам не знаю в чем была проблема - все на макс. + 8х MSAA (но без обьектов) давало + 40 ФПС. При повышении качества этой настройки все падало в яму - 12 кадров в секунду
комрад! помоги оптимизировать DAYZ Standalone лагает, особенно в городах, а сильно графон уменьшать неохото, ибо картинка становится унылой(( Железо: GeForse GTS-250 4 г опертивы intel core 2 quad 2.66GHz винда 7
В Х Rebirth не до перфекционизма, т.к. сама игра лагает дико даже при всех выключенных настройках. Я понятия не имею, как так можно было игру выпустить,но такое наблюдается у всех.
Оптимизировать игры под PC не так уж важно, ведь всегда можно купить новую видеокарту (c) Ubisoft Хотя Watch Dogs неоднократно обещали сделать нормально
ну у меня так-то GTX770 единственное, что не тянет: мягкие тени ТXXA 4x ну и в море отражение много жрет, на среднем гоняю. все бы ничего, но греет люто.
Ибо с включенной вертикалкой, система старается подготовить кадры в буфер и посылать их один за одним, но так как производительности не хватает, для того что бы не рвать картинку, кол-во кадров в секунду уменьшается, но картинка остается при этом целой. С выключенной вертикалкой, доп кадры не обрабатываются в буфер, а посылаются как только обработаются, на экране мы видим 60fps но при этом из за постоянных разрывов картинки 20-30% кадров идут рваные, скорость на экране вроде больше, но целостности картинки нет. Того мы получаем около 40 полных кадров и 20 рваных. В итоге мы видим на экране
То что ты их не замечаешь или привык, это не означает что их нет. Запусти какой нибудь ассасин и быстро покрути камеру вокруг с вертикалкой и без, заметишь разницу в картинке. С картинка будет целой, без картинка будет рваной. Но вертикалка ограничивает fps и для кого то делает игру плавной, непривычной, потому Nvidia сделали G-SYNC http://www.nvidia.ru/object/how-does-g-sync-work-ru.html Система позволяет не дать кадрам рваться, но и не ограничивает кол-во кадров убирая непривычную плавность.
Они не обязаны быть. Развертка современных мониторов 60, 72, 75 герц. Играбельные FPS начинаются с 40 FPS. Да и не у многих топовые карты чтобы современные игры больше 70 FPS гонять. Честно сказать некоторые игры из за оптимизации и на топовых не очень то летают.
А вот не надо минусовать. При падении с 63 до 40 кадрах очевидно, что вертикальная синхронизация в этом случае только сжирает драгоценные кадры, пытаясь подстроить 63 fps под частоту монитора.
Ее суть в том, что бы на мощных машинах подгонять частоту кадров под частоту развертки монитора, что бы избежать теаринга. В данном случае она просто гробит производительность. Лучше включить адаптивную синхронизацию.
Очевидно, что не стоит включать вертикальную синхронизацию при таком уровне fps. Очевидно, что Assassin's Creed никогда не умел нормально работать с синхронизацией. Очевидно, что вертикальная синхронизация в данном случае жрет слишком много ресурсов, сажая FPS.
=_= VSync не может жрать ресурсы. Он блокирует запись кадровый буфер до момента обновления монитора: Если реально fps 63 будет понижение до 60 Если fps 59 то будет 30fps 29 = 20 19 = 10 9 = 5
А затем, чтобы кадров рваных не было. Тут уже не раз об этом говорили. И знаешь, если моник обновляется 60гц, и видяха гонит картинку 60гц, это не значит что кадры не будут рваные, наоборот, если идеально все совпадет - каждый кадр будет разорван. Монитор/видяха |...|...|...|...|...| ..|...|...|...|...|..
Вы не совсем понимаете как работает vsync.. Он синхронизирует свап буферов с обновлением монитора. А именно функция SwapBuffers(HDC dc); будет выполнена(stack up) только в момент обновления монитора, иными словами: 1: SwapBuffers() 2: Система стопит приложение до момента обновления монитора 3: Происходит обновление 4: Кадровый буфер разблокируется и снова позволяет в него писать 5: Приложение продолжает работу (это немного грубая схема описания работы но тем не менее отображает образную(валидную) картину происходящего)
Но это и не значит что они ОБЯЗАТЕЛЬНО БУДУТ рваные. Мой глаз художника отказывается смотреть в игры с какими либо дефектами, так что если бы я и увидел что либо рваное то не играл бы. С V-Sync не дружу еще со времен слабого компа, но и в Crysis 3 например он просаживал 40 фпс, с 80 до 40 (FX8350-7970Ghz-E)
Знаешь. Я еще немного подумал и... Чтобы 60фпс-60фпс совпали, ты должен включить/развернуть игру (запустить графическое двигло) именно в тот момент, когда происходит свап буферов на мониторе. Если ты промажешь, каждый кадр обязательно будет рваный, а местоположение разрыва зависит от того насколько ты не успел. А если фпс скачет, как это обычно бывает без синхронизации, ибо на отрисовку каждого нового кадра влияет все в игре, от количества частиц, до того, не запущена ли у тебя в фоне косынка, то разрывы будут практически всегда. А своим шоколадным глазом хуёжника не надо хвастаться, я тебя не знаю, работ твоих не видел, может у моей сестренки 11 летней "картины" лучше твоих.
miha92 отправлено 6 часов назад # наконец-то узнал что такое V-sync))) автору плюс! спасибо! ------->>>>>> asisit отправлено 1 час назад # Вот, вот =) Только про вертикальную синхронизацию точно не знал =)
Час назад ты даже не знал что такое V-Sync. Кто тут балабол.
Если я не знал что это за термин "верт. синхронизация", это не значит что я не видел разрывов ранее и не знал о буферах. Но теперь я узнал о самом термине и что конкретно эта функция делает более глубоко, что, собственно, позволяет оттолкнутся от уже приобретенных до сегодня знаний и сказать то, что я уже сказал. А вот твой шоколадный глаз хуёжника вообще нихуя не говорит и не значит. Вот это http://www.youtube.com/watch?v=N_KTUdxV7Bw , знаешь ли, тоже хуёжник делал.
Как тролль и школота интернетная ты уже спалился. Но реально, пойди к психиатру, проконсультируйся, может у тебя травма какая то. Тебе говорят слова "глаз" и "художник", но тебе мерещится анус и половой член, причем даже тогда, когда ни о чем таком речи не идет.
Ты идиот? Со мной все нормально, это ты приплел с какого-то фига "свой взор, способный уловить любые аномалии сего мира". Я же хотел таким образом сказать, что ты никто и твое мнение не основано ни на чем, и что ты можешь врать о том что не видел никаких разрывов дабы не выдавать свою тупость, которую ты выдал своими последующими комментариями, либо ты настолько слепой, что просто не заметил их.
Я посмотрел твой пост о сборке пк, и ты, даже не знаешь некоторых основ. Например о тех же видюхах, для чего нужны гигабайты памяти. То же сглаживание жрет пропорционально параметру Х. Х4 жрет памяти в 2 раза больше чем Х2. И купив купив видюху подороже, но при этом сглаживание поставить вместо Х16, Х8 - можно выиграть на других параметрах графики, вроде более качественных теней.
Не имеет значения. Синхронизация устраняет разрывы в изображении (пример есть в посте) - если они мешают, ее стоит включить. Если они незаметы, можно и не включать.
Если у тебя монитор способен выводить 100 кадров в секунду - не включай... Это дорогие 3Д мониторы, редко встречаются. Обычно штатный монитор может выводить только 60фпс, так что всех 100фпс ты все равно не увидишь никогда на таком мониторе, включай.
Вообще-то частота тока в розетке 50 герц (по крайней мере в европе и рф), но это не важно, так как вообще не понятно к чему ты её привел, монитор имеет свой преобразователь напряжения и частота тока здесь вообще никак не влияет на фпс... ^(ь.о)^
Включение Vsync увеличивает инпут лаг, появляется некая задержка из-за синхронизации кадров. Поэтому для шутеров в которых фпс около 100 лучше брать игровые мониторы 120-144гц, на них очень низкий инпут лаг и нет разрывов изображения.
Цвета вполне годные и углы обзора тоже. Не для дизайнеров и фотографов же монитор. Обычный человек и не заметит разницы в цвете, зато разницу в плавности картинки заметит любой, особенно в играх. Так что они хороши для тех, кто большую часть времени за компом проводит в играх.
И тем не менее, платить цену хорошего ips монитора за TN матрицу жаба душит. Стоили бы на уровне IPS той же диагонали - можно было бы подумать о покупке. А пока маркетинговая хрень.
@kbapp Подскажи пожалуйста как называется эффект, когда по мере приближения удаленного объекта этот самый объект, скажем дерево на вершине горы, из слабодетализированного 2D объекта с малым числом полигонов преображается в многополигоналый высокодетализированный 3D объект. В играх часто наблюдаю данное явление и оно не радует мой глаз. От чего это зависит (грешу на особенности движка игры).
Случайно наткнулся таки на название того самого эффекта, про который я вам говорил. Называется он "LOD" или "level of detail". Как я понял LOD зависит от движка игры, и менять его в принципе не возможно (хотя если у игры есть определенные "файлы", как у серии TES, то там можно настроить дальность действия LOD на максимум, что конечно скажется на производительности). Остается узнать какой именно элемент системы грузит данная опция при ее увеличении?
Кстати, vsync предназначен для видеокарт нвидиа, ведь только у них довольно часто бывают артефакты с рассинхронизацией кадра, когда он попросту разваливатся по кускам, а вот у радеонов такой проблемы обычно не бывает.