Компьютер относительно новый, спеки (хотя я не думаю, что в данном случае они играют какую-то роль, но ведь обязательно кто-нибудь спросит): Win10Pro, i7 12700KF, RTX 3070Ti, 2x16Gb DDR4 AData XPG, M2 SSD Samsung 512Gb, Gigabyte Z690 UD DDR4. Винда стоит под UEFI, таблица GPT. В чем проблема: при перезагрузке/включении, в момент начала загрузки Винды рандомно выдает (но не всегда, иногда сразу грузит) BSOD. Ошибка либо 0xc0000001(часто), либо 0xc0000221(редко). При нажатии Enter (попробовать еще раз) почти всегда без проблем грузится в систему. Но иногда надо 2-3 попытки. В дальнейшем в системе никаких проблем нет. Что предпринимал: загружал систему с live-cd флешки (WindowsToGo) (грузится сразу и без проблем), отрубал USB девайсы, sfc scannow, chkdsk (и то и то пробовал и из под системы, и с загрузочной флешки), восстанавливал вручную Boot Manager (в интернете часто на него грешат). Все бесполезно. Систему переустанавливать крайне не хочу, в самой системе все работает исправно, а переустановка это на весь день работы опять, и обязательно что-нибудь потеряется. В какую сторону еще можно поковырять? Пока думаю еще BIOS обновить, но не похоже, что из-за него возникает трабла.
Upd. @IC2.Titz, спасибо. Проблема решена. SignalRGB (менеджер подсветки) проблему создавал. Выявил вашим методом. Снес софтину, все работает.
Я заметил, что в новом магазине "МТС, цифровая экосистема" в одном из ноутбуке стояла сборка by Den (оригинальный деновский установщик Windows Lite, в нем была ошибка установки). Сам Ден, который собирает самый облегченный Windows, родом с Екатеринбурга.
Подавляющее большинство отечественных IBM-совместимых 80-90х годов имели видеоадаптер именно CGA, давайте рассмотрим его подробнее.
В 1981 году во время появления первых IBM PC видеоплата CGA (Color Graphics Adapter) предлагалась как достаточно дорогая модель, старшая в серии видеокарт для PC (младшей была монохромная и чисто текстовая MDA — Monochrome Display Adapter). И по конструкции это был достаточно внушительный агрегат — длиннющая плата, содержавшая порядка 70 микросхем (больше, чем во многих ПК начала 80-х и не намного меньше, чем системная плата того же IBM PC), включая собственное ОЗУ на 16 Кбайт, ПЗУ со знакогенератором на 256 символов (2 Кбайт), чип видеоконтроллера Motorola 6845 (он же использовался в видеокартах MDA и EGA, компьютерах BBC Micro, Amstrad CPC и др.) и десятки корпусов «мелкой логики». Поддерживалось несколько текстовых и графических режимов, причём текстовые были вполне многоцветные: отображалось 25 строк по 80 или 40 символов (матрица знака 8х8 точек), и для каждого символа допускался выбор любого из 16 цветов фона и 16 цветов изображения, а также доступно мерцание. В стандартном графическом режиме 320×200 точек CGA мог отображать лишь 4 цвета одновременно с возможностью выбора одной из двух палитр (но для каждой доступно два варианта — тёмный и светлый), а также выбором любого цвета фона из 16-ти доступных. В режиме высокого разрешения 640×200 точек выводилось лишь два цвета, причём один из них выбирался произвольно из 16-цветной палитры (но почти всегда использовался белый), а фон всегда оставался чёрным.
Фото с попугаями, выведенное на CGA в разрешении 320х200 c первой 4-цветной палитрой (яркий вариант). Видно, что для отображения реалистичных картинок четырёх цветов отчаянно не хватает, хотя сами доступные цвета достаточно приятные, тёплые.
Второй вариант CGA-палитры: холодные цвета
Монохромная CGA-графика в разрешении 640х200: достаточно чёткое изображение с неплохой передачей полутонов за счёт изменения пространственной плотности расположения точек
Третий (как бы нестандартный) вариант палитры CGA: неплохое сочетание тёплого (красный) и холодных цветов (голубой, белый)
Надо заметить, CGA-графика отличается достаточно странным и спорным набором цветов — мало того, что их всего 4, так ещё и выбор их довольно загадочен: в одной палитре — белый, голубой и сиреневый, в другой — красный, зёленый, жёлтый/коричневый (не считая цвета фона, который в большинстве случаев был чёрным). Отобразить с такими цветами какую-либо приличную графику достаточно проблематично, в том числе и в играх. Впрочем, хотя цвета CGA и принято поругивать, всё же своя логика в них есть: в палитре «красный-зелёный-жёлтый» цвета «тёплые», в «белый-голубой-сиреневый» — «холодные», а в 3-й палитре («голубой, красный, белый») — смесь тех и других.
Ещё одной особенностью, связанной с ограничениями чипа 6845 (он предназначен в основном для вывода текста, а не графики, и мог отображать не более 128 строк) было использование двухбанковой структуры видеопамяти в графическом режиме: нечётные строки изображения (100 строк, ~8 Кбайт) хранились в одной половине памяти, чётные — в другой, то есть последовательно расположенные строки находились в памяти не друг за другом, а со смещением в 8 Кбайт, что создавало некоторые трудности при программировании графики.
Известным недостатком оригинальных CGA (отсутствующим у многих «клонов» CGA и у всех видеокарт других типов) был так называемый «снег» — помехи в виде случайных горизонтальных чёрточек, появлявшиеся в текстовом режиме при записи данных процессором ПК в видеопамять (из-за приоритета ЦП ПК над видеоконтроллером при доступе к видеопамяти). Обойти этот недостаток можно было лишь одним способом — записывая данные в видеопамять только в короткий период обратного хода луча кадровой развёртки (примерно 1—2 миллисекунды в течение каждого кадра длительностью 1/60 сек) или обратного хода строчной развёртки (очень короткие отрезки в несколько микросекунд после вывода каждой строки на экран).
Никакой стандартной поддержки игровой или «мультимедийной» графики у CGA не предусмотрено — ни скроллингов (плавного сдвига изображения по вертикали или горизонтали), ни аппаратных «спрайтов», ни программируемой палитры, ни многоплановой структуры видеопамяти и т. д. Вся работа с графикой выполнялась чисто программно, за счёт центрального процессора. Зато, в отличие от большинства тогдашних игровых ПК, в CGA есть произвольный выбор цветов для любой точки — в графическом режиме среднего разрешения 320х200 нет никаких ограничений на использование доступных 4-х цветов, любые точки (в том числе соседние) можно окрашивать в любой из 4-х цветов (аналогично БК-0010/0011, «Львову», «Искре 1080» и т.д.). Правда, в отличие от некоторых ПК (например, советского «Корвета») одновременное использование графического и текстового режимов — скажем, наложение аппаратного текста на графику или наоборот — не предусмотрено.
CGA-графика с 16-ю цветами, но низкого разрешения — 160х100. Цвета, безусловно, намного веселее, но разрешение, к сожалению, катастрофически слабое.
Кроме стандартных режимов, CGA поддерживал и несколько дополнительных возможностей, которые иногда использовались в программах и играх: третью палитру (голубой, красный, белый), «композитный» 16-цветный графический режим с использованием особенностей американского стандарта цветного телевидения NTSC (позволял значительно улучшить цвета в некоторых играх), 16-цветную графику низкого разрешения 160х100 на основе изменённого текстового режима и др. Однако большинство разработчиков игр пользовалось лишь стандартными возможностями, изредка прибегая к каким-то «твикам» вроде многократной смены палитр или фонового цвета в кадре. Хороший пример максимального использования функций CGA дают «демки» — например,
Обычный текстовый режим CGA 80x25: пример программы на стандартном Бейсике — строки почти слипаются, читать текст очень неудобно
Та же Бейсик-программа на мониторе MDA: между строками нормальные просветы, читать текст намного легче; изображение приятно-зеленоватое, поскольку большинство монохромных мониторов для IBM PC имели именно зелёное свечение (реже жёлтое, белое и т.п.)
Текст CGA: на укрупнённом снимке хорошо видно, что соседние строки местами буквально сливаются (там, где есть запятые, а в других случаях — некоторые строчные буквы, спецсимволы и т.д.), поскольку на просвет между строками отведена всего одна точка
Текст MDA (а также Hercules): строки не «сливаются» (на просветы между ними отведено 3 точки), сами символы несколько мельче, но заметно чётче и выглядят лучше (матрица типичного большого символа 7х11 точек, а не 7х7, как у CGA); между буквами просветы так
В целом, CGA-видеокарты трудно назвать удачными, даже с учётом относительно раннего времени появления. В качестве профессиональных они во многом уступали даже более простым MDA или Hercules, имевшим значительно более приятный и серьёзный режим вывода текста с матрицей знакоместа 9х14 точек, из которых сами символы использовали 7х11 точек (между буквами были нормальные просветы как по горизонтали, так и, особенно, по вертикали; а вот в CGA символы и строки были вплотную прилеплены друг к другу — матрица знакоместа 8х8, а матрица символа 7х7, то есть просветы между крупными символами всего в одну точку и сами символы более простые, что выглядело гораздо хуже и напоминало дешёвые домашние ПК). Графика CGA также была весьма ограниченной (особенно по количеству цветов) и малопригодной для серьёзных целей в качестве именно цветной графики. Однако само наличие графики, конечно, сильно расширяло сферу применения ПК в сравнении, например, с текстовыми MDA — и не только в тех очевидных случаях, когда требовалось что-то рисовать на экране, но и, к примеру, для той же обработки текстов (появлялись возможности пропорционального отображения букв, а не с постоянной шириной, изменения начертания и размера шрифта, одновременного использования любых языков и т. п.) или для реализации графических оболочек в операционных системах (в середине 1980-х появились первые версии Windows и другие подобные программы).
Хотя первые IBM PC в минимальной конфигурации были вполне рассчитаны на подключение к обычному телевизору и бытовому магнитофону (но гораздо чаще использовались всё же со специальным монитором и дисководами), для домашнего использования CGA был также не очень-то хорош — для компьютера с минимальной ценой 1565 долларов (с 16 Кбайт ОЗУ и без какой-либо периферии) предлагалась видеокарта, явно уступавшая по возможностям работы с цветом очень многим в разы более дешёвым домашним ПК и видеоприставкам (причём видеокарта гордо называлась «цветным графическим адаптером» и стоила дороже многих ПК и приставок). Впрочем, в отличие от большинства дешёвых ПК и, тем более, приставок, CGA всё же имел достаточно высокое разрешение и графики, и текста, что выделяло его среди типичных домашних ПК начала 80-х. А в сфере профессиональных ПК многие вообще не имели поддержки графики, предлагая чисто текстовый экран. Однако некоторые компьютеры при значительно более скромных ценах отличались заметно лучшими графическими возможностями — к примеру, вышедший в конце того же 1981 года учебно-домашний Acorn BBC Micro, основанный также на видеоконтроллере 6845, предлагал гораздо больше режимов экрана, большее количество одновременно выводимых цветов (8 вместо 4, да ещё и с программируемой палитрой) и большее максимальное разрешение (640х256 вместо 640х200).
Серьёзными конкурентами CGA были видеокарты Hercules Graphics Card, производившиеся с 1982 года и не имевшие поддержки цвета (хотя позже вышла и цветная версия), но зато обеспечивающие высокое качество текста и графику вдвое большего разрешения, чем CGA — 720х348 точек. Эти видеокарты были совместимы как с MDA, так, частично, и с CGA, поэтому были очень удобны для бизнес-пользователей и стали фактически главным стандартом на IBM-совместимых ПК с монохромными мониторами.
Одна из первых версий Windows (1.01) на IBM PC с CGA: работа в графическом режиме 640х200 позволяет отображать текст со шрифтами разного вида (в том числе пропорциональными) и разного размера
Windows 1.01 на CGA, графический редактор Paint: разрешения 640х200 было вполне достаточно для рисования качественных монохромных значков, окон и т.п.
Таким образом, CGA, очевидно, создавался как некий компромисс между функциями вывода текста и графики, возможностями чипа 6845, объёмом видеопамяти, необходимостью поддержки не только специальных мониторов, но и бытовых телевизоров (а это сильно снижало допустимое вертикальное разрешение) и так далее. В результате получился достаточно странный видеоадаптер, не очень-то хорошо справляющийся ни с типичными задачами профессиональных ПК (как правило, в том или ином виде работа с текстами), ни с развлекательными функциями домашних ПК, но при этом довольно сложный и дорогой (и рассчитанный на подключение к достаточно дорогому цветному монитору, а не к дешёвому монохромному). Впрочем, долгая жизнь CGA — а они были основными цветными видеокартами на IBM-совместимых ПК примерно до 1987 года и очень широко использовались вплоть до начала-середины 1990-х — говорит о том, что при всех теоретических недостатках, его практические возможности оказались вполне приемлемыми для широкого круга задач. В 1984 году IBM предложила новый вариант старшей видеокарты массового применения — EGA (Enhanced Graphics Adapter), в которой удачно исправлялись недостатки как текстового режима (матрица знакоместа увеличена до 8х14 точек, появился программируемый знакогенератор), так и графического (максимальное разрешение увеличено до 640х350, причём для любой точки доступно 16 цветов, программируемых из общей палитры в 64 цвета). Впрочем, EGA-карты стоили значительно дороже и не были совместимы с CGA-мониторами, а EGA-мониторы также были дороже. Поэтому в недорогих IBM-совместимых видеокарты CGA продолжали использоваться ещё достаточно долго, в том числе даже после появления ещё более продвинутых VGA (1987 г.), XGA, SVGA и т. д.
Применение CGA-совместимых видеоконтроллеров в советских IBM-совместимых ПК, особенно недорогих домашних моделях, также вполне логично: для дешёвых компьютеров более сложные и дорогие видеокарты были просто неприемлемы (учитывая, что даже на реализацию сравнительно простого CGA уходило до половины микросхем всего ПК); к тому же среди стандартных видеоадаптеров для PC только CGA поддерживал вывод на обычные телевизоры, что было необходимым условием для отечественных домашних ПК.
1) Некоторые обратили внимание на "специализированных" производителей. Говорить о них не вижу смысла по нескольким причинам - никто им не запрещал производить карты другого производителя (к примеру, сапфир когда-то производил карты Нвидиа), и они ничем не отличаются от других производителей. Также есть удачные и неудачные карты
2) Хотелось бы поблагодарить пользователя @mralin, сам не зная, сильно мне помог =)
3) Прошу прощения за долгое время выхода, оказалось значительно труднее пытаться объяснить все максимально кратко. Переписывал несколько раз =) Надеюсь, что не перемудрил в итоге с текстом
Итак, мы теперь знаем, что в названии видеокарты отвечает за что. Теперь осталось посмотреть на числа в характеристиках видеокарты и выяснить, кто же мощнее, да? Нет. К сожалению, посмотрев на характеристики видеокарты, многого это не даст. Почему?
Во-первых, не вся нужная информация указывается в характеристиках.
Во-вторых, все числа можно сравнивать в рамках одной архитектуры. И вот это самое важное.
Это одни из главных причин, почему приходится смотреть тесты в интернете. Мой вам совет: смотрите тесты с различных сайтов, банально "вбивая" сравнение в поиске. Не забывайте, проплаченные обзоры и кривые руки были, есть и будут. Если вы выбираете между АМД и Нвидиа, при этом карта от АМД вышла недавно, то учтите, что через небольшой промежуток времени она покажет результат лучше (вспоминаем более быстрый выход драйверов у Нвидиа, когда и начинается волна тестов у новинок).
Но пойдем по порядку.
Сняв СО (систему охлаждения) с видеокарты, мы видим самое интересное - СО и сами платы, именно это и отличает производителей. Перед нами GTX1080 от KFA2:
На печатной плате нас интересуют: фазы питания чипа (грубо говоря - процессора видеокарты), фазы питания чипов памяти (грубо говоря - оперативной памяти видеокарты), сами чипы памяти и охлаждение всего этого. Про это можно рассказывать очень много, однако я попытаюсь добиться максимальной полезности при наименьшем количестве информации. Расскажу самое основное
Фазы памяти и фазы чипа (VRM). Так как я пытаюсь сделать посты для всех, максимально простыми, понятными, но при этом полезными, то в этом вопросе мы воспользуемся очень дилетантским методом. В фазах важно их количество и качество. Но, понять, хорошая фаза или нет - это целая наука. Даже в обзорах от профессионалов редко смотрят, хорошие они или плохие. Поэтому остановим внимание на количестве. Они всегда имеют охлаждение, так как греются ого-го (именно через них идет питание памяти и графического процессора, где второй потребляет много-много энергии). Пожалуй, самый простой способ для обычного человека - посчитать количество "кубиков" (дросселей, тут они серые). У данной видеокарты питание построение по технологии "6+2" - 6 фаз на GPU и 2 фазы на память. Отличить фазы памяти и чипа можно по простому принципу: они разные и на чип всегда больше фаз. К сожалению, тут фото небольшое, но если увеличить, то увидите на "кубиках" различные маркировки. Количество фаз влияет на возможности разгона, его стабильность и срок действия карты в таком режиме (каждая фаза снижает нагрузку на остальные).
Чипы памяти(VRAM): если вы собираетесь разгонять память видеокарты (чтобы увеличить FPS - количество кадров в секунду), то вам может быть важен производитель этих чипов. Информация для каждой карты легко находится, однако буквально в разных поставках от одного вендора могут быть разные чипы. Что более важно - охлаждение памяти с помощью термопрокладки или других средств (радиатора, к примеру). Кто-то говорит, что память не греется и ей не нужно охлаждение. Так вот, если вы хотите, чтобы карта служила дольше - охлаждение нужно. А если разгонять память, то она тоже начнет греться.
Естественно, малое количество фаз и отсутствие охлаждения на чипах памяти не означает, что карта "умрет" через день\неделю\год или будет работать ужасно. Однако, мы же пытаемся найти карту получше, да еще и не особо запудривая себе мозги ;)
Итак, надо смотреть на количество фаз питания и охлаждение чипов памяти. При этом, стоит помнить, что сравнивать количество фаз у различных моделей не имеет смысла. Одноклассники GTX1060 и RX480 в "базе" имеют по 4 и 6 фаз соответственно, однако это ни о чем не говорит.
CUDA vs OpenCl
Помните, я говорил, что GPU (графический чип видеокарты) можно называть процессором? Сегодня графические чипы могут помогать процессорам в некоторых процессорных задачах, к примеру монтаж видео или обучение нейронных сетей. У Nvidia такая технология называется CUDA, у AMD - OpenCl. И тут я должен признать, несмотря на мою любовь к АМД (их политика мне ближе), CUDA выигрывает за счет лучшей поддержки, большего количества библиотек и "комьюнити". Поэтому, если вы работаете в программах, где может использоваться мощность видеокарты, то тут стоит отдать предпочтение Nvidia.
А теперь самое интересное. Характеристики видеокарт
Давайте посмотрим на сравнение видеокарт по характеристикам:
Итак, мы видим кучу всякой информации. И вроде бы, посмотри внимательно на буковки\циферки и узнай, какая карта мощнее. Но есть 2 проблемы: различные архитектуры и оптимизация драйверов. Чтобы понять, проведу аналогию. Наша видеокарта имеет различные инструменты - GCN, число потоковых процессоров (еще называют унифицированными шейдерными блоками, универсальными процессорами и т.д.), текстурных блоков... Это инструменты видеокарты. Ее архитектура (графа "Кодовое название") - то, как она орудует этими инструментами. Плюс к этому драйвера, которые пишет уже сам AMD или Nvidia - это как система взаимодействует с видеокартой. Именно поэтому, мы можем сравнивать числа только у карт на одной архитектуре. Пожалуй, самый важный показатель для нас - число потоковых процессоров. У нас в процессора компьютера есть ядра, у кого-то 2, у кого-то 4, у кого-то 8... Грубо говоря, это те же ядра. Только они в разы слабее. Но зато их больше в разы (как видите, тут не единицы, а тысячи). В рамках одной архитектуры вы можете брать отношение этих чисел у разных моделей и очень приблизительно высчитать разницу в мощности. Почему очень приблизительно? Не забываем про драйвера, частоты, другие параметры, такие как число текстурных блоков, число ROP... Но этот факт помогает отличить хороший тест от плохого. Простой пример: смотрите, к примеру, сравнение Radeon RX480 и RX470. RX480 мощнее примерно на 12 процентов. И если в тесте вы видите разницу в 40% из игры в игру, то можно смело его закрывать.
Тактовая частота - когда вы будете смотреть одну и ту же карту от различных вендоров, то заметите, что у них разные частоты памяти и чипа. Запомните, одна карта гонится до другой без проблем за редчайшим исключением. Даже разрекламированные особые линейки с якобы отобранными чипами - полнейшая чушь. Интересное видео на эту тему. Рекомендую посмотреть полностью, но ставлю таймкод на начало сравнения двух GTX950 от Gigabyte - самой дешевой и самой дорогой.
Объем памяти - конечно, чем больше, тем лучше. Однако, эту же память надо "забить". И если у нас очень слабый чип, то он не будет успевать ее заполнять, из-за чего будет оставаться незаполненная память, за которую мы выложили деньги. К примеру, зайдя в магазин и увидев что-то вроде GT640 с 4 гигабайтами памяти, знайте - она ими даже пользоваться не будет, ей 1 много.
TDP - энергопотребление видеокарты. Параметр, который даст нам ответ - выдержит блок питания видеокарты или нет. Также он говорит, сколько тепла выделяет карта. Однако, система охлаждения в любом случае должна это все охлаждать и держать температуры в норме. Если СО не рассчитана на данный TDP, то происходит это (смотреть до 1.41). На видео R9 290X в референсном дизайне. Мощная, до сих пор актуальная, но очень горячая карта. Референсное охлаждение не рассчитано на такое тепло, из-за чего вентилятор крутится как сумасшедший и получается вечно шумящий пылесос под ногами.
2 чипа на одной плате:
Иногда можно встретить видеокарты, которые имеют двойной набор GPU, памяти и т.д. Разберем это на примере видеокарты Radeon R9 295x2:
Эта видеокарта идет сразу с водяным охлаждением, так как она очень, ОЧЕНЬ горячая. Наверное, одна из лучших двухчиповых видеокарт. Прошу обратить внимание на заднюю часть (правое фото). Два "квадрата" - именно там с другой стороны платы стоят GPU, такую картину можно наблюдать везде, у некоторых карт скрыто под кожухом\бэкплейтом. Итак, вот как все выглядит внутри:
Мне было лень выделять все чипы памяти, причем еще есть с другой стороны. В чем проблема данных видеокарт? Главная проблема - память. Для игр это все равно 2 видеокарты, которые работает в Crossfire(AMD)\SLI(Nvidia). Это технология, которая позволяет картам работать вместе. И у этих систем есть главный минус - память НЕ суммируется, зато цена растет. Данная видеокарта имеет 8 Гигабайт памяти и 2 GPU, взятых с видеокарты R9 290X. В силу особенностей работы двух видеокарт вместе, на каждый чип выделяется половина памяти, а информация в них лежит одинаковая. Да, сейчас пытаются отойти от таких алгоритмов, чтобы память суммировалась, но на данный момент это еще не произошло. Получается, что мощность видеокарты выросла, а память - нет. В итоге приходится брать ее из оперативной, которая медленнее в разы, что влечет понижение ФПС в играх. Естественно, все это при условии, что памяти не хватило. И такая проблема у всех видеокарт с 2 чипами, независимо от производителя. Запомните, на сегодняшний день лучше взять 1 карту с 1 чипом, чем 2 видеокарты с 1 чипом или 1 видеокарту с 2 чипами за ту же цену, если играете в требовательные игры. Да, еще забыл упомянуть - далеко не все игры поддерживают SLI\Crossfire, из-за чего может работать только 1 чип вместо 2.
Ну, вот вроде и все самое важное. К сожалению, как выяснилось, просто прочитав характеристики и не зная архитектуру, узнать про мощность точно нельзя. Однако, надеюсь, что эти 2 поста окажутся полезными. Если будет много вопросов, то сделаю 3 пост, где уже разберем выбор видеокарты на конкретной ситуации. Если нет, то перейдем к процессорам =)
P.S. Люди, которые критикуют или пытаются опровергнуть мои слова. Я совершенно не против этого - чем больше такого, тем лучше будет для читателей. Но, пожалуйста, с доказательствами и по теме.
1 сентября Nvidia провела презентацию своих новых видеокарт серии RTX 3000. В них лучше реализована технология трассировки лучей, особые ядра смогут самостоятельно достраивать анимации, а общий прирост мощностей относительно предыдущей флагманской видеокарты GeForce RTX 2080 Ti составил около 80%.
Некоторые уже окрестили презентацию революционной. Мы побеседовали с программистом ААА-игр Александром Балакшиным, чтобы выяснить, так ли это на самом деле, а также на какие анонсы Nvidia действительно стоит обратить внимание.
Многие говорят, что Nvidia провела одну из своих главных презентаций за последние несколько лет. Но последняя схожая по важности презентация была как раз два года назад и касалась анонса серии RTX. Так что тут ничего удивительного.
GeForce RTX 3000 — важный эволюционный скачок и шаг вперёд. Ставка как раз делалась на то, что технология трассировки лучей будет работать на новом поколении видеокарт с гораздо большей частотой кадров в секунду и повышенным разрешением. 4К и 60 fps должны стать стандартом с новой серией RTX.
Вообще все презентации новых технологий Nvidia — вещь несколько странная. Тут нужно понимать распределение выручки между основными платформами. Несколько лет назад у кросс-платформенных игр на PS4 приходилось 50% продаж, на Xbox One — 40%, а на PC — оставшиеся 10%. И долгое время разработчики просто не парились, чтобы сделать качество графики выше, чем на консолях. Ведь это дополнительные затраты на производство контента и исследование технологий.
Но среди этих 10% пользователей PC есть владельцы high-end железа. И их даже не проценты, а доли процентов. Так что разработчики железа, включая ту же Nvidia, заключают контракты с создателями игр и предоставляют им девкиты, чтобы те включили в свои новые проекты поддержку последних технологий. Тут не совсем понятно, кто и кому платит, — возможно, всё оплачивается из бюджета на маркетинг.
Главное, что производители железа сами вкладываются в то, чтобы разработчики игр потратили дополнительное время и усилия для реализации всех фишек — ведь они нужны совсем небольшому проценту игроков.
Nvidia Reflex
Поговорим отдельно о некоторых интересных технологиях. Первая — Nvidia Reflex, которая призвана сократить задержку в соревновательных играх за счёт оптимизации работы CPU и GPU. Уменьшение задержки — одна из основных задач и головных болей всех программистов. При разработке игр часто возникает дилемма: повысить частоту кадров или сократить задержку.
Стоит понимать, что кадр строится не сразу. Если говорят, что игра работает при 60 кадрах в секунду, то это не значит, что новые изображения будут появляться каждые 16 миллисекунд. Есть задержка ввода, есть время симуляции, во время которого на CPU вводятся начальные параметры и обсчитываются анимации, физика, столкновений и прочее.
На это всё при 60 fps выделяется 16 миллисекунд, потом информация отправляется в GPU. Там на её обработку уходят свои 16 миллисекунд. Следом изображение по проводам идёт уже на дисплей, которому нужно некоторое время, чтобы всё нарисовать. И минимизация моментов этих задержек становится важной задачей — особенно для киберспортивных игр, на которых и делался упор во время анонса Nvidia Reflex.
Но ещё одна сфера, где минимизация задержки критически важна, — это VR. У виртуальной реальности ограничения для разработчиков ещё жёстче: должно пройти не более 20 миллисекунд от смены положения головы до изменения изображения на экране. Иначе у человека начнутся симптомы морской болезни. Именно поэтому игры в виртуальной реальности до сих пор довольно примитивны — даже Half-Life: Alyx далеко до текущего поколения. Так что Nvidia Reflex косвенно может помочь в реализации более красивой графики внутри VR.
Считывание данных напрямую с SSD
Второй момент — технология считывания данных прямо с SSD через PCI Express. Это весьма интересный анонс, и несколько странно, что во время презентации на этом нём не заострили особого внимания.
Что на текущем, что на следующем поколении консолей память общая. У них нет проблемы с декодированием и передачей информации от CPU к GPU через PCI Express. Новая технология Nvidia как раз хочет реализовать что-то похожее на PC. Но не забываем, что железо консолей — это AMD. Nvidia сделает лишь что-то похожее, но не полностью аналогичную технологию. Возможно, нас ждёт просто быстрая загрузка данных на GPU.
Она поможет не только в игровой индустрии, но и в других сферах, работающих с большими объёмами данных. Ведь когда нет необходимости пересчитывать информацию в оперативной памяти, а потом перегонять в видеопамять, то подобное ускоряет вычисления в целом. Обработка данных напрямую через видеокарту — это весьма и весьма сильно.
Демо Marbles
И третий примечательный момент — улучшенное демо Marbles. Раньше его показатели были неиграбельными, но раз теперь оно идёт в 1440p и 30 fps, то его наработки потенциально можно использовать в играх. Значит, может появиться возможность создавать игры с полным рейтрейсингом в реальном времени, и тогда текущий пайплайн производства материалов и шейдеров может сильно измениться.
Понятное дело, мы не говорим о том, что массовый рейтрейсинг появится прямо после старта продаж RTX 3000. Но скорее всего энтузиасты уже через несколько месяцев после выхода флагманских видеокарт начнут делать свои демки. Крупные компании тоже будут идти в сторону рейтресинга в реальном времени.
Ведь сейчас разработчики сильно мучаются с текущим полигональным рендером, — когда нужно придумать огромное количество ухищрений, чтобы отрисовать прозрачный материал и при этом не потерять в производительности. Когда новые видеокарты будут реализовывать это всё самостоятельно, разработчикам станет намного проще. И RTX 3000 может помочь заложить основу для полноценного next-gen игрового опыта, который будет лет через десять.
Маловероятно, что на исходе следующего поколения консолей мы получим полноценную трассировку лучей. Могут возникнуть конфликты интересов между производителями железа. До того, как рейтрейсинг выйдет на уровень общего стандарта, пройдёт не один год, но заявка Nvidia на его реализацию уже звучит интересно.
Другие интересные анонсы
Некоторые анонсы с презентации будут более интересны художникам, чем программистам. Синтез мимики прямо из голоса за счёт блоков интеллекта, возможность делать плавные и полностью предсказуемые анимации, использование машинного обучения для симуляции тканей — эти решения подойдут для непосредственного создания контента, а не для его использования прямо в игре.
Ни о каком «убийстве консолей» речи, конечно не идёт, пусть даже цена RTX 3070 будет приблизительно сопоставима с PS5 и Xbox Series X. Под конкурента RTX 3000 подходит разве что Xbox Series X, который позиционируется почти как PC в гостиной. Но производители игр и дальше будут ориентироваться в первую очередь на консоли, поскольку с них самая большая выручка. Топовые видеокарты Nvidia — это выбор небольшого числа PC-энтузиастов. Покупать сразу же мощнейшую RTX 3090 для решения рядовых задач не стоит.
При этом заявление о дисплеях с частотой 360 герц, которые дополнительно анонсировала Nvidia, пока звучат слишком громко. Остаётся только проверить лично, рекламная ли это уловка или реальный прогресс технологий.
Итог презентации
По большей части новую презентацию Nvidia нельзя назвать революционной. Лишь некоторые моменты в ней действительно показывают качественный скачок технологий, но в основном улучшения количественные. Например, за счёт нового техпроцесса в видеокартах серии RTX 3000 стало больше вычислительных мощностей. И такой подход к производству по-своему правильный.
Нечто похожее несколько лет назад реализовала Intel с производством своих процессоров. Все их новые технологии разрабатывались по циклу «тик-так». «Тик» — создание новых технологий, «так» — значительное улучшение уже существующих. Презентация RTX 3000 — это «так».
Теперь всё зависит от разработчиков игр, которым предстоит грамотно реализовать все новые возможности видеокарт RTX 3000. Первыми это наверняка сделают крупные студии. А вот увеличение скорости разработки за счёт возросших мощностей получат абсолютно все.