💎 Новый драйвер intel даёт 48% прироста производительности в играх — виновником прироста производительности в DirectX 11 стал драйвер 101.5444.
🎫 Видеокарты ARC Alchemist и встройка процессоров Intel Core Ultra получили значительный прирост в играх под DirectX 11. Самый большой прирост fps наблюдается в Lethal Company, Need For Speed Heat, Astoneer и Mass Effect Legendary Edition. Полный список всех затронутых тайтлов.
💭 Помимо этого intel исправили кучу багов из прошлых ревизий драйвера.
8-9 АПРЕЛЯ. INTEL VISION. Генеральный директор INTEL расскажет о ИИ и новых продуктах компании. Возможно покажут новые видеокарты intel Battlemage.
10 АПРЕЛЯ. ШОУ ПРЕЗЕНТАЦИЯ ИНДИ-ИГР Triple-I. Время: 20:00 МСК. Более 30 новинок инди от порядка 40 студий.
11 АПРЕЛЯ. ЦЕРЕМОНИЯ BAFTA Games Awards. Время: 22:00 МСК
* Если у вас есть даты других крупных презентаций или шоу связанных с играми и железом, то оставьте ссылку в комментарии к этой новости. Мы изучим ваше предложение.
Nvidia - одна из ключевых компаний мира прямо сейчас. Существует популярное мнение, что они просто везунчики, которые всегда оказываются с нужным продуктом в нужное время. Однако, если историю развития этой компании, то станет отчетливо видно, что эти ребята умеют мастерски конкурировать, делают полезные выводы из провалов и отлично "ловят волны". Сегодня разберемся, как им это удается.
Главный секрет Nvidia в том, что её основатель ходит с стильной кожанке. Спасибо за внимание. Ладно, шучу, сейчас во всем разберемся.
Nvidia обогнала по стоимости Saudi Aramco, и теперь выше детища Дженсена Хуанга лишь Microsoft да Apple. Microsoft за последние годы ИИ-бума влезли в очень плотную зависимость от чипов Nvidia, из-за чего сейчас экстренно пилят собственную замену. Apple же слез с чипов Nvidia в 2010-х, но, уверен, у Nvidia неплохие шансы пободаться и с этим гигантом.
Возможно, кто-то спросит "Аффтар, почему ты так уверено назвал Nvidia главной компанией нашего будущего?". Отвечу: "Потому что Nvidia продает те самые пресловутые лопаты современным золотоискателям. А это самая надежная и устойчивая бизнес-стратегия независимо от эпохи и контекста".
Ладно, к делу. Изучая материалы про Nvidia, я регулярно сталкивался со следующим лейтмотивом:
"Да просто чуваки каждый раз оказывались вовремя с востребованным продуктом. Они просто крайне везучие".
Так вот, если компания умудряется несколько раз подряд оказаться с востребованным продуктом (причем, самым популярным на рынке, или одним из самых) в нужные моменты времени, то это означает, что у компании офигеть какая мощная стратегия, а СЕО - крутой визионер.
Поэтому, в этом материале я хочу не просто рассказать историю развития компании и основные этапы её развития. Но также понять, как Дженсену и ко. удавалось делать настолько верные и точные стратегические ставки. А еще, по ходу дела расскажу, что же за продукцию такую производит эта Nvidia, что на неё всегда есть устойчивый спрос в самых разных индустриях и сегментах рынка.
Disclaimer. История Nvidia - это большой и яркий путь с россыпью крутых бизнес-решений. Так что, я поделю материал на две части. Сегодня расскажу, как из небольшого перспективного "стартапа из кафешки" Nvidia превратилась в важнейшего производителя железа для современной технологических отраслей. А во второй части (coming soon) мы разберемся, как Nvidia из просто крупной и важного игрока превратилась в главную компанию будущего, которая (очень возможно), скоро станет самой дорогой корпорацией в истории.
Этап первый. Как жизнь Nvidia чуть не закончилась после первого же выпущенного чипа
Думаю, многие из вас слышали историю, как Дженсен Хуанг, Крис Малаховски и Кертис Прэм сели за столик в дешевой кафешке в Сан-Хосе и стали думать, какая технология станет the next big thing в этом мире. Еще ходит байка, что эта забегаловка была в таком суровом районе, что в её стенах зияли дырки от гангстерских пуль.
Последний факт, наверно, должен был символизировать стартаперский дух начинания, но на самом деле все трое фаундеров на тот момент уже были состоявшимися взрослыми спецами. Например, наш главный герой трудился руководителем направления в LSI Logic - довольно крупном производителе интегральных схем, а два других партнера инженерили в Sun Microsystems (эту компанию позже поглотит Oracle). В общем, ребята были весьма матерыми профи, а не какими-то оборванцами, бросившими колледж ради стартапа в гараже.
Приятели сходились во мнении, что компьютерная отрасль только набирает обороты, и что в самое ближайшее время машины будут использоваться для все более широкого спектра вычислительных задач. А значит, центральным процессорам (CPU) явно понадобится помощь. Эта помощь называется аппаратное ускорение вычисления.
В двух словах. CPU - это такой "мозг компьютера". Он обрабатывает сигналы и распределяет вычислительные команды. А теперь представьте, что вам на работе подкинули 10-20 задач одновременно. Что случится с вашим мозгом? Правильно, он "перегреется" и вы поймаете мощный приступ прокрастинации (=зависнете). То же самое и с центральным процессором компьютера, который должен выполнять все больше и больше задач одновременно.
Так вот, элементы аппаратного ускорения - это такие вспомогательные мини-мозги, призванные разгрузить основной мыслительный центр.
Без этих штук мы едва бы смогли параллельно запустить на ноутбуке несколько вкладок браузера, эксель, фотошоп, Телегу, и игру в отдельном окошке.
Кстати, на счет игр. Дженсен, Крис и Кертис не сомневались, что за аппаратным ускорением будущее. Оставалось лишь выбрать направление внутри этого тренда. Решили, что это будет гейминг. Если конкретнее, то их особенно привлекала бурно развивающаяся 3D-графика для этого самого гейминга. Продвинутый графон - это штука энергозатратная, вычислительные мощности она жрет как конь. Так что, друзья решили софкусироваться на графических процессорах (GPU).
В 1995 г. Nvidia выпустила свой первый продукт - мультимедийную видеокарту NV1.
Вот так она выглядела.
NV1 отличалась от аналогов тем, что на одной плате размещалось сразу несколько модулей - блок обработи 2D-графики, ускоритель 3D-графики, звуковая карта и порт для игрового геймпада приставки Sega Saturn. Кстати, в рамках этой карты Nvidia сотрудничала с Sega, что позволило портировать некоторые популярные эксклюзивы для этой консоли на ПК.
Нужно отметить, что Nvidia - это fabless (=fabricless) company, т.е. компания без своего производства. По сути, это просто конструкторское бюро. Очень большое и крутое конструкторское бюро! Они всего лишь (ну, если сравнивать с полноценной сборкой) придумывают и разрабатывают свои технологии и продукты, а непосредственной изготовкой занимаются подрядчики по контракту. Например, первый чип NV1 для Nvidia производила компания SGS Thomson-Microelectronics на своем заводе во Франции. Сейчас, конечно, у Nvidia есть кое-какие собственные производственные мощности, но львиная доля производства все равно происходит на стороне - например, с помощью тайваньских компаний.
В итоге NV1 стал прорывом и принес компании известность... хотелось бы мне написать. Но нет, он провалился! Да-да, история третьей по стоимости компании в мире началась с провала.
Дело в том, что NV1 был больше всего заточен на игровую консоль Sega. А в те годы происходит бум ПК-гейминга. Большинство ПК же работает на операционной системе Microsoft. NV1 вышел в мае 1995, а уже в сентября Microsoft представил свой API под названием DirectX.
Если упрощенно, DirectX - это специальный модуль, позволяющий разработчикам задействовать все мощности железа без написания специального кода под каждый элемент комплектующих.
Помните, большинство игрух на ПК в конце 1990-х и начале 2000-х требовали вместе с установкой самой игры поставить DirectX?
Так вот, принцип ускорения графики у чипсета NV1 принципиально расходился с таковым у DirectX. Следовательно, первый продукт Nvidia оказался принипицально несовместим с подавляющим большинством игр, которые геймеры ставили на ПК!
А учитывая, что в создание NV1 стартап бахнул почти все первые привлеченные инвестиции (первый раунд был 10 миллионов долларов - довольно серьезная сумма по тем временам), это был epic fail. Хуангу даже пришлось сократить половину сотрудников, которых к тому моменту уже успели нанять... Был момент, когда у Nvidia хватало денег всего лишь на один месяц зарплат. Тогда родился негласный девиз компании: "У нас есть всего лишь 30 дней, чтобы продолжать делать бизнес".
Так что, да, в начале своего пути сооснователи получили довольно мощный апперкот от жестоких реалий рыночной экономики.
Впрочем, Nvidia сделала правильные выводы. С пор они редко промахивались с трендами рынка, особенно в сегменте ПК.
Интересный факт. Первые годы у Nvidia не было названия. В рабочих переписках компания называла свои первые продукты "NV" - Next Version. Ну типа, новая версия этих ваших видеокарт. Когда компания развилась до такого масштаба, что без названия уже было сложно, основатели решили открыть словарь и найти что-то прикольное из похожего на NV. В итоге остановились на слове "'invidia"', что на латыни значит... "зависть". Да-да, тот самый дух неуёмной конкурентной борьбы, который позже проявился в схватках с 3dfx, ATI, AMD и другими крутыми компаниями.
Этап второй. Первый большой успех и победа над Voodoo
Есть такой миф, что Nvidia придумала видеокарты. На самом деле, это не так. Первый графический видеоадаптеры с поддержкой 3D-графики еще в бородатом 1982 году запилила IBM. Чуть позже многие другие компании выпустили свои версии. Однако первые версии были очень дорогими и не слишком производительными. В общем, узкоспециализированная история для избранных.
Действительно массовые, доступные, универсальные и широкосовместимые 3D-видеокарты появились во второй половине девяностых. Первый образец выпустила та же IBM в 1995 г., был еще чипсет S3 ViRGE от компании S3 Graphics (сейчас принадлежит тайваньской HTC). Еще было сразу несколько популярных моделей от компании Matrox, да и японцы из Yamaha тоже что-то делали... В общем, хотя океан еще не был алым, он уже стремительно краснел.
В 1996 г. на рынок выбрасывается сразу несколько успешных моделей, но настоящий прорыв происходит, когда компания 3dfx выпускает свой 3D-ускоритель под названием Voodoo Graphics.
3dfx специализировалась на графике для игровых автоматов, и их чип выдавал скорость и качество рендера, близкое к автоматам. Тогда это была вершина крутости. К тому же, их карты хорошо совмещались с ПК-играми.
Справа - графон в Quake 1 на чипсете Voodoo, слева - без оного. Как говорится, почувствуйте разницу.
Короче говоря, это был очень крутой 3D-ускоритель, который быстро завоевал популярность. Сначала среди производителей видеокарт, а позже и среди геймдев-компаний, которые целенаправленно начали оптимизировать графон своих проектов под него.
В 1998 г. 3dfx выпустила чипсет Voodoo2, который был еще производительнее первой версии. И вот с этой штукой Nvidia пришлось конкурировать. Скажу сразу, Nvidia выиграла, а позже вообще выкупила 3dfx, интегрировав к себе их наработки. Как же им это удалось?
Если вычленять самую суть, то более массовый и простой продукт победил более продвинутый. В общем, классика. Voodoo2 показывал исключительную производительность и качество текстур, к которым не могли приблизиться конкуренты. Однако Nvidia выпустил свой новый продукт - NV4, также известный как Riva TNT. Дело в том, что поверх набора ускорителей Voodoo2 нужно было отдельно прикрутить внешнюю видеокарту. А Riva TNT имела изначально встроенную видеокарту внутри своего набора (т.е. предлагала готовое решение под ключ). К тому же, Riva TNT была банально дешевле ("дешевые карты Nvidia" сейчас звучит как плохой анекдот, но тогда реально было так). Так что, Nvidia начал активно отжирать бюджетный и средний сегменты, которые благодаря растущей доступности 3D-игр росли быстрее всего.
Тем не менее, Nvidia и 3dfx активно конкурировали следующие 2-3 года. Но Дженсен Хуанг победил. Во-первых, пока у 3dfx каждый следующий чипсеть был масштабным мегапроектом, Nvidia намеренно минимизировал цикл разработки, научившись быстро выкатывать новые версии на рынок. Это позволяло еще быстрее отжимать бюджетный и средний сегмент. К тому же, Nvidia изначально заложила в конструкцию своих продуктов систему проверки чипов на брак, за счет чего у них была ниже доля неисправной продукции.
Закончилось все тем, что в 2002 г. 3dfx проиграла Дженсену Хуангу патентный спор, что окончательно добило некогда мощного игрока. В итоге Nvidia выкупила своего закадычного конкурента за 70 миллионов долларов. Первый громкий триумф.
В 1999 г. компания выпустила один из своих главных продуктов - GeForce 256, который Nvidia с гордостью называла "первым графическим процессором". На самом деле, это было не совсем так. Хотя GeForce 256 умел создавать более сложные и реалистичные трехмерные объекты за счет наложения структур, был способен обрабатывать солидный объем графических примитивов (примитивы - это простейшие объекты, из которых на экране складывается изображение), и вообще очень резво работал с графикой, он точно не был первым графическим процессором. Более того, он был даже не самым мощным в свое время. Однако, он точно выдавал оптимальную "цену-качество", а еще Nvidia весьма талантливо его пиарила (в хорошем смысле этого слова).
GeForce 256. Как говорится, найдите 10 отличий с фото NV1 выше. Но на самом деле, разница примерно как между Nokia 3310 и пятым (ну ладно, четвертым) Айфоном.
К тому моменту Nvidia уже стала крупным поставщиком графических ускорителей и видеокарт. Её выручка была в районе 200 миллионов в год, капитализация достигала 700 млн долл., а в 1999 г. компания провела IPO на NASDAQ, окончательно перестав быть стартапом.
Этап третий. Новая конкуренция на зрелом рынке
В начале 2000-х на рынке графических процессоров уже миновал этап бешеной конкуренции между кучей стартапов. Сформировались три явных лидера - Nvidia, Intel и ATI. У Nvidia и Intel было примерно по 30% рынка, у ATI - чуть меньше. Однако в 1998 г. Intel выпустил неудачный внешний ускоритель i740, так что, через некоторое время решил забить на рынок дискретных (т.е. внешних) видеокарт, состредоточившись на внутренней графике, а также других направлениях, коих у этого диверсифицированного гиганта было предостаточно.
В итоге в сегменте внешних графических модулей образовалась дуополия - Nvidia против ATI. Тут-то Дженсен Хуанг и попал в свою любимую среду ультраконкуренции. В 2000 г. ATI как раз выпустила свой самый жирный продукт, название которого вы наверняка слышали - это чипсет Radeon (сейчас это флагман компании AMD, но об этом позже).
В общем, две компании начали бодаться за самые жирные сегменты и контракты.
Сначала Nvidia стала поставщиком чипов для консоли Xbox, которую только-только начинал развивать Microsoft. Однако в дальнейшем Microsoft ушел к конкурентам из ATI. Дженсен Хуанг подумал "А чем я хуже?", и пошел к Sony с их PlayStation. Вдобавок, Nvidia стала эксклюзивным поставщиком внешних видеокарт для компов Apple. Кстати, в рамках партнерства с Sony Хуанг поступил очень мудро - Nvidia не просто продавала свои чипы, но и помогала Sony разрабатывать собственную графику для PlayStation 3 и PSP. Конечно, в перспективе Sony мог полностью перейти на свои решения, но глава Nvidia понимал, что рано или поздно это случится в любом случае (так и случилось). Так что, лучше поучаствовать в процессе, выжав из сотрудничества максимум хотя бы до создания японцами своего GPU.
Параллельно, Nvidia начала себя вести как настоящая взрослая корпорация. Она начала скупать перспективные компании и стартапы, диверсифицируя технологическую и продуктовую базу. В частности, прикупили:
Exluna - разработчика оборудования для 3D-рендеров в кино.
MediaQ - производителя чипов, которые оптимизируют работу дисплеев и аккумуляторов мобильных телефонов и прочих "беспроводных устройств".
iReady - разработчика чипов, которые "разгружали мозги" сетевого адаптера (это штука внутри компьютера, с помощью которой он ловит сеть или вайфай).
А еще, что любопытно, в 2005 г. хитрая Nvidia купила некую тайваньскую компанию ULI Electronics (сейчас она называется чуть по-другому), которая была важным поставщиком компонентов для главного конкурента - ATI. Этот удар Хуанга был крайне чувствительным для конкурента.
Второй удар по себе нанесла сама ATI. Компания продалась диверсифицированному производителю микропроцессоров AMD. В итоге ATI стала "графическим юнитом" в составе AMD, при этом лишившись большинства контрактов со своим основным потребителем - Intel (ведь AMD - это уже прямой конкурент Intel, а не какой-то там поставщик графических чипов). Угадайте, кому после этого достались безхозные контракты от Intel?
В итоге получилась очень характерная ситуация. С одной стороны, огромный процессорный холдинг купил главного конкурента Nvidia (а также, соответственно, их главный продукт - чип Radeon). С другой стороны, сама Nvidia активно диверсифицировалась, скупала компании в смежных сегментах и готовилась играть по-крупному. Все это предзнаменовало главное противостояние в сегменте графики, рендеров, процессоров и всего что с этим связано - Nvidia vs AMD ("зеленые" против "красных").
Классическое противостояние, которое идет уже почти 20 лет. Иногда еще сюда добавляют Intel, но Intel - это все же прямой конкурент для AMD. Для Nvidia Intel и конкурент, и партнер и покупатель одновременно.
Кстати, есть версия, что AMD сначала хотели купить Nvidia, но Дженсен Хуанг их послал. Этот хитрый CEO что-то знал уже тогда.
Этап четвертый. Первые ростки в направлении ИИ
Середина 2000-х. Nvidia - уже совсем серьезная корпорация, зарабатывающая по 200-300 миллионов баксов за квартал.
В 2007 г. компания выпускает свой, возможно, самый важный продукт. Очень вероятно, что именно он открыл ей путь к нынешним триллионам. Он назывался CUDA (Compute Unified Device Architecture). CUDA - это GPGPU (General-purpose computing on graphics processing units). И здесь я остановлюсь подробнее.
Дженсен Хуанг понимал, что одними ускорениями графона и рендерами сыт не будешь. Так что, Nvidia выпустил, скажем так, адаптер (ну или прееходник), который позволял задействовать мощности большинства своих графическиих чипов для обработки математических вычислений, алгоритмов и прочих веселых штук, которыми занимаются разработчики самых продвинутых технологий.
Проще говоря, с помощью CUDA разрабы смогли делать запросы на упрощенных диалектах языков C, С++ и Fortran, которые обрабатывались прямо на мощностях чипов Nvidia. Позже прикрутили еще Python, MATLAB и другие популярные языки.
Отдельно выделю крайне удачное решение добавить язык Fortran. С одной стороны, этот язык сложно назвать самым популярным для разработки (видели хоть один войтивайтишный курс про Фортран?). С другой стороны, он считается "высоким языком", на котором программисты-ученые любят вести научные изыскания. В том числе, именно Fortran стал одним из ключевых языков для ранних наработок в области искусственного интеллекта и машинного обучения (есть версия, что это вообще первый язык для ИИ).
Таким образом, помимо очевидного стимулирования спроса на чипы, успешный выпуск CUDA, вероятно, стал фундаментом (или хотя бы первым кирпичиком) для лидерства компания в вычислительных мощностях для искусственного интеллекта.
Интересный факт. В 2012 г. прошел ImageNet Large Scale Visual Recognition Challenge - крупный конкурс, где разработчики соревновались, чья технология круче всех распознает разные картинки. Лучший результат показала нейронная модель AlexNet, которая обучалась через мощности графических чипов Nvidia с помощью CUDA. Тогда окончательно стало ясно, что графические чипы в целом и Nvidia в частности ой как пошумят по мере развития ИИ. Кстати, одним из создателей AlexNet был Илья Сутцкевер, который теперь нам известен как сооснователь OpenAI и один из самых важных людей в мире современных технологий.
Молодые Илья Сутцкевер и Алекс Крижевский, а также уже солидный Джеффри Хинтон (один из самых видных ученых в области deep learning) работают над AlexNet.
Этап пятый. Новые вызовы и работа с рисками
В конце 2000-х Nvidia продолжила усиленную диверсификацию. В частности, был куплен Ageia - разработчик движка PhysX, который позволяет моделировать и разрабатывать симуляции физических явлений. PhysX - крайне важная штука для гейминга, которую активно используют Unreal Engine, Unity и другие игровые движки. Он стал весьма важным продуктом для компании.
Однако, к началу 2010-х перед Nvidia встал серьезный вызов - стремительно набирал обороты сегмент интегрированной (внутренней) графики. Это означало, что диверсифицированный крупняк вроде Intel, Sony, Microsoft, Apple и прочих становились гораздо более самостоятельными в плане работе с графическими задачами. Если в 2007 г. Intel контролировал 30% рынка графики, то к началу 2010-х - уже более половины, и продолжал усиливать свои позиции за счет поглощения целой россыпи мелких производителей.
Позиции основного бизнеса Nvidia (дискретных, т.е. "встраиваемых", решений для графики) оказались под серьезной угрозой. К тому же, в 2008 г. Nvidia выпустила большую партию чипов с дефектами, которые отгрузили Apple, Dell, HP и другим крупным ребятам. В итоге Nvidia получила серьезный репутационный ущерб, а еще пришлось раскошелиться на компенсации.
Нужно было что-то менять. В первую очередь - еще активнее диверсифицироваться, чтобы сделать бизнес-модель прочной и устойчивой.
Действовать решили по всем фронтам:
Радикально усилили чипы и прочие вычислительные продукты для игр на ПК и консоли.
Активно пошли в мобильный сегмент. Еще в 2007 г. Nvidia купила разработчика системных чипов PortalPlayer. В 2010-х на основе технологий PortalPlayer была выпущена серия процессоров (не GPU, а полноценных CPU) для мобильных устройств под названием Tegra (их еще называют "кристаллы"). Правда, на мой взгляд, Nvidia слегка промахнулась с операционной системой, ведь большинство Tegra применялось в смарфтонах и планшетах на Windows. Впрочем, это сейчас мы видим, что мобильные потуги Microsoft оказались провалом, а в начале 2010-х это была весьма перспективная история с неплохой долей рынка. Так что, бизнес Nvidia неплохо на этом вырос. Даже CEO Microsoft Сатья Наделла недавно признавался, что сворачивание мобильного бизнеса Microsoft было главной стратегической ошибкой компании.
Nvidia даже отважилась на нетипичный для себя эксперимент - выпустила собственную портативную игровую консоль Nvidia Shield Portable:
Заряженная тем самым процессором Tegra. Работала на ОС Windows.
Вообще, консоль Shield - это крайне нетипичный продукт для Nvidia. Компания всегда отличалась высокой прагматичностью при выборе конфигурации продуктов и оценке будущего спроса, всегда стараясь сделать относительно доступный продукт, который найдет отклик у массовой аудитории. Но тут получилось с точностью до наоборот. Shield стоила дороже аналогов, а игр для неё было крайне мало (хотя Nvidia даже запилила собственную платформу для разработки). Так что, хотя эксперты и игровые издания хвалили консоль за весьма недурную графику и производительность, особой популярности продукт не сыскал. Что ж, видимо, если умеешь производить чипы и процессоры, то не стоит лезть в истории про платформы и пользовательские девайсы.
Еще Nvidia начал активничать в сегменте автомобильной электроники. В том числе, в области начинки для беспилотного управления.
Но про это я расскажу во второй части. Как и про конкуренцию с AMD, качели из-за криптомайнинга, партнерства с китайцами и, собственно, путь к триллионной капитализации за счет лидерства в ИИ в последние годы. Там много интересных историй. А на сегодня хватит.
Если эта статья круто зайдет, то я быстрее сяду за вторую часть. Так что, если вам понравилось, то можете подкинуть мне дополнительной мотивации в виде плюсов, комментов и репостов статьи друзьям.
Если вам заходит такой контент, то подпишитесь на мои тг-каналы. Мне будет приятно, а вы найдете там еще больше подобного:
На своем основном канале Дизраптор я простым человечьим языком разбираю инновации, технологические продукты и знаковые компании (а еще анонсирую все свои статьи, чтобы вы ничего не пропустили).
А на втором канале под названием Фичизм более точечно пишу про новые фичи и функции продвинутых компаний и сервисов.
Чудеса оптимизации от intel продолжают порожать своими успехами, с каждым новым драйвером карты intel Arc становятся всё актуальней. Неужели intel готовится к релизу новых видеокарт intel Battlemage?
Например, чудовищный прирост производительности получила Halo: The Master Chief Collection в DX11, прирост производительности - 750 %
В том же Returnal на DX12 прирост производительности составляет 53 % в разрешении 1080p на ультра настройках графики с трассировкой лучей на максимальном уровне.
Разработчики Intel знатно обделались на запуске своих видеокарт, однако проводят титанические усилия над исправлением ошибок. Невозможно не заметить насколько часто intel впускает обновления драйверов и навёрстывают упущенное. Надеемся на скорый релиз новых видеокарт intel Battlemage с прекрасной драйверной поддержкой и вменяемыми ценами.
Как-то на днях наткнулся здесь на "Пикабу" на пост, в котором пользователь просит помощи с выбором игрового ноутбука и предоставляет в посте скриншоты и ссылки на ноутбуки, некоторые из которых даже игровыми и не являются, а другие можно назвать игровыми с боооольшой натяжкой. Например, в упомянутом посте указаны модели, даже не имеющие дискретной видеокарты, то есть работающие только на графическом ядре, встроенном в процессор (Huawei MateBook D14, Acer Aspire 3, HP 15s-eq1279ur), ну поиграть-то на них можно, конечно, в CS 1.6, например, или же Hitman: Blood Money, но ведь говоря "Игровой ноутбук", мы же подразумеваем не это, а то, что это аппарат, на котором можно запустить любую на данный момент имеющуюся игрушку, пусть уж и не на ультра-настройках графики, с учётом ограничений ноутбучного железа, ну на средне-высоких настройках, что бы было комфортно поиграться в тот же Cyberpunk 2077.
Вот исходя из вышеупомянутого поста решил запилить эту статью, что бы помочь начинающим пользователям в выборе игрового ноутбука.
Сначала давайте разберёмся чем собственно ноутбук отличается от полноценного ПК. Понятно, что различий очень много, но основное, что в данном случае мы должны иметь ввиду - это то, что процессор и видеокарта ноутбука распаяны на материнской плате. То есть в отличии от ПК, нельзя просто взять и заменить процессор или видеокарту в ноутбуке. То есть, исходя из этого, нам сразу необходимо подбирать ноутбук с хорошим полноценным процессором и именно игровой видеокартой, так как в будущем мы не сможем их заменить или же проапгрейдить эти компоненты на что-то более производительное. Добавить оперативной памяти, заменить накопитель - это в большинстве случаев возможно.
Для наглядности нашёл в инете фото материнской платы ноутбука и в Paint обозначил компоненты, о которых идёт речь:
1. Процессор
2. Видеочип (GTX 1650, RTX 2070 Super, RTX 3050 и т.д.)
3. Видеопамять (это на сколько Гб. собственно видеокарта - 4, 6, 8 Gb.)
Итак, мы разобрались, для выбора игрового ноутбука нам нужен ноутбук с мощным процессором и видеокартой, которые потянут все имеющиеся игрушки. А какие же процессоры и видеокарты можно называть игровыми? Давайте разбираться.
Первым делом давайте разберёмся какой же процессор нам необходим для запуска требовательных игр. И какой же процессор можно назвать "игровым".
Процессоры Intel Core
Сразу хочу отметить, что с выходом 14-го поколения процессоров, семейства Meteor Lake, Intel заявила, что перейдёт на новую маркировку процессоров. Откажется от приставки "i", а так же к производительным процессорам добавит приставку "Ultra", то есть вместо привычных сейчас "Intel Core i7-10750H" мы будем примерно наблюдать: "Intel Core Ultra 7 10750", и за счёт приставки "Ultra" будем понимать, что это высокопроизводительный процессор. Или же вместо "Intel Core i7-10510U", будет: "Intel Core 7 10510", видя, что приставка "Ultra" отсутствует, мы понимаем, что это энергоэффективный процессор. Останутся ли суффиксы "H", "U", "G", пока не понятно, нигде точных и достоверных разъяснений по поводу предстоящей маркировки пока что нет. Для каких маркетинговых целей Intel задумала ренейминг линейки процессоров, честно не очень понятно, так как привычная нумерация процессоров использовалась компанией с 2008-го года, с момента появления первых процессоров Intel Core. Однако, давайте будем реалистами - ноутбуки на свежих только, что вышедших процессорах будут стоить, как крыло от "Боинга", да и процессоры предыдущих поколений вполне мощные и могут выполнять все необходимые на сегодняшний день задачи. Поэтому, давайте разберёмся, как сейчас маркируются процессоры от Intel, как минимум несколько лет эта информация будет полезной, процессоры 11-го, 12-го и 13-го поколений ещё очень не скоро потеряют свою актуальность.
Говорить будем о семействе процессоров "Intel Core", так как Athlon'ы и Pentium'ы не попадают никак под Ваши с нами требования игрового процессора. Давайте для примера возьмём процессор i7-10750H. i7 - это серия процессора, здесь более-менее всё понятно. Далее идут 4 или 5 цифр и буква, вот здесь стоит остановится поподробнее, если цифр после тире 4, значит это процессор до 9-го поколения включительно, и первая цифра указывает, как раз на его поколение. Например, для i7-8750H, будет понятно, что это Core i7 8-го поколения. Если в маркировке цифр 5, то это значит, что процессор от 10-го поколения и выше, первые две цифры так же указывают на поколение процессора, так на примере нашего i7-10750H, мы можем сказать, что это Core i7 10-го поколения. Последние три цифры во всех случаях - это SKU-номер (Stock Keeping Unit – Складская Учётная Единица или, другими словами, код товара), как правило чем больше это значение, тем производительней процессор, но это справедливо только в рамках одной серии и одного поколения процессоров. Например i7-10870H будет производительнее i7-10750H, оба процессора серии i7, оба 10-го поколения, но 10870, производительнее чем 10750.
С цифрами на процессорах Intel немного разобрались, но так и не понятно, а какой же процессор нужен нам... Поэтому давайте перейдём к обозначениям буквенных индексов. Буквенный индекс указывает на версию процессора, а именно - является ли он высокопроизводительным или же энергоэффективным. Не буду упоминать здесь уже вышедшие из обихода индексы QE, XM, MX, ME, M, HQ, HK, MQ, QM и прочие. На данный момент основных индексов в мобильных процессорах от Intel всего три: G, U, H. Вот с ними и разберёмся. U — процессоры со сверхнизким энергопотреблением для ультрабуков (ultra low voltage) G — процессор с дискретной графикой Intel Iris Н — обозначение высокопроизводительного полноценного процессора То есть простым языком процессоры с индексами "G" и "U" предназначены для офисных ноутбуков для решения несложных задач. А вот как раз процессоры с индексом "H" - это для игровых ноутбуков.
Так же многие, наверное знают утверждение, что Core i7, производительнее Core i5. Это от части справедливо, НО только в рамках одного поколения процессоров и то даже в одном поколении есть исключения, когда Core i5 производительнее, чем Core i7. Например уже упомянутый i7-10750H будет мощнее i5-10300H, так как оба процессора 10-го поколения. Но этот же i7-10750H будет значительно уступать i5-11400H, так как i7 10-го поколения, а i5 уже 11-го поколения.
Но возьмём опять же упомянутый i5-11400H и i7-11370H, кажется оба 11-го поколения, но в данном случае Core i5 будет производительнее, чем i7 примерно на 30%
Почему так? Кажется стало ещё больше непонятнее... Всё просто: именно здесь необходимо смотреть на SKU-номер. В одном поколении процессоров Intel, есть несколько разных по производительности категорий, разделённых именно по SKU-номену и в данном случае процессору i7-11370H соответствует процессор i5-11300H, в таком случае i7 будет производительнее, чем i5, так как оба процессора 11-го поколения, оба из одной категории, согласно SKU-номера.
Итак, давайте подведём промежуточный итог: мы разобрались, что процессоры от Intel с маркировкой "U" и "G" так сказать урезанные по ядрам, частотам и т.д., в зависимости от конкретной модели самого процессора, а для игрового ноутбука нам необходим полноценный процессор, то есть при выборе игрового ноутбука на камне от Intel, он обязательно должен быть с индексом "H", так же стоит смотреть на поколение процессора, чем свежее процессор, тем он производительнее, кроме того в одной серии процессоров, например, i7 и в одном поколении, например 10-ом могут быть несколько версий, они различаются SKU-номером и чем выше эта цифра, тем производительнее процессор. Кроме того понятно, что мобильный процессор начального уровня Core i3 никак не подойдёт для запуска всех возможных игр, то есть его рассматривать не стоит. Таким образом, если выбираем процессор от Intel, смотрим Core i5, i7, i9 с индексом "H" и желательно последних поколений.
Процессоры AMD Ryzen
Давайте теперь обратим внимание на процессоры от AMD, а именно на их серию Ryzen, так как вполне обоснованно полагаю, что они на данный момент ничем не хуже процессоров от Intel. Да, конечно же, как и всегда присутствуют два лагеря: одни за синих, другие за красных, но в общем и в целом на данный момент эти процессоры всё же заслуживают внимания.
Давайте сразу оговорюсь, что с этого 2023-го года AMD так же сменили нейминг своих процессоров, но там гораздо проще, чем у интела. Начиная с 2023-го процессоры маркируются следующим образом: Первая цифра — поколение процессора и год выпуска (семёрка для 2023-го, восьмёрка для 2024-го, девятка для 2025-го и так далее) Вторая — положение чипа в иерархии бренда: от единицы для Athlon Silver до девятки для топовых Ryzen 9 Третье — указание поколения архитектуры Zen Четвёртая — ревизия архитектуры. Быстрые чипы получают цифру 5, а более медленные — 0 Суффикс по-прежнему будет указывать на значение TDP: 55 Вт — HX, 35 Вт — HS, 15-28 Вт — U, C для хромбуков, так же 15-28 Вт, а 9 Вт — строчная буква «e». Таким образом, маркировка Ryzen 5 7640U укажет на чип среднего класса производства 2023 года, построенный на архитектуре Zen 4 и предназначенный для устройств с низким энергопотреблением.
Исходя из этого к примеру мы можем понять, что AMD Ryzen 7 7735H - это процессор седьмого поколения 2023-го года (первая семёрка на это указывает), серия Ryzen 7 (вторая семёрка в числовом коде), на архитектуре Zen 3 (собственно третья цифра) и это высокоэффективный чип (на что указывает четвёртая цифра). Или же к примеру 7945HX - процессор 2023-го года, Ryzen 9, на архитектуре Zen 4, высокоэффективный, так же индекс "HX" указывает на TDP в 55 ватт. Вроде бы всё понятно, но возникает логичный вопрос - а что это такое TDP и для чего оно нужно? Давайте к вопросу о TDP процессора вернёмся чуть позже, а пока закончим разбираться с маркировкой процессоров Ryzen. Мы поняли как маркируются процессоры начиная с 2023-го года, но ведь и предыдущие поколения "Райзенов" довольно не плохие и ещё вполне способны вытягивать весьма требовательные игрушки. У AMD в этом плане всё немного проще, чем у Intel, хотя в нейминге процессоров они используют их логику, что бы не путать пользователей. Поэтому зная как маркируются процессоры от Intel, давайте быстро пробежим по маркировке Ryzen'ов.
Первая цифра в маркировке процессоров Ryzen всегда указывает на поколение, однако же сама цифра не всегда соответствует поколеню, так например Ryzen 5 4600H - это процессор третьего поколения. Ниже приведу список поколений мобильных процессоров от AMD, думаю не сложно будет разобраться.
1-е поколение Ryzen — архитектура Zen (Ryzen 3 2200U, Ryzen 5 2600H и т.д.) 2-е поколение Ryzen — архитектура Zen + (Athlon 300U, Ryzen 5 3500U, Ryzen 7 3750H и т.д.) 3-е поколение Ryzen — архитектура Zen 2 (Ryzen 3 4300U, Ryzen 5 4600H, Ryzen 7 4800HS и т.д.) 4-е поколение Ryzen — процессоры со встроенной графикой только для ОЕМ производителей (Ryzen 3 4300GE, Ryzen 5 Pro 4650GE, Ryzen 7 Pro 4750G и т.д.) 5-е поколение Ryzen — архитектура Zen 3 (Ryzen 3 5300U, Ryzen 5 5600HS, Ryzen 7 PRO 5850U и т.д.) 6-е поколение Ryzen — архитектура Zen 3+ (Ryzen 5 6600U, Ryzen 7 6800HS, Ryzen 9 6980HX и т.д.) 7-е поколение Ryzen — архитектура Zen 4 (Ryzen 5 7640HS, Ryzen 7 7735H, Ryzen 9 7945HX)
Номер процессора
В англоязычных странах этот пункт называется SKU (Stock Keeping Unit), что можно перевести на русский как артикул. Этот номер показывает положение конкретного процессора в рамках одного семейства. Чем больше число, тем лучше процессор. Встречается и еще более детальное наименование, причем разница может быть существенной. Например, у Ryzen 9 3900X 12 ядер, а у 3950X уже 16.
Обратите внимание, что цифры не повторяются в разных семействах: 3600 — это всегда Ryzen 5, а 3700 — Ryzen 7. Не бывает Ryzen 5 3700 или Ryzen 7 3600.
Буквенный суффикс
H — производительная серия для ноутбуков; HX — еще более производительная серия процессоров для ноутбуков; HS — особая серия процессоров AMD, производительность которой равна серии H, но теплопакет снижен; U — энергоэффективная серия для ноутбуков со сниженным теплопакетом.
Таким образом, уже разобравшись с процессорами от Intel, здесь нам тоже уже не сложно сделать выводы о том, какие процессоры нам подойдут, а именно: Ryzen 3 сразу же отбрасываем и не рассматриваем, как начальный процессор линейки, а соответственно и самый низкопроизводительный. Так же мы понимаем, что процессоры нам нужны опять же с индексом "H", либо "HX", в крайнем случае можно рассмотреть "HS", процессоры с индексом "U" не рассматриваем, как урезанные по частотам и ядрам. По поводу поколения, на данный момент с первого по третье поколение процессоры Ryzen уже устарели, поэтому рассматриваем ноутбуки с процессорами 5, 6 и 7 поколений.
В принципе с процессорами более-менее понятно, давайте теперь вернёмся к вопросу "а что такое TDP?"
TDP процессора
Абревиатура TDP (Thermal Design Power) обозначает конструктивные требования по теплоотводу или просто требования по теплоотводу для системы охлаждения. Если проще, TDP служит ориентиром для выбора системы охлаждения и отображает количество тепла, выделяемое устройством во время среднестатистической нагрузки. Значение TDP выражается в ваттах, и вот тут зачастую возникает путаница между TDP и энергопотреблением.
TDP — это значение, которое используют в очень широком смысле Intel и AMD для обозначения информации о тепловыделении своих продуктов. По большому счету, TDP — это просто рекомендация по выбору системы охлаждения, чтобы процессор нормально функционировал. Однако для ПК если мы можем самостоятельно выбрать систему охлаждения, то для ноутбука к сожалению нет.
В современных тонких производительных ноутбуках радиаторы способны рассеивать 150-200 Вт тепла, в редких случаях до 250 Вт. Таким образом, если использовать видеокарту с TGP 150 Вт, а радиатор способен рассеять лишь 200 Вт, то процессору останется всего 50 Вт. Это серьезное ограничение мощности, так как в разгоне потребление топовых чипов может доходить до 150 Вт.
Поэтому стоит обратить внимание так же и на качество охлаждения ноутбука, если мы выбираем именно игровой аппарат, то к сожалению он не может быть тонким, такие модели, как например, Asus TUF Dash F15, Asus ROG Zephyrus M15, кажется и тонкие и с топовыми процессорами и видеокартами, однако стоит учитывать, что это ноутбуки изначально созданы инженерами не для гейминга, а для дизайнеров, проектировщиков и т. д., тех специалистов, которые работают с ресурсоёмкими приложениями и программами и в то же время не требуют такой нагрузки одновременно на процессор и видеокарту, как геймеры. Поэтому качественное охлаждение ноутбука такиже необходимо учитывать при выборе, что бы в дальнейшем избежать просадок и фризов в играх.
Ну и теперь главный вопрос: графику в играх отрисовывает видеокарта, поэтому в ноутбуке она необходима. А вот какая именно, давайте разберёмся.
Объём видеопамяти и производительность
Не совсем верно утверждение, что чем больше видеопамяти, тем видеокарта производительнее. Например возьмём мобильную видеокарту AMD Radeon RX6600M на 8 Гб. видеопамяти и Nvidia RTX 3060 на 6 Гб. видеопамяти, по производительности они практически одинаковы, разница будет составлять порядка 10% то в пользу одной, то в пользу другой видеокарты, в зависимости от конкретной задачи.
Дело всё в том, что помимо объёма видеопамяти, так же необходимо учитывать и пропускную способность этой самой памяти и ширину шины памяти. У RX6600M пропускная способность составляет 256 Гб/с., не мало как бы, а ширина шины памяти 128 бит, но в то же время у RTX 3060 пропускная способность памяти составляет 336 Гб/с., а ширина шины памяти уже 192 бита.
Что же это значит? Если простыми словами: за одно и то же время, RTX 3060 за счёт большей скорости и ширины шины памяти сможет обработать гораздо больший суммарный объём данных, чем за это же время сможет обработать RX6600M. Пока RX6600M будет обрабатывать поступившие в видеопамять 8 Гб. информации, RTX 3060 уже обработает свои 6 Гб. поступившей информации и частично уже обработает вторую порцию информации на 6 Гб.
Но стоит оговориться - с видеокартами от Nvida не всё так просто. Давайте не будем подробно рассматривать в данном посте мобильные видеокарты от AMD, так как они занимают не очень значительную долю рынка и спросом особо не пользуются. А на видеокартах от Nvida остановимся чуть более подробно. Естественно, мы понимаем, что для игрового ноутбука нам нужна мощная видеокарта, но как вот разобраться в том производительная видеокарта или нет? Что бы разобраться в актуальных мобильных видеокартах, необходимо немного вспомнить с чего всё началось и в таком случае в хронологическом порядке, дойдя до актуальных видеокарт, уже придёт понимание как правильно сделать выбор.
С момента своего появления мобильная графика отставала от аналогичных по названию десктопных версий. В начале нулевых техпроцесс всё ещё измерялся в десятках и сотнях нанометров, и несмотря на то, что топовая десктопная графика того времени не требовала двух- или трёх-слотовых систем охлаждения, уместить её в ноутбуках не представлялось возможным. Ведь остальные электронные компоненты также были большими и требовали больше места для размещения на материнской плате. К тому же системы охлаждения того времени были не так эффективны, как нынешние.
В итоге Nvidia решила снижать мощность мобильных видеокарт, чтобы сделать возможной их установку в ноутбуки. Чтобы пользователи лучше понимали, какая видеокарта устанавливается в ноутбук, мобильная графика обозначалась иначе, чем десктопная. Когда названия серий состояли из одной цифры, в названии мобильной графики появилось дополнительное слово «Go». Например, видеокарта NVIDIA GeForce 4 MX 460 предназначалась для компьютеров, а NVIDIA GeForce 4 Go 460 – для ноутбуков. Ранее снижение производительности и тепловыделения графики выражалось в понижении тактовых частот. Для сравнения возьмём всё ту же десктопную NVIDIA GeForce 4 MX460 и мобильную GeForce 4 Go 460. Строение видеоядра у двух видеокарт одинаковое: 2 пиксельных конвейера, 4 текстурных блока (TMU) и два блока растеризации (ROP). Изменились только частоты - десктопная GeForce 4 MX 460 работала с частотой 300 МГц, а мобильная GeForce4 Go 460 оказалась на 50 МГц медленнее.
Когда видеокарты NVIDIA стали наращивать количество унифицированных шейдерных процессоров, одного лишь снижения частот стало недостаточно. Чтобы уложиться в теплопакет, с которым может справиться система охлаждения ноутбуков, Nvidia стала отключать часть шейдерных процессоров в видеоядре.
В 2009 году Nvidia изменила наименования линеек своих видеокарт, перейдя на сотые серии, ситуация повторилась - к мобильным видеокартам добавилась буква «M». Просто взглянув на модель графики, можно сразу понять, что NVIDIA GeForce GTX 760 создана для стационарных компьютеров, а GeForce GTX 760M – для ноутбуков. Частоты у мобильной графики также были ниже, а в GPU была отключена часть шейдерных процессоров, которые со временем преобразовались в CUDA-ядра благодаря унифицированной архитектуре.
Разница в производительности десктопных и мобильных видеокарт сохранялась до 2016 года, пока NVIDIA не представила архитектуру Pascal и видеокарты GeForce GTX 10-й серии. На этом этапе NVIDIA смогла свести к минимуму разницу между десктопными и мобильными GPU. Для обозначения мобильных видеокарт больше не требовались дополнительная буква, индекс или слово. У NVIDIA GeForce GTX 1080 и GTX 1060, созданных для ноутбуков и компьютеров, стало одинаковое количество ядер CUDA. Даже у мобильной GeForce GTX 1070 оказалось чуть больше CUDA-ядер по сравнению с её десктопным аналогом. Разумеется, частоты у мобильных и десктопных видеокарт немного различались, но разрыв между мобильной и «полноценной» десктопной графикой в рамках одного поколения стал не настолько большим и заметным, как это было ранее. А в зависимости от эффективности системы охлаждения, разницы могло и вовсе не быть.
Появление архитектуры Pascal стало прорывом для тех, кто предпочитал играть на ноутбуках которые, в отличии от компьютера, всегда можно взять с собой. Ноутбуки с видеокартами GeForce GTX 10-й серии легко справлялись с играми того времени.
Появление технологии Max-Q
Игровые ноутбуки с топовой графикой, которая справляется с современными играми — это прекрасно. Однако, у любой медали есть две стороны. Производительная видеокарта непременно будет горячей, для неё потребуется большая система охлаждения, которая во многом определяет толщину и вес ноутбука.
Для примера возьмём Asus ROG G703, высокую производительность которого обеспечивал 4-ядерный процессор Intel Core i7-7820HK в паре с видеокартой NVIDIA GeForce GTX 1080. Топовая конфигурация для своего времени! Однако, при толщине в 51 мм и весе в 4,7 кг ROG G703 совершенно точно нельзя назвать ноутбуком, который можно носить с собой на работу каждый день. Скорее, это полноценная замена десктопа, которую при необходимости можно легко перенести в другое место. Главное, не забыть с собой огромный блок питания.
Пользователям хотелось получить не только мощные, но и тонкие игровые ноутбуки, а производители стремились удовлетворить потребности. Все-таки, ноутбук ассоциируется с компактностью и мобильностью. К тому же, игровые ноутбуки многие используют для работы – мощная начинка одинаково хорошо справляется как с играми, так и с большинством тяжёлых задач, вроде сложных расчётов, обработки фото, видеомонтажа и так далее. Но это требовало создания более энергоэффективных видеокарт, которыми в будущем и стали линейки под названием Nvidia Max-Q.
В аэродинамике точкой Max-Q называют момент максимальной нагрузки на ракету в атмосфере, который особенно учитывается конструкторами. Компания Nvidia применила похожий подход при разработке серии видеокарт Max-Q, которые работают на пределе своей энергоэффективности.
1/2
Необходимо пояснить, что не стоит путать понятия «энергоэффективность» и «производительность». В первом случае графика работает с максимальной производительностью относительно потребляемой мощности, и не выходит за пределы заложенного лимита энергопотребления. Во втором случае происходит прирост производительности, за который приходится расплачиваться увеличивающимся тепловыделением и энергопотреблением.
Зависимость между потребляемой мощностью и ростом производительности нелинейная. При увеличении потребляемой мощности прирост производительности сперва будет заметным, линейным, а потом, после прохождения точки максимальной эффективности, прирост производительности (который не стоит путать с самой производительностью) замедляется. Проще говоря, видеокарта Nvidia GeForce GTX 1080 будет быстрее GTX 1080 Max-Q, но при этом потребует улучшенной системы охлаждения и станет потреблять больше энергии.
В результате в 2017 году на рынке появилось два типа ноутбуков: с классической графикой GTX 10-й серии и с графикой Max-Q. Появление линейки Max-Q позволило выпускать тонкие и лёгкие игровые модели, чего не удавалось добиться ранее. Для Max-Q не требуется крупногабаритная система охлаждения.
Благодаря появлению видеокарт Max-Q, производители смогли выпустить тонкие, лёгкие и при этом мощные игровые ноутбуки. Одной из первых таких моделей стал 15-дюймовый Asus ROG Zephyrus GX501. В ноутбуке толщиной 17,9 мм и весом 2,26 кг была установлена графика Nvidia GeForce GTX 1080 в дизайне Max-Q в паре с 4-ядерным процессором Intel Core i7-7700HQ. Для рынка ноутбуков 2017 года это стало революцией.
Долгое время энергопотребление видеокарт обозначалось аббревиатурой TDP. Расшифровать эти три буквы можно как Thermal Design Point или Thermal Design Parameter. Значение TDP обозначало, сколько Ватт тепла нужно отводить от кристалла GPU, и не указывало общее энергопотребление видеокарты.
На данный момент в указании характеристик видеокарт 30-ой и 40-ой серий используется другой параметр - TGP. TGP в отличии от параметра TDP напротив указывает, сколько Ватт потребляет вся видеокарта целиком. Видеопамять и другие электронные компоненты также потребляют свою часть электричества во время работы. Судя по таблице, реальное энергопотребление видеокарт оказалось заметно выше, чем тепловыделения GPU. Например, у GeForce RTX 2080 разница между TDP и TGP составляет 67 Ватт, а у RTX 2070 - 55 Вт.
Графика NVIDIA GeForce RTX 30-й серии в ноутбуках ASUS и ROG
За время существования графики Nvidia GeForce RTX 10-й и 20-й серий, мы успели привыкнуть к тому, что видеокарты для ноутбуков и десктопов стали практически одинаковыми. Однако, выход мобильных видеокарт нового поколения на архитектуре Ampere снова поменял правила игры. Десктопные видеокарты Nvidia GeForce RTX 30-й серии оказались не только производительными, но и требовательными к питанию. Согласно официальному сайту Nvidia, энергопотребление GeForce RTX 3080 составляет 320 Вт, когда как GeForce RTX 2080 Super потребляла 250 Вт. При этом, мы имеем в виду энергопотребление, указанное без заводского разгона и самых пиковых значений.
Разница в энергопотреблении у старого и нового поколения видеокарт оказалась заметной. Впервые видеокарта Nvidia с одним GPU потребляет более 300 Вт. Учитывая высокое энергопотребление и впечатляющую производительность графики, перед инженерами Nvidia появилась сложная задача по оптимизации десктопной графики к мобильным реалиям. В случае с ноутбуками производители были ограничены толщиной корпуса, которая не позволяет установить систему охлаждения толщиной в несколько сантиметров.
В результате, инженерам Nvidia пришлось вынужденно вернуться к старым методикам –отключению CUDA-ядер. Также при разработке ноутбука стало возможным ограничивать TGP видеокарты. Это означает, что на этапах проектирования и производства можно выставить максимальное энергопотребление согласно возможностям системы охлаждения. В результате на рынке появились ноутбуки с одинаковым названием видеокарт, но разной производительностью, что закономерно привело в замешательство многих пользователей.
Вот к примеру таблица с некоторыми ноутбуками от Asus на видеокартах 30-ой серии и как мы можем заметить одна и та же на первый взгляд видеокарта по мощности может значительно отличаться. Например RTX 3060 в ROG Zephyrus G14 установлена мощностью 60 ватт, а в том же ROG Strix Scar 17 эта же 3060 уже обладает мощностью в 115 ватт, то есть TGP практически в два раза выше.
Если ранее в названии видеокарт использовался индекс Max-Q для маркировки видеокарт с урезанным теплопакетом, то сейчас именно TGP становится важным параметром для определения производительности при выборе игрового ноутбука. И в то же время компании производители нигде не указывают информацию об энергопотреблении видеокарты и маркируют их все одинаково RTX 3070 может быть, как и на 80 ватт, так и на 130 ватт, сама же компания Nvidia так же пытается не афишировать этой информацией и всё-таки, что бы не нарушать закон и права покупателей, она обязана это указывать, поэтому прячет эту информацию в панели управления Nvidia (справка->информация о системе).
Что же такое TGP, и почему это так важно для гейминга?
С десктопными видеокартами всё просто: если она показывает определённый уровень производительности, то можно рассчитывать на те же самые показатели у любого бренда. RTX 3060 от Palit будет работать примерно так же, как RTX 3060 от MSI.
С ноутбуками всё несколько сложнее: помимо видеочипа, на производительность влияет и его теплопакет. NVIDIA использует для его обозначения параметр TGP, который указывает на потребление ресурсов видеокартой.
У AMD встречается аббревиатура TBP. По сути, это то же самое.
В 30-ой и 40-ой сериях GeForce уже не используется индекс MAX-Q для маркировки карт с урезанным теплопакетом, поэтому именно TGP становится важным параметром для определения производительности при выборе игрового ноутбука.
Например, RTX 4060 с TGP 75 Вт на 10-20% слабее версии на 120 Вт. Есть и более наглядные примеры — RTX 3070 Ti 105 Вт на 25% слабее модели на 150 Вт.
Согласитесь, неприятно узнать о том, что ваш новенький ноутбук с урезанной видеокартой RTX 3070 Ti работает практически на равных с ноутбуком, у которого полноценная RTX 3060.
Подведём итоги
Итак, информации довольно много, и всего сразу, не то что бы запомнить, понять не получится, согласен.
Так как же выбирать игровой ноутбук, основываясь на всём вышеизложенном?
Давайте для начала обобщим: мы поняли, что процессоры от Intel и от AMD должны быть полноценными, не урезанными, такими у Intel являются процессоры с буквенным суффиксом "H", а у AMD Ryzen - это HS, H и HX, по сути это один и тот же процессор, только HS, например используется в тонких ноутбуках и чтобы он не перегрелся, урезан по частотам, в остальном этот тот же процессор, что и с суффиксом "H", а вот процессор HX, как раз наоборот - это всё тот же процессор с суффиксом "H", но разогнан максимально по частотам, что бы выжать всю возможную производительность.
Видеокарта, давайте подведём итог в этой части: видеокарта должна быть приближена к максимальному значению TGP для лучшей производительности. Для каждой отдельной видеокарта лучше искать информацию в поисковике, например у MSI GP66 Leopard в конфигурации с видеокартой RTX 3060, TGP составляет 130 ватт, а вот например у дорогущего ASUS ROG Zephyrus G14 GA401I параметр TGP составляет всего 60 ватт, уже очевидно где будет лучше производительность.
Так же стоит обратить внимание и на систему охлаждения ноутбука. В большинстве случаев производитель в игровых линейках учитывает это, но например тот же Asus TUF Dash F15 изначально сконструирован для других целей, не для игр, а для дизайнеров, разработчиков и т.д., которым тоже нужно мощное железо, поэтому ноутбук гораздо тоньше по сравнению со своим братом Asus TUF Gaming F15 и система охлаждения у него рассчитана не под игры, а совершенно под другие задачи и неудивительно, что в играх он будет перегреваться и процессор уходить в троттлинг.
На этом пожалуй закончу данный пост, а то уже и ограничение поста в 30 тысяч знаков подходит к концу.
P. S.: Примерно 70% информации написано мной, остальная часть заимствована из множества разных источников с просторов интернета.
Это первый тематический пост, поэтому сильно прошу не судить за стиль изложения, как сумел, так попытаться донести информацию.
На релизе десктопных видеокарт intel всё было очень плохо, но корпорация intel активно занимается развитием своих графических адаптеров и показывает прекрасные результаты.
С недавним патчем графические ускорители intel Arc получили приличный прирост производительности в DX11 и DX12 играх.
Возможно intel готовится к релизу новой линейки графических ускорителей Battlemage, надеемся они сумеют составить конкуренцию Куртке.
Как бы иронично не звучало, все надежды потребителей и игорьков остаются на intel .
GTX 1650 больше не лидер, теперь самая популярная видеокарта среди геймеров RTX 3060. 8 Гб видеопамяти имеют уже больше 30% игроков. Значительно выросла доля Nvidia в общей доле (сразу на 2%). Процессоры AMD потеряли еще один процент, а 6 ядер уже у 36% пользователей.
Для всех поклонников футбола Hisense подготовил крутой конкурс в соцсетях. Попытайте удачу, чтобы получить классный мерч и технику от глобального партнера чемпионата.
А если не любите полагаться на случай и сразу отправляетесь за техникой Hisense, не прячьте далеко чек. Загрузите на сайт и получите подписку на Wink на 3 месяца в подарок.
Похоже, в некоторых случаях обновить компьютер всё же нужно.
О том, что самая мощная видеокарта Intel стоимостью 350 долларов не соответствует минимальным системным требованиям Starfield, в поддержке Bethesda сообщили одному из владельцев Arc A770 с 16 ГБ памяти.
Игрок рассказал, что обратился в поддержку, поскольку игра у него очень часто вылетала. Сотрудники Bethesda не помогли ему решить проблему.
Согласно данным с сайта Bethesda, для запуска Starfield минимально требуется видеокарта уровня AMD Radeon RX 5700 или NVIDIA GeForce 1070 Ti. Во многих игровых тестах Arc A770 быстрее этих моделей, но, судя по всему, графические ускорители Intel не оптимизировали для RPG.
В сообществе владельцев видеокарт из линейки Arc на Reddit надеются, что если не Bethesda, то хотя бы сама Intel повысит стабильность работы Starfield на их видеокартах. Одно такое обновление IT-гигант выпустил ещё до релиза игры, тем самым устранив проблему, из-за которой RPG могла не запускаться.
Ранее геймдиректор Starfield Тодд Говард заявил, что в Bethesda оптимизировали игру.