TSMC сейчас строит новые заводы в США и столкнулась с проблемами, касающимися отношения к американским сотрудникам. Как сообщает Restofworld, американские инженеры привезенные на Тайвань в 2021 были потрясены, столкнувшись с 12-часовым рабочим днём и высоким давлением со стороны руководителей.
🔥 Руководство ставит невыполняемые задачи, объюзит и кричит на подчинённых. Инженеры TSMC на заводах в Аризоне жалуются на 12-часовые смены и ужасное отношение руководства.
На Тайване 12-часовые смены, вызовы в нерабочее время и прочие подобные практики обычное дело. Забавно но инженеры признались, что им пришлось подделывать результаты производственных тестов, чтобы оправдать завышенные ожидания руководства.
☝️Основатель TSMC - Моррис Чанг заявил, что это особенность корпоративной культуры.
Некоторые специалисты покинули TSMC ещё на этапе обучения на Тайване, а некоторые уволились уже в США.
🌐 AMD приготовила улучшения архитектуры RDNA 3 и официально подтвердила, что RDNA 3+ появится в 2024 году.
💭 На саммите AI PC в Пекине AMD рассказала что архитектура RDNA 3+ появится в этом году в составе новых процессоров Strix Point, а именно в мобильных чипах Ryzen 8050 с NPU-движком AMD XDNA 2. Согласно презентации AMD, процессоры Strix Point будут в три раза производительнее Hawk Point (Ryzen 8040) в AI-приложениях. Словом, ноутбуки приближаются к заветной цели «ИИ на устройстве».
🎫 Процессоры Strix Point будут сделаны на архитектуре Zen5 с применением энергоэффективных ядер Zen 5c. Интегрированной графика получит мощный прирост производительности за счет добавления +4 вычислительных блоков. По идее iGPU на архитектуре RDNA 3+ по производительности в растеризации должны догнать мобильную RTX 3050 Max-Q.
Nvidia - одна из ключевых компаний мира прямо сейчас. Существует популярное мнение, что они просто везунчики, которые всегда оказываются с нужным продуктом в нужное время. Однако, если историю развития этой компании, то станет отчетливо видно, что эти ребята умеют мастерски конкурировать, делают полезные выводы из провалов и отлично "ловят волны". Сегодня разберемся, как им это удается.
Главный секрет Nvidia в том, что её основатель ходит с стильной кожанке. Спасибо за внимание. Ладно, шучу, сейчас во всем разберемся.
Nvidia обогнала по стоимости Saudi Aramco, и теперь выше детища Дженсена Хуанга лишь Microsoft да Apple. Microsoft за последние годы ИИ-бума влезли в очень плотную зависимость от чипов Nvidia, из-за чего сейчас экстренно пилят собственную замену. Apple же слез с чипов Nvidia в 2010-х, но, уверен, у Nvidia неплохие шансы пободаться и с этим гигантом.
Возможно, кто-то спросит "Аффтар, почему ты так уверено назвал Nvidia главной компанией нашего будущего?". Отвечу: "Потому что Nvidia продает те самые пресловутые лопаты современным золотоискателям. А это самая надежная и устойчивая бизнес-стратегия независимо от эпохи и контекста".
Ладно, к делу. Изучая материалы про Nvidia, я регулярно сталкивался со следующим лейтмотивом:
"Да просто чуваки каждый раз оказывались вовремя с востребованным продуктом. Они просто крайне везучие".
Так вот, если компания умудряется несколько раз подряд оказаться с востребованным продуктом (причем, самым популярным на рынке, или одним из самых) в нужные моменты времени, то это означает, что у компании офигеть какая мощная стратегия, а СЕО - крутой визионер.
Поэтому, в этом материале я хочу не просто рассказать историю развития компании и основные этапы её развития. Но также понять, как Дженсену и ко. удавалось делать настолько верные и точные стратегические ставки. А еще, по ходу дела расскажу, что же за продукцию такую производит эта Nvidia, что на неё всегда есть устойчивый спрос в самых разных индустриях и сегментах рынка.
Disclaimer. История Nvidia - это большой и яркий путь с россыпью крутых бизнес-решений. Так что, я поделю материал на две части. Сегодня расскажу, как из небольшого перспективного "стартапа из кафешки" Nvidia превратилась в важнейшего производителя железа для современной технологических отраслей. А во второй части (coming soon) мы разберемся, как Nvidia из просто крупной и важного игрока превратилась в главную компанию будущего, которая (очень возможно), скоро станет самой дорогой корпорацией в истории.
Этап первый. Как жизнь Nvidia чуть не закончилась после первого же выпущенного чипа
Думаю, многие из вас слышали историю, как Дженсен Хуанг, Крис Малаховски и Кертис Прэм сели за столик в дешевой кафешке в Сан-Хосе и стали думать, какая технология станет the next big thing в этом мире. Еще ходит байка, что эта забегаловка была в таком суровом районе, что в её стенах зияли дырки от гангстерских пуль.
Последний факт, наверно, должен был символизировать стартаперский дух начинания, но на самом деле все трое фаундеров на тот момент уже были состоявшимися взрослыми спецами. Например, наш главный герой трудился руководителем направления в LSI Logic - довольно крупном производителе интегральных схем, а два других партнера инженерили в Sun Microsystems (эту компанию позже поглотит Oracle). В общем, ребята были весьма матерыми профи, а не какими-то оборванцами, бросившими колледж ради стартапа в гараже.
Приятели сходились во мнении, что компьютерная отрасль только набирает обороты, и что в самое ближайшее время машины будут использоваться для все более широкого спектра вычислительных задач. А значит, центральным процессорам (CPU) явно понадобится помощь. Эта помощь называется аппаратное ускорение вычисления.
В двух словах. CPU - это такой "мозг компьютера". Он обрабатывает сигналы и распределяет вычислительные команды. А теперь представьте, что вам на работе подкинули 10-20 задач одновременно. Что случится с вашим мозгом? Правильно, он "перегреется" и вы поймаете мощный приступ прокрастинации (=зависнете). То же самое и с центральным процессором компьютера, который должен выполнять все больше и больше задач одновременно.
Так вот, элементы аппаратного ускорения - это такие вспомогательные мини-мозги, призванные разгрузить основной мыслительный центр.
Без этих штук мы едва бы смогли параллельно запустить на ноутбуке несколько вкладок браузера, эксель, фотошоп, Телегу, и игру в отдельном окошке.
Кстати, на счет игр. Дженсен, Крис и Кертис не сомневались, что за аппаратным ускорением будущее. Оставалось лишь выбрать направление внутри этого тренда. Решили, что это будет гейминг. Если конкретнее, то их особенно привлекала бурно развивающаяся 3D-графика для этого самого гейминга. Продвинутый графон - это штука энергозатратная, вычислительные мощности она жрет как конь. Так что, друзья решили софкусироваться на графических процессорах (GPU).
В 1995 г. Nvidia выпустила свой первый продукт - мультимедийную видеокарту NV1.
Вот так она выглядела.
NV1 отличалась от аналогов тем, что на одной плате размещалось сразу несколько модулей - блок обработи 2D-графики, ускоритель 3D-графики, звуковая карта и порт для игрового геймпада приставки Sega Saturn. Кстати, в рамках этой карты Nvidia сотрудничала с Sega, что позволило портировать некоторые популярные эксклюзивы для этой консоли на ПК.
Нужно отметить, что Nvidia - это fabless (=fabricless) company, т.е. компания без своего производства. По сути, это просто конструкторское бюро. Очень большое и крутое конструкторское бюро! Они всего лишь (ну, если сравнивать с полноценной сборкой) придумывают и разрабатывают свои технологии и продукты, а непосредственной изготовкой занимаются подрядчики по контракту. Например, первый чип NV1 для Nvidia производила компания SGS Thomson-Microelectronics на своем заводе во Франции. Сейчас, конечно, у Nvidia есть кое-какие собственные производственные мощности, но львиная доля производства все равно происходит на стороне - например, с помощью тайваньских компаний.
В итоге NV1 стал прорывом и принес компании известность... хотелось бы мне написать. Но нет, он провалился! Да-да, история третьей по стоимости компании в мире началась с провала.
Дело в том, что NV1 был больше всего заточен на игровую консоль Sega. А в те годы происходит бум ПК-гейминга. Большинство ПК же работает на операционной системе Microsoft. NV1 вышел в мае 1995, а уже в сентября Microsoft представил свой API под названием DirectX.
Если упрощенно, DirectX - это специальный модуль, позволяющий разработчикам задействовать все мощности железа без написания специального кода под каждый элемент комплектующих.
Помните, большинство игрух на ПК в конце 1990-х и начале 2000-х требовали вместе с установкой самой игры поставить DirectX?
Так вот, принцип ускорения графики у чипсета NV1 принципиально расходился с таковым у DirectX. Следовательно, первый продукт Nvidia оказался принипицально несовместим с подавляющим большинством игр, которые геймеры ставили на ПК!
А учитывая, что в создание NV1 стартап бахнул почти все первые привлеченные инвестиции (первый раунд был 10 миллионов долларов - довольно серьезная сумма по тем временам), это был epic fail. Хуангу даже пришлось сократить половину сотрудников, которых к тому моменту уже успели нанять... Был момент, когда у Nvidia хватало денег всего лишь на один месяц зарплат. Тогда родился негласный девиз компании: "У нас есть всего лишь 30 дней, чтобы продолжать делать бизнес".
Так что, да, в начале своего пути сооснователи получили довольно мощный апперкот от жестоких реалий рыночной экономики.
Впрочем, Nvidia сделала правильные выводы. С пор они редко промахивались с трендами рынка, особенно в сегменте ПК.
Интересный факт. Первые годы у Nvidia не было названия. В рабочих переписках компания называла свои первые продукты "NV" - Next Version. Ну типа, новая версия этих ваших видеокарт. Когда компания развилась до такого масштаба, что без названия уже было сложно, основатели решили открыть словарь и найти что-то прикольное из похожего на NV. В итоге остановились на слове "'invidia"', что на латыни значит... "зависть". Да-да, тот самый дух неуёмной конкурентной борьбы, который позже проявился в схватках с 3dfx, ATI, AMD и другими крутыми компаниями.
Этап второй. Первый большой успех и победа над Voodoo
Есть такой миф, что Nvidia придумала видеокарты. На самом деле, это не так. Первый графический видеоадаптеры с поддержкой 3D-графики еще в бородатом 1982 году запилила IBM. Чуть позже многие другие компании выпустили свои версии. Однако первые версии были очень дорогими и не слишком производительными. В общем, узкоспециализированная история для избранных.
Действительно массовые, доступные, универсальные и широкосовместимые 3D-видеокарты появились во второй половине девяностых. Первый образец выпустила та же IBM в 1995 г., был еще чипсет S3 ViRGE от компании S3 Graphics (сейчас принадлежит тайваньской HTC). Еще было сразу несколько популярных моделей от компании Matrox, да и японцы из Yamaha тоже что-то делали... В общем, хотя океан еще не был алым, он уже стремительно краснел.
В 1996 г. на рынок выбрасывается сразу несколько успешных моделей, но настоящий прорыв происходит, когда компания 3dfx выпускает свой 3D-ускоритель под названием Voodoo Graphics.
3dfx специализировалась на графике для игровых автоматов, и их чип выдавал скорость и качество рендера, близкое к автоматам. Тогда это была вершина крутости. К тому же, их карты хорошо совмещались с ПК-играми.
Справа - графон в Quake 1 на чипсете Voodoo, слева - без оного. Как говорится, почувствуйте разницу.
Короче говоря, это был очень крутой 3D-ускоритель, который быстро завоевал популярность. Сначала среди производителей видеокарт, а позже и среди геймдев-компаний, которые целенаправленно начали оптимизировать графон своих проектов под него.
В 1998 г. 3dfx выпустила чипсет Voodoo2, который был еще производительнее первой версии. И вот с этой штукой Nvidia пришлось конкурировать. Скажу сразу, Nvidia выиграла, а позже вообще выкупила 3dfx, интегрировав к себе их наработки. Как же им это удалось?
Если вычленять самую суть, то более массовый и простой продукт победил более продвинутый. В общем, классика. Voodoo2 показывал исключительную производительность и качество текстур, к которым не могли приблизиться конкуренты. Однако Nvidia выпустил свой новый продукт - NV4, также известный как Riva TNT. Дело в том, что поверх набора ускорителей Voodoo2 нужно было отдельно прикрутить внешнюю видеокарту. А Riva TNT имела изначально встроенную видеокарту внутри своего набора (т.е. предлагала готовое решение под ключ). К тому же, Riva TNT была банально дешевле ("дешевые карты Nvidia" сейчас звучит как плохой анекдот, но тогда реально было так). Так что, Nvidia начал активно отжирать бюджетный и средний сегменты, которые благодаря растущей доступности 3D-игр росли быстрее всего.
Тем не менее, Nvidia и 3dfx активно конкурировали следующие 2-3 года. Но Дженсен Хуанг победил. Во-первых, пока у 3dfx каждый следующий чипсеть был масштабным мегапроектом, Nvidia намеренно минимизировал цикл разработки, научившись быстро выкатывать новые версии на рынок. Это позволяло еще быстрее отжимать бюджетный и средний сегмент. К тому же, Nvidia изначально заложила в конструкцию своих продуктов систему проверки чипов на брак, за счет чего у них была ниже доля неисправной продукции.
Закончилось все тем, что в 2002 г. 3dfx проиграла Дженсену Хуангу патентный спор, что окончательно добило некогда мощного игрока. В итоге Nvidia выкупила своего закадычного конкурента за 70 миллионов долларов. Первый громкий триумф.
В 1999 г. компания выпустила один из своих главных продуктов - GeForce 256, который Nvidia с гордостью называла "первым графическим процессором". На самом деле, это было не совсем так. Хотя GeForce 256 умел создавать более сложные и реалистичные трехмерные объекты за счет наложения структур, был способен обрабатывать солидный объем графических примитивов (примитивы - это простейшие объекты, из которых на экране складывается изображение), и вообще очень резво работал с графикой, он точно не был первым графическим процессором. Более того, он был даже не самым мощным в свое время. Однако, он точно выдавал оптимальную "цену-качество", а еще Nvidia весьма талантливо его пиарила (в хорошем смысле этого слова).
GeForce 256. Как говорится, найдите 10 отличий с фото NV1 выше. Но на самом деле, разница примерно как между Nokia 3310 и пятым (ну ладно, четвертым) Айфоном.
К тому моменту Nvidia уже стала крупным поставщиком графических ускорителей и видеокарт. Её выручка была в районе 200 миллионов в год, капитализация достигала 700 млн долл., а в 1999 г. компания провела IPO на NASDAQ, окончательно перестав быть стартапом.
Этап третий. Новая конкуренция на зрелом рынке
В начале 2000-х на рынке графических процессоров уже миновал этап бешеной конкуренции между кучей стартапов. Сформировались три явных лидера - Nvidia, Intel и ATI. У Nvidia и Intel было примерно по 30% рынка, у ATI - чуть меньше. Однако в 1998 г. Intel выпустил неудачный внешний ускоритель i740, так что, через некоторое время решил забить на рынок дискретных (т.е. внешних) видеокарт, состредоточившись на внутренней графике, а также других направлениях, коих у этого диверсифицированного гиганта было предостаточно.
В итоге в сегменте внешних графических модулей образовалась дуополия - Nvidia против ATI. Тут-то Дженсен Хуанг и попал в свою любимую среду ультраконкуренции. В 2000 г. ATI как раз выпустила свой самый жирный продукт, название которого вы наверняка слышали - это чипсет Radeon (сейчас это флагман компании AMD, но об этом позже).
В общем, две компании начали бодаться за самые жирные сегменты и контракты.
Сначала Nvidia стала поставщиком чипов для консоли Xbox, которую только-только начинал развивать Microsoft. Однако в дальнейшем Microsoft ушел к конкурентам из ATI. Дженсен Хуанг подумал "А чем я хуже?", и пошел к Sony с их PlayStation. Вдобавок, Nvidia стала эксклюзивным поставщиком внешних видеокарт для компов Apple. Кстати, в рамках партнерства с Sony Хуанг поступил очень мудро - Nvidia не просто продавала свои чипы, но и помогала Sony разрабатывать собственную графику для PlayStation 3 и PSP. Конечно, в перспективе Sony мог полностью перейти на свои решения, но глава Nvidia понимал, что рано или поздно это случится в любом случае (так и случилось). Так что, лучше поучаствовать в процессе, выжав из сотрудничества максимум хотя бы до создания японцами своего GPU.
Параллельно, Nvidia начала себя вести как настоящая взрослая корпорация. Она начала скупать перспективные компании и стартапы, диверсифицируя технологическую и продуктовую базу. В частности, прикупили:
Exluna - разработчика оборудования для 3D-рендеров в кино.
MediaQ - производителя чипов, которые оптимизируют работу дисплеев и аккумуляторов мобильных телефонов и прочих "беспроводных устройств".
iReady - разработчика чипов, которые "разгружали мозги" сетевого адаптера (это штука внутри компьютера, с помощью которой он ловит сеть или вайфай).
А еще, что любопытно, в 2005 г. хитрая Nvidia купила некую тайваньскую компанию ULI Electronics (сейчас она называется чуть по-другому), которая была важным поставщиком компонентов для главного конкурента - ATI. Этот удар Хуанга был крайне чувствительным для конкурента.
Второй удар по себе нанесла сама ATI. Компания продалась диверсифицированному производителю микропроцессоров AMD. В итоге ATI стала "графическим юнитом" в составе AMD, при этом лишившись большинства контрактов со своим основным потребителем - Intel (ведь AMD - это уже прямой конкурент Intel, а не какой-то там поставщик графических чипов). Угадайте, кому после этого достались безхозные контракты от Intel?
В итоге получилась очень характерная ситуация. С одной стороны, огромный процессорный холдинг купил главного конкурента Nvidia (а также, соответственно, их главный продукт - чип Radeon). С другой стороны, сама Nvidia активно диверсифицировалась, скупала компании в смежных сегментах и готовилась играть по-крупному. Все это предзнаменовало главное противостояние в сегменте графики, рендеров, процессоров и всего что с этим связано - Nvidia vs AMD ("зеленые" против "красных").
Классическое противостояние, которое идет уже почти 20 лет. Иногда еще сюда добавляют Intel, но Intel - это все же прямой конкурент для AMD. Для Nvidia Intel и конкурент, и партнер и покупатель одновременно.
Кстати, есть версия, что AMD сначала хотели купить Nvidia, но Дженсен Хуанг их послал. Этот хитрый CEO что-то знал уже тогда.
Этап четвертый. Первые ростки в направлении ИИ
Середина 2000-х. Nvidia - уже совсем серьезная корпорация, зарабатывающая по 200-300 миллионов баксов за квартал.
В 2007 г. компания выпускает свой, возможно, самый важный продукт. Очень вероятно, что именно он открыл ей путь к нынешним триллионам. Он назывался CUDA (Compute Unified Device Architecture). CUDA - это GPGPU (General-purpose computing on graphics processing units). И здесь я остановлюсь подробнее.
Дженсен Хуанг понимал, что одними ускорениями графона и рендерами сыт не будешь. Так что, Nvidia выпустил, скажем так, адаптер (ну или прееходник), который позволял задействовать мощности большинства своих графическиих чипов для обработки математических вычислений, алгоритмов и прочих веселых штук, которыми занимаются разработчики самых продвинутых технологий.
Проще говоря, с помощью CUDA разрабы смогли делать запросы на упрощенных диалектах языков C, С++ и Fortran, которые обрабатывались прямо на мощностях чипов Nvidia. Позже прикрутили еще Python, MATLAB и другие популярные языки.
Отдельно выделю крайне удачное решение добавить язык Fortran. С одной стороны, этот язык сложно назвать самым популярным для разработки (видели хоть один войтивайтишный курс про Фортран?). С другой стороны, он считается "высоким языком", на котором программисты-ученые любят вести научные изыскания. В том числе, именно Fortran стал одним из ключевых языков для ранних наработок в области искусственного интеллекта и машинного обучения (есть версия, что это вообще первый язык для ИИ).
Таким образом, помимо очевидного стимулирования спроса на чипы, успешный выпуск CUDA, вероятно, стал фундаментом (или хотя бы первым кирпичиком) для лидерства компания в вычислительных мощностях для искусственного интеллекта.
Интересный факт. В 2012 г. прошел ImageNet Large Scale Visual Recognition Challenge - крупный конкурс, где разработчики соревновались, чья технология круче всех распознает разные картинки. Лучший результат показала нейронная модель AlexNet, которая обучалась через мощности графических чипов Nvidia с помощью CUDA. Тогда окончательно стало ясно, что графические чипы в целом и Nvidia в частности ой как пошумят по мере развития ИИ. Кстати, одним из создателей AlexNet был Илья Сутцкевер, который теперь нам известен как сооснователь OpenAI и один из самых важных людей в мире современных технологий.
Молодые Илья Сутцкевер и Алекс Крижевский, а также уже солидный Джеффри Хинтон (один из самых видных ученых в области deep learning) работают над AlexNet.
Этап пятый. Новые вызовы и работа с рисками
В конце 2000-х Nvidia продолжила усиленную диверсификацию. В частности, был куплен Ageia - разработчик движка PhysX, который позволяет моделировать и разрабатывать симуляции физических явлений. PhysX - крайне важная штука для гейминга, которую активно используют Unreal Engine, Unity и другие игровые движки. Он стал весьма важным продуктом для компании.
Однако, к началу 2010-х перед Nvidia встал серьезный вызов - стремительно набирал обороты сегмент интегрированной (внутренней) графики. Это означало, что диверсифицированный крупняк вроде Intel, Sony, Microsoft, Apple и прочих становились гораздо более самостоятельными в плане работе с графическими задачами. Если в 2007 г. Intel контролировал 30% рынка графики, то к началу 2010-х - уже более половины, и продолжал усиливать свои позиции за счет поглощения целой россыпи мелких производителей.
Позиции основного бизнеса Nvidia (дискретных, т.е. "встраиваемых", решений для графики) оказались под серьезной угрозой. К тому же, в 2008 г. Nvidia выпустила большую партию чипов с дефектами, которые отгрузили Apple, Dell, HP и другим крупным ребятам. В итоге Nvidia получила серьезный репутационный ущерб, а еще пришлось раскошелиться на компенсации.
Нужно было что-то менять. В первую очередь - еще активнее диверсифицироваться, чтобы сделать бизнес-модель прочной и устойчивой.
Действовать решили по всем фронтам:
Радикально усилили чипы и прочие вычислительные продукты для игр на ПК и консоли.
Активно пошли в мобильный сегмент. Еще в 2007 г. Nvidia купила разработчика системных чипов PortalPlayer. В 2010-х на основе технологий PortalPlayer была выпущена серия процессоров (не GPU, а полноценных CPU) для мобильных устройств под названием Tegra (их еще называют "кристаллы"). Правда, на мой взгляд, Nvidia слегка промахнулась с операционной системой, ведь большинство Tegra применялось в смарфтонах и планшетах на Windows. Впрочем, это сейчас мы видим, что мобильные потуги Microsoft оказались провалом, а в начале 2010-х это была весьма перспективная история с неплохой долей рынка. Так что, бизнес Nvidia неплохо на этом вырос. Даже CEO Microsoft Сатья Наделла недавно признавался, что сворачивание мобильного бизнеса Microsoft было главной стратегической ошибкой компании.
Nvidia даже отважилась на нетипичный для себя эксперимент - выпустила собственную портативную игровую консоль Nvidia Shield Portable:
Заряженная тем самым процессором Tegra. Работала на ОС Windows.
Вообще, консоль Shield - это крайне нетипичный продукт для Nvidia. Компания всегда отличалась высокой прагматичностью при выборе конфигурации продуктов и оценке будущего спроса, всегда стараясь сделать относительно доступный продукт, который найдет отклик у массовой аудитории. Но тут получилось с точностью до наоборот. Shield стоила дороже аналогов, а игр для неё было крайне мало (хотя Nvidia даже запилила собственную платформу для разработки). Так что, хотя эксперты и игровые издания хвалили консоль за весьма недурную графику и производительность, особой популярности продукт не сыскал. Что ж, видимо, если умеешь производить чипы и процессоры, то не стоит лезть в истории про платформы и пользовательские девайсы.
Еще Nvidia начал активничать в сегменте автомобильной электроники. В том числе, в области начинки для беспилотного управления.
Но про это я расскажу во второй части. Как и про конкуренцию с AMD, качели из-за криптомайнинга, партнерства с китайцами и, собственно, путь к триллионной капитализации за счет лидерства в ИИ в последние годы. Там много интересных историй. А на сегодня хватит.
Если эта статья круто зайдет, то я быстрее сяду за вторую часть. Так что, если вам понравилось, то можете подкинуть мне дополнительной мотивации в виде плюсов, комментов и репостов статьи друзьям.
Если вам заходит такой контент, то подпишитесь на мои тг-каналы. Мне будет приятно, а вы найдете там еще больше подобного:
На своем основном канале Дизраптор я простым человечьим языком разбираю инновации, технологические продукты и знаковые компании (а еще анонсирую все свои статьи, чтобы вы ничего не пропустили).
А на втором канале под названием Фичизм более точечно пишу про новые фичи и функции продвинутых компаний и сервисов.
— 12 ядер с частотой от 3,8 ГГц до 4,3 ГГц — 64-битная архитектура с поддержкой x64 и x86 приложений — интегрированная графика Adreno — встроенный NPU Hexagon в 45 TOPS — техпроцесс 4-нм — LPDDR5X с частотой 8533 МТ/с — 8 каналов памяти — максимальный объём ОЗУ - 64 Гб — пропускная способность памяти 136 ГБ/c — поддержка PCIe 4.0 и PCIe 3.0 — вывод изображения вплоть до 4K/120 — поддержка 10-битного кодирования — поддержка Wi-Fi 6/6E/7 и Bluetooth 5.4
Официальная дата релиза не известна, однако, ожидается что запуск процессоро состоится в 2024 году. Примечателен тот факт что при дальнейшем развитии подобных технологий, ARM способна полностью вытеснить x86 процессоры с рынка ПК бояр.
Краха закона Мура ждут чуть ли не столь же фанатично, как краха доллара, и столь же рьяно его отстаивают "технофанаты", дескать, до сих пор жив курилка, вон на 3 нм вышли и останавливаться не собираются! Но и здесь большинство, как с одной, так и с другой стороны, не вполне понимают, как должен выглядеть этот крах. Крах доллара не в том, что он станет продаваться по курсу 1 рубль/$ или 10 копеек/$, а в том, что всем вообще станет плевать на его курс. Подобным образом и крах закона Мура не в том, что не удастся более плотно "утрамбовывать" транзисторы на кристалл, а в том, что выгоды от дополнительных транзисторов становится всё меньше и меньше...
И если посмотреть под этим ракурсом, становятся понятны капризы компьютерной "моды".
Закон масштабирования Деннарда
Закон Мура гласил, что каждые 2 года количество транзисторов, упихиваемых в чип, будет удваиваться. Сначала темп был чуть выше, потом замедлился, сейчас замедлился ещё сильнее, но худо-бедно пока действует. Закон Деннарда известен куда меньше, вот одна из его формулировок: при переходе на следующий техпроцесс (в 1,5 раза меньше "нанометров"), на ту же площадь получится разместить вдвое больше транзисторов, при этом мы можем поднять тактовую частоту на 40% и остаться при том же тепловыделении на единицу площади! Именно это мы наблюдали поначалу: росли тактовые частоты, но также росли возможности процессоров - с 8- и 16-битных переходили на 32-битные и потом на 64-битные, появлялись всё новые и новые команды: плавающая запятая, всевозможные MMX, 3DNow, SSE, AVX и пр. Компьютер, которому исполнилось хотя бы несколько лет, уже казался безнадёжно устаревшим, поскольку новый был по всем параметрам лучше.
Ещё одним признаком, что закон масштабирования Деннарда был "в деле" - уменьшалось напряжение питания ядра. Когда-то КМОП-логика (она же CMOS) работала от 9 или даже 15 вольт (старые добрые серии 176 и 561), потом напряжение опустили до "ТТЛ-ного" 5 вольт, а затем и 3,3, 2,5, 1,8, вплоть до 1,2. Собственно, энергия, теряемая при переключении одного элемента, равна CU2/2, ёмкость C уменьшали с помощью новых техпроцессов, и они же позволяли снизить питающее напряжение, за счёт всё более и более тонкого диэлектрика при затворе. Именно эта закономерность и позволяла закону Деннарда выполняться.
Но увы, именно здесь быстрее всего упёрлись в предел: если истончить диэлектрик ещё сильнее, уже начинается квантовое туннелирование, затворы начинают невообразимо много потреблять, поэтому пришлось выбрать некоторое компромиссное значение - и на нём остановиться. Дальше напряжения уже практически не падали, из-за чего закон Деннарда приказал долго жить.
Конечный компьютер
Станислав Лем в романе "Фиаско" описал "компьютер поколения, называемого конечным, так как оно достигло теоретического предела мощности":
Границы ее определялись свойствами материи, такими, как постоянная Планка и скорость света. <…> Дилемма конструкторов проистекала из обязательных, но взаимопротиворечивых условий: как можно большее число нейронов заключить в как можно меньший объем. Время прохождения сигналов не должно превышать времени реакции элементов компьютера. В противном случае время прохождения ограничивает скорость расчетов. Новейшие датчики реагировали за одну стомиллиардную долю секунды. Они были размером с атом. Поэтому диаметр компьютера не превышал трех сантиметров. Будь он больше — работал бы медленней.
И по крайней мере, для технологии КМОП, по которой сейчас делается почти вся цифровая электроника, такой предел для одного ядра наступил.
Вот у нас был отличный процессор по старому техпроцессу. Появился новый техпроцесс, и мы можем его же упихать на половину кристалла. Пока действовал закон Деннарда, мы могли сохранить тактовую частоту прежней, понизить напряжение, и мощность на единицу площади даже упадёт, т.е отводить тепло становится только проще. Можно ещё и частоту поднять... Но закон приказал долго жить. Теперь можно лишь ожидать: если по новому техпроцессу изготовить старый процессор, то общая потребляемая мощность немного снизится. Мощность на единицу площади скорее возрастёт, и чтобы микросхема не сгорела, придётся тактовую частоту даже снизить! Можно, конечно, не ужиматься в половину кристалла, а разместить более мелкие транзисторы "как прежде", оставив большие расстояния между ними. Тогда тактовую частоту можно будет поднять, и процессор в какой-то степени ускорится, но на удивление немного! Ведь и дорожки между транзисторами нужно непрерывно укорачивать. Если мы самые классные маленькие транзисторы расставим подальше, ёмкость дорожек съест весь выигрыш!
Поэтому пошли по пути многоядерности: пусть вместо одного мощного и очень прожорливого ядра будет несколько более слабых, при этом общая вычислительная мощь увеличится. Пока работал закон Деннарда, многоядерность была не шибко привлекательна: одно ядро, работающее на максимальной частоте, потребляло бы столько же, сколько и два, работающих на половинной, зато его всегда можно было использовать на 100%, и программировать легко. Многоядерность была нужна не потому, что "её жаждали широкие народные массы", а потому что по-другому повышать быстродействие уже не могли, предельное быстродействие одного ядра практически наступило.
Но и увеличивать количество ядер без конца не имеет смысла, как следует из закона Амдала. Он, грубо говоря, утверждает: если в нашей программе есть 10% кода, который распараллелить не получится, то ставить сильно больше 10 ядер нет никакого смысла, скорость работы будет определяться этим "бутылочным горлышком". А таких горлышек довольно-таки много в реальном коде. Взять хотя бы ввод-вывод - здесь потоки будут "наступать друг другу на пятки". Или чисто последовательные процессы, вроде распаковки сжатого файла, где значение следующего бита становится понятно только после декодирования предыдущих.
Вот и наступила "эпоха тёмного кремния".
Новые техпроцессы позволяют запихать на кристалл миллиарды транзисторов, и они достаточно быстродействующие, чтобы работать на единицах, если не десятках гигагерц, но если мы попытаемся задействовать их все на такой частоте, кристалл мгновенно сгорит, и никакое, даже самое навороченное охлаждение ему не поможет! Поэтому львиная доля этих транзисторов должна оказаться "тёмной", т.е переключаться гораздо реже, чем они могли бы.
В общем-то, уже переход на многоядерность был "первым звоночком". Вместе с ним и тактовые частоты, которые "замерли" на 3 ГГц и поползли назад.
Ясно, что эти "лишние" транзисторы постарались пустить в ход, хотя бы как кэш-память. Память хороша в этом плане, она "тёмная": имеем миллионы транзисторов (мегабайты памяти), но в каждый момент времени записываем или читаем буквально несколько слов, остальные "сидят без дела". Но и здесь есть свои лимиты: с какого-то момента добавление кэш-памяти не сильно улучшает быстродействие.
Тема про тёмный кремний была довольно популярна в 2012..2014 году, писали научные и научно-популярные статьи, "4 всадников" перевели чуть ли не на каждый язык. Предлагалось чуть ли не "с нуля" начать проектирование программно-аппаратных систем, исходя из новой постановки задачи, создавать специализированные ядра, каждое под свою задачу, поскольку универсальные процессоры "родились", когда транзисторы приходилось экономить, а теперь транзисторы "бесплатны", денег стоит потребляемая ими мощность (поскольку вместе с ней растёт и размер кристалла), поэтому десяток узкоспециализированных ядер оказывается лучше одного универсального.
Но потом тема как-то взяла и затихла. Поискать dark silicon в том же ютубе - все лекции и материалы будут 10-летней давности. Именно среди научных статей можно найти и более новые, но по пальцем одной руки сосчитать. Похоже, нашёлся более простой путь развития...
Машинное обучение, нейросети, рейтрейсинг
Если произвольную задачу не удаётся распараллелить до конца, а существенно убыстрить одиночное ядро уже не удаётся, то что же делать? Элементарно: придумать такие задачи, которые на обычных процессорах решаются очень печально, но в которых допустимо массивное распараллеливание! И кто бы мог подумать, такие задачи резко нашлись и начали проталкиваться очень агрессивно. С одного конца, это нейросети. В них множество "параллельных ветвей", которые могут вычисляться независимо друг от друга, на разных ядрах, а вычислений нужна тьма тьмущая, особенно во время "обучения" этих сетей.
Со стороны видеокарт придумали рейтрейсинг. Раньше его применяли только для самых качественных рендеров, выполняемых далеко от реального времени. Но в данную канву он ложится идеально: каждый луч можно рассчитывать независимо от остальных, и рассчитать их нужно МНОГО, чтобы из этого получилось что-то красивое. Как будто снова решение подогнали под ответ.
Тайваньские нанометры
Надо сказать, что и транзисторы уменьшаться, по большому счёту, перестали, нельзя им уменьшаться, начинаются нехорошие квантовые эффекты, утечки и неуправляемость. А когда говорят к переходу к новому техпроцессу, заметно лукавят. По сути, совершенствуется методика "упаковки" транзисторов в стеснённых объёмах. Раньше они "лежали плашмя", потом их поставили на попа (бедный Шлаг, подумал Штирлиц), изгаляются, как могут. По сути, новая цифра техпроцесса означает: "мы смогли вместить на ту же площадь вдвое больше транзисторов", вот и всё. Цифра, как говорится, "маркетинговая".
Итоги
В общем-то, оно и невооружённым глазом заметно: сижу за компьютером 14-летней давности, и он нормально работает, жгучего желания бежать в магазин за новым не испытываю. Когда-то и за год-другой компьютеры успевали "морально устареть". Прогресс пока что продолжается, но "процессорам общего назначения" ловить практически нечего. Все преимущества новых техпроцессов проявляются только при выпуске сильно распараллеленных вычислителей, и, вот же совпадение, именно такие вычисления сейчас "на слуху".
Экстенсивное развитие цифровой техники (больше гигагерц, гигабайт, ядер), пожалуй, завершилось, теперь гораздо больше результатов даёт "вылизывание" имеющегося - более удачные архитектуры, а главное, более заточенные под конкретную задачу. Ну и пора отвыкать от 6-7 уровней абстракции между кодом и "железом", это теперь будет куда выгоднее, чем затариваться самым свежим "железом" - совсем недавно всё было наоборот.