Не так уж и важны ваши чипы, все, кому не лень, их повторяют. Так что тайвань не важен.
Китаю и сша пипец как важен тайвань, там же чипы, которые никто не может повторить, потому бомбить они тайвань не будут, даже что бы поднасрать друг другу.
Автор, ты уж как то определись, тайвань важен, или тайвань не важен? Чипы важны, или всем пох?
Американский стартап Bolt Graphics объявил о завершении tape-out своего первого тестового GPU Zeus. По данным компании и профильных изданий, чип действительно отправлен в производство на мощностях TSMC по техпроцессу 12nm FFC, а значит проект вышел за пределы красивых презентаций и теперь существует в кремнии, а не только в обещаниях. Но важно понимать: речь пока идёт именно о тестовом чипе, а не о готовом массовом продукте.
Bolt Graphics позиционирует Zeus не как обычную игровую видеокарту, а как решение для HPC, ИИ, path tracing, электромагнитных симуляций и рендеринга. В настольных и серверных вариантах компания заявляет до 40 FP16 TFLOPS, до 384 ГБ памяти в отдельных конфигурациях, интерфейсы PCIe 5.0, 400GbE, а также сильный акцент на стоимость вычислений и энергоэффективность. По словам компании, Zeus должен обеспечивать до 17-кратного снижения стоимости вычислений в некоторых сценариях.
Самый громкий маркетинговый тезис — это сравнение с Nvidia RTX 5090. Bolt утверждает, что Zeus сможет обеспечить до 5 раз более высокую производительность в path tracing и до 6 раз в HPC-нагрузках. Но здесь есть главный нюанс: на сегодня эти цифры основаны на внутренних расчётах самой компании, а независимых обзоров и открытых полноценных бенчмарков пока нет. Именно поэтому к таким заявлениям стоит относиться осторожно — особенно учитывая, что массовый выпуск Zeus ожидается только в конце 2027 года.
Глава Nvidia, самой дорогой компании в истории, выходит в эфир к американским сенаторам и говорит, что на одном из крупнейших рынков планеты у его компании 0%. Звучит как сцена капитуляции. Только это не капитуляция, и сейчас объясню, почему.
Дженсен Хуанг дал интервью Special Competitive Studies Project — это бипартийная инициатива американских законодателей, которая занимается долгосрочной конкурентоспособностью США. Цитата дословно: "В Китае мы упали до нуля". И тут же: "Уступать целый рынок размером с Китай, наверное, не имеет большого стратегического смысла, и я считаю, что эта политика уже в значительной степени дала обратный эффект".
Что значит "до нуля". Два года назад у Nvidia в Китае была львиная доля рынка ИИ-ускорителей — порядка 66% по итогам 2024-го. В начале 2026-го аналитики Bernstein давали прогноз падения до 8%. Реальность оказалась хуже любого прогноза: ноль (речь об официальных поставках — по серым каналам продолжают ввозиться какие-то объемы ускорителей, но учесть их сложно).
Освободившееся место заняли местные. Huawei с серией Ascend, Cambricon, Moore Threads, MetaX — все пилят свое железо и софт. Китайские дата-центры по госзаказу теперь обязаны брать домашние чипы. Последний рубеж, который у американцев пока держится — это CUDA, программный стек Nvidia, на котором сидит почти вся мировая ИИ-разработка. Все остальное Китай уже продублировал.
И вот здесь — самое интересное. Зачем Хуанг это вообще говорит. Дело в том, что пока Китай покупал Nvidia, он сидел в американской ИИ-экосистеме. Перестал покупать — за пару лет почти построил свою. Хуанг сейчас давит на Вашингтон, чтобы тот опомнился. Только давит он не из жадности — выручка у Nvidia и без Китая рекордная. Он давит, потому что видит, что американский стандарт перестает быть мировым по умолчанию.
Параллельно с этим американские сенаторы давят с другой стороны — хотят полностью закрыть оставшиеся лицензии и обрубить даже урезанные H200. Хуанг между двух огней. Его публичное "ноль процентов" — это, по сути, способ сказать политикам в Вашингтоне: ребята, вы добились ровно того, чего боялись.
Через год эта речь будет уже не про Китай. Она будет про Ближний Восток и Юго-Восточную Азию — там разворачивается следующий раунд той же игры. И решится она не тем, у кого чипы быстрее. А тем, чей программный стек выберут разработчики в Эр-Рияде, Джакарте и Сингапуре. Чипы можно догнать за два-три года. Стандарт — нет.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
30 апреля Reuters опубликовал эксклюзив: новейший AI-сервер Nvidia B300 в Китае стоит около миллиона долларов. В США тот же сервер уходит за $550 000 — почти вдвое дешевле. И вся эта история — про термопистолет за тридцать баксов, плачущие эмодзи в смс и 71-летнего сооснователя Supermicro, который теперь под судом и сидит на залоге $5 млн.
Знакомьтесь: Уолли Ляо. Создал Supermicro в 1993 году, держал в компании акций на $464 млн, заседал в совете директоров. 19 марта 2026 года его арестовали федералы. По версии обвинения, Ляо вместе с двумя подельниками — гендиром тайваньского отделения Стивеном Чаном (сейчас в бегах) и контрактором-"фиксером" Вилли Саном — в 2024-2025 годах пропустили в Китай серверов на $2,5 млрд. Внутри стояли чипы Nvidia Blackwell, которые с 2022-го запрещено поставлять в Поднебесную.
Схема была элегантной до неприличия. Подставная компания в Юго-Восточной Азии оформляла заказ якобы для собственных нужд. Серверы собирали в США, везли через тайваньские склады Supermicro, потом передавали "клиенту" в ЮВА, а тот в безымянных коробках отправлял все это в Китай. Подставная фирма, к слову, выросла до 11-го по прибыльности клиента Supermicro — $99,7 млн выручки за один квартал.
И тут начинается лучшая часть. Чтобы обмануть аудиторов, заговорщики держали в Юго-Восточной Азии тысячи пустых серверов-"кукол". Когда приходила проверка, надо было показать "те самые" серверы с правильными серийниками. Решение нашли простое: термопистолетом нагревали наклейки с серийными номерами на настоящих серверах, аккуратно отлепляли и переклеивали на куклы. Реальное железо ехало в Китай, аудиторы фотографировали пустышки. Видео с камер на тайваньском складе, где работники с фенами в руках занимаются этой ботаникой, прокуратура показала в суде.
И еще одна деталь, без которой история была бы не та. Когда коллегу-брокера в Китае арестовали за такую же контрабанду, Ляо в смс ответил тремя плачущими эмодзи. Прокуратура подшила переписку к делу — теперь эти эмодзи фигурируют в материалах Манхэттенского окружного суда.
Дальше — самое интересное. Акции Supermicro упали на 33% за день, $6 млрд капитализации испарилось. Ляо ушел из совета директоров и виновным себя не признал. А цены на B300 в Китае с конца прошлого года выросли с 4 до 7 миллионов юаней. Серый канал перекрыт — китайские компании теперь стоят в очереди и платят вдвое больше, потому что нужно срочно. Парадоксально, но санкции в каком-то смысле сработали наоборот: схема Ляо два года качала чипы в Китай, а после ее закрытия Китай не остался без серверов — просто платит вдвое больше за те же мощности.
Получается странная картина. Самый защищенный экспортный режим планеты обходили термопистолетом за тридцать баксов. Когда обход накрыли, рынок не закрылся, а просто перешел из серой зоны в очень дорогую серую зону. И где-то в этой истории есть мораль, но какая — пока непонятно.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
🔊 Текущий кризис на рынке DRAM привел к существенному росту выручки производителей памяти. Об этом сообщает портал Wccftech со ссылкой на тайваньское издание Ctee.
🪙 ADATA зафиксировала в первом квартале 17-кратный рост прибыли в годовом исчислении. CEO компании считает, что результаты первого квартала являются лишь отправной точкой для дальнейшего роста прибыли, рынок вступил в новую эру долгосрочного дефицита предложения. Из-за этого он ожидает, что текущая динамика цен и спроса сохранится как минимум до конца года.
💸 Помимо этого о рекордных показателях выручки отчитались такие фирмы, как Macronix, Apacer, Team Group и Nanya Tech. Согласно данным Ctee, данные производители заработали за первый квартал 2026 года больше, чем за весь прошлый год. Этому поспособствовал рекордный рост цен на микросхемы DRAM и NAND, вызванный ажиотажем вокруг ИИ.
🔊 Многие производители уже уведомили своих партнеров о повышении стоимости своей продукции во втором квартале 2026 года.
Ноу-хау и технологическая революция таинственного стартапа Majestic Labs
CEO компании Majestic Labs Офер Шахам. Фото: снимок экрана/YouTube-канал Semafor
Израильская компания Majestic Lab, принадлежащая Оферу Шахаму (ранее занимавшему руководящие должности в Meta и Google) и его американским партнерам, впервые раскрывает технологию, лежащую в основе производства чипов. • Вот как она преодолевает проблемы в секторе памяти, что позволит ее клиентам предоставлять более эффективные услуги в области искусственного интеллекта
Компания Majestic Labs в последние месяцы считается одной из самых загадочных и интригующих компаний, работающих в Израиле. Она была основана командой бывших топ-менеджеров инженерных отделов Google и Meta и привлекла 100 миллионов долларов, обещая разработать сервер искусственного интеллекта, который превзойдет Nvidia по эффективности каждой операции обработки ИИ (цена за токен, или «токен»).
Генеральный директор Офер Шахам, основавший лабораторию по разработке чипов Meta по приглашению Марка Цукерберга, до 28 апреля не раскрывал, как компания будет конкурировать с Nvidia. В своем первом заявлении израильским СМИ Шахам объясняет, что стоит за созданием сервера, призванного решить одну из самых больших проблем серверов искусственного интеллекта таких компаний, как Nvidia и AMD, — острую нехватку памяти.
Офер Шахам и его соучредители — американцы Шах Рави и Масуми Рейндс — не удовлетворились разработкой нового графического процессора, а решили создать совершенно новый сервер под названием «Прометей», исходя из предположения, что именно с него начинается устранение узкого места в обработке данных для искусственного интеллекта.
Каждый сервер израильской компании оснащен микросхемами памяти, которые обеспечивают в 100 раз больший объем памяти, чем стандартный сервер NVIDIA с процессорами Blackwell (B200).
Благодаря структуре, позволяющей каждому процессору расширенный доступ к памяти, объем памяти, доступный процессорам Majestic Labs, составляет 128 терабайт, но архитектура сервера — способ подключения основных компонентов памяти к различным микросхемам — фактически обеспечивает в тысячу раз больший объем памяти, чем средний процессор NVIDIA Blackwell, объем которого оценивается всего примерно в 192 гигабайта.
Шахам не раскрывает, какой именно тип памяти используется, но признает, что это не тот тип памяти, который обычно применяется в процессорах Nvidia — высокоскоростная память (HBM).
По оценкам, компания закупает компоненты памяти у трех крупнейших производителей микросхем памяти: Micron, Samsung и SK Hynix.
Вместо графических процессоров Nvidia, Majestic Labs предлагает собственные процессоры под названием «Ignite», или сокращенно AIU. Они были разработаны на основе интеллектуальной собственности ARM, оригинальной разработки Majestic и открытой платформы RISC-5 (RISC-V), которая позволяет выполнять и планировать вычислительные операции искусственного интеллекта таким образом, чтобы они соответствовали требованиям различных компаний.
Поскольку контроль Nvidia проявляется не только в поставках графических процессоров, но и в контроле над операционной системой искусственного интеллекта CUDA, процессоры AIU были разработаны для того, чтобы позволить программистам ИИ разрабатывать приложения на таких языках, как PyTorch, язык разработки, принятый экспертами по ИИ в среде Nvidia, и на операционной системе Triton от OpenAI, которая стала главным конкурентом CUDA, несмотря на то, что Nvidia недавно стала одним из крупнейших спонсоров OpenAI.
По словам генерального директора, новая архитектура Majestic Labs устраняет необходимость в значительном приобретении коммуникационных процессоров — роль, которую ранее выполняли процессоры Mellanox в серверах Nvidia.
«Нам не нужна связь между процессорами, потому что она осуществляется через память, как это происходит в стандартных вычислениях — например, связь между ядрами в обычном процессоре Core», — говорит Шахам. «Необходимость в таком количестве коммуникационных чипов в серверной ферме возникла из-за небольшого объема памяти, выделенного каждому процессору Nvidia. Это заставляет процессоры взаимодействовать друг с другом».
«Именно поэтому, чтобы обеспечить стабильную работу одного сервера, Nvidia пришлось создать дорогостоящую гибридную машину — 72-процессорную серверную стойку с высокоскоростной связью между ними (премиальный сервер Nvidia под названием NVLink-AG), — но из-за неэффективности их работы они очень быстро достигают максимального объема памяти, который могут обрабатывать, и ждут поступления данных, а тем временем простаивают.
А с увеличением количества параметров периферийных моделей, выпускаемых такими компаниями, как Anthropic, OpenAI и Gemini, компании вынуждены приобретать все больше и больше серверов, чтобы обеспечить эту огромную вычислительную мощность»
«Модели с расширенными функциями, такие как от Gemini или GPT, с трудом справляются с памятью даже 10 графических процессоров, поэтому для их работы требуются целые серверные стойки с 72 процессорами Nvidia, которые, как считается, способны обрабатывать самые мощные модели».
«Однако Дженсен Хуанг недавно представил слайд, на котором видно, что даже в таком масштабе модели уже испытывают трудности с прохождением тестов, и что уже при 400 000 токенов (токены — базовая единица обработки ИИ-AG) наблюдается спад, не говоря уже о моделях с 5 триллионами параметров, которые будут запущены к концу года или началу следующего года».
«Необходимость встраивать такое количество графических процессоров для обработки этих моделей диктует экспоненциально растущее и нерациональное энергопотребление. Затем достигается предел памяти, известный в отрасли как «стена памяти», и процессоры половину времени простаивают, потребляя энергию и ожидая поступления данных. В результате получается небольшая отдача и растущее энергопотребление с каждым добавленным графическим чипом — дело не только в нехватке памяти, это просто архитектурная проблема в модели, в которой сегодня работает искусственный интеллект».
Значит ли это, что вы будете продавать серверы, которые будут дешевле, чем серверы Nvidia?
«Мы конкурируем не по цене за вычислительный блок, а по цене за результат — по стоимости за токен. Мы предлагаем «машину», способную производить в 10–50 раз больше «токенов» на мегаватт на каждый доллар, вложенный в строительство серверной фермы».
«У меня есть клиент, который сейчас строит серверную ферму с потребляемой мощностью 500 мегаватт. Он спрашивает меня не столько о стоимости сервера, сколько о том, сколько токенов он сможет продать за мегаватт, и я знаю, как предложить ему цену в 50 раз выше рыночной. Предложение более дешевого продукта в данном случае не обязательно является для нас устойчивой моделью, именно так начинается «гонка на выживание». У меня нет ценового преимущества перед Nvidia, потому что здесь также играет роль объем, и они могут поставлять большие объемы по низкой цене и предоставлять скидки. Мы же хотим продавать наш продукт с хорошей прибылью»
По словам Шахама, серверы и чипы Majestic созданы в первую очередь для вывода информации и работы агентов, а не для обучения моделей, хотя их можно адаптировать и для этих целей. Компания фокусируется на языковых моделях и нейронных сетях на основе графов или таблиц, и в меньшей степени на моделях изображений и видео.
Когда вы начнете продавать серверы и процессоры?
«Мы уже работаем с несколькими клиентами на этапе создания прототипов, но готовая продукция будет отправлена нашим первым клиентам в следующем году. Мы уже принимаем заказы и работаем с несколькими клиентами, чтобы лучше адаптировать наш продукт к их потребностям».
Компания, доказавшая своим клиентам, скорее всего, облачным гигантам, что она может повысить эффективность обработки моделей ИИ в 50 раз, — это звучит как очень привлекательный актив для таких компаний, как Nvidia или одного из облачных гигантов. Получали ли вы какие-либо предложения о приобретении?
«Недавно меня спросили: мы создаём продукт или продуктом является компания? Ответ прост: мы создаём продукт — я создавал такие продукты для Google, для Meta, первые процессоры для DARPA (Американского агентства перспективных оборонных исследований). Наша цель — создать продукт, способный решать проблемы целых отраслей».
«Конечно, на этом пути могут возникнуть непредвиденные обстоятельства, но наша цель — создать продукт, который понравится нашим клиентам — компаниям, создающим серверные фермы для обработки данных с использованием ИИ, — который улучшит их энергопотребление и, как следствие, позволит значительно сэкономить на энергозатратах, запланированных на долгосрочную перспективу.
Нам пришлось оставить работу в технологических гигантах, чтобы понять, в чем заключаются узкие места, и они возникли гораздо быстрее, чем мы предполагали. Когда мы основали компанию два с половиной года назад, мы говорили, что проблема с памятью станет самой большой головной болью в отрасли, сегодня она в десять раз хуже, чем мы думали на данном этапе».
Nvidia официально представила Ising — первую открытую платформу AI-моделей, созданную специально для ускорения развития полезных квантовых компьютеров. Речь идёт не о самом квантовом процессоре, а об инструментах, которые должны помочь в двух ключевых задачах: калибровке квантовых чипов и декодировании квантовой коррекции ошибок. Именно эти задачи сегодня считаются одними из самых сложных на пути к практическим квантовым вычислениям.
В состав платформы входят два основных направления. Ising Calibration — это модель визуально-языковой обработки, которая помогает быстрее интерпретировать измерения квантовых процессоров и автоматизировать их калибровку. Nvidia утверждает, что это может сократить время настройки системы с дней до часов. Вторая часть — Ising Decoding: две версии 3D-сверточной нейросети, оптимизированные либо на скорость, либо на точность для работы с квантовой коррекцией ошибок в реальном времени. По заявлению компании, эти модели показывают результат до 2,5 раза быстрее и до 3 раз точнее, чем pyMatching, который сейчас считается одним из открытых отраслевых стандартов.
Для Nvidia это ещё и стратегический ход в сторону квантовой индустрии. Модели Ising доступны как pre-trained и сопровождаются данными, инструментами и рекомендациями для дообучения и развёртывания. При этом они тесно завязаны на экосистему Nvidia — CUDA-Q, GPU и сопутствующую инфраструктуру. То есть компания не строит собственный квантовый компьютер, но активно становится одним из главных поставщиков вычислительных и AI-инструментов для тех, кто их создаёт.
NVIDIA представила открытую мультимодальную модель Nemotron 3 Nano Omni: она принимает текст, изображения, аудио, видео и документы, отвечает текстом и построена на гибридной MoE-архитектуре 30B-A3B с контекстом 256K токенов.
😄 Главная идея - заменить связку из отдельных speech-, vision- и language-моделей единым контуром.