Google представила AI Hypercomputer — новую AI-оптимизированную инфраструктуру, которую сама компания фактически выделяет в отдельную категорию вычислительных систем. Важно понимать: речь идёт не об одном физическом суперкомпьютере, а о цельном инфраструктурном стеке, собранном из собственного железа, сетей, виртуальных машин, storage-решений и программной оркестрации. По словам Google, именно эта база лежит в основе Gemini, потребительских AI-сервисов и корпоративных продуктов компании.
В состав AI Hypercomputer входят новые TPU 8t и TPU 8i, инстансы A5X на базе NVIDIA Vera Rubin NVL72, Axion N4A VMs на собственных Arm-процессорах Axion, обновлённые Compute Engine VMs на Intel и AMD, датацентровая ткань Virgo Network, Managed Lustre, Rapid Buckets, Z4M и новые возможности GKE для агентных AI-нагрузок. Google позиционирует всё это как единую систему для разработки моделей, reasoning, reinforcement learning, инференса и оркестрации сложных агентных workflows.
Некоторые цифры выглядят особенно громко. TPU 8t в одном superpod может объединять 9600 чипов и выдавать 121 exaflops, а Virgo Network позволяет связать до 134 000 TPU в одном дата-центре и более 1 миллиона TPU в распределённом кластере. Для GPU-инфраструктуры Google заявляет поддержку до 80 000 GPU в одном дата-центре и до 960 000 GPU между несколькими площадками. Всё это подаётся как ответ на новую эпоху agentic AI, где одна задача может запускать целую цепочку специализированных агентов с высоким требованием к памяти, задержкам и сетевой связанности.
Google также делает акцент на эффективности. TPU 8i, по заявлению компании, обеспечивает на 80% лучшую производительность на доллар для инференса, чем предыдущее поколение. Managed Lustre теперь даёт до 10 TB/s пропускной способности, а новый Inference Gateway в GKE снижает time-to-first-token более чем на 70% без ручной настройки. То есть AI Hypercomputer — это не просто “больше железа”, а попытка Google показать, что будущее ИИ — в глубоко интегрированной инфраструктуре, а не в разрозненных компонентах.
Представьте: AI научился читать рентгеновские снимки лучше врача. Радиолог увольняется? По логике "роботы пришли" — да. По логике Дженсена Хуанга, главы Nvidia, — нет. Потому что радиолог не просто читает снимки. Он лечит пациентов.
Эту мысль Хуанг сделал главной в речи перед выпускниками Карнеги-Меллон в воскресенье. Под дождем, в академической мантии, перед тысячами студентов на стадионе в Питтсбурге. И прежде чем перейти к AI, он попросил зал поздравить мам — в США церемония выпала ровно на День матери.
Главный тезис у Хуанга простой. У каждой профессии есть задача и есть цель. Задача — то, что вы физически делаете. Цель — зачем это нужно. AI забирает задачу, но не цель.
У радиолога задача — расшифровать снимок. Цель — поставить диагноз и помочь конкретному человеку. Снимок прочитает модель. А "помочь конкретному человеку" — это про разговор, доверие, ответственность за решение. И тут AI пасует.
Дальше Хуанг развернул эту логику не только на белых воротничков. В его речи отдельно прозвучали электрики, сантехники, монтажники, техники — то есть профессии, которые в дискуссиях про AI обычно вообще не упоминают. По Хуангу, AI должен дойти до всех, "не до избранных". Это, конечно, удобная риторика для главы компании, которая продает "лопаты" всей экономике. Но логика "задача vs цель" работает и здесь: сантехник не просто меняет трубу — он отвечает за то, чтобы у вас не залило соседей.
Карнеги-Меллон Хуанг выбрал не случайно. Он напомнил, что именно здесь в 1950-х написали Logic Theorist — программу, которую считают первой AI-программой в истории. А в 1979 году тут открыли первый в мире академический Институт робототехники. Хуангу за выступление вручили почетную степень доктора наук и технологий — одну из высших наград университета.
Формула "задача vs цель" красивая. Но у нее есть слабое место. Она работает там, где между задачей и целью есть зазор: радиолог-пациент, сантехник-соседи, инженер-объект. А если у профессии задача и есть цель? Копирайтер пишет текст. Цель копирайтера — написать текст. Иллюстратор рисует картинку. Цель иллюстратора — нарисовать картинку. Здесь "AI заберет задачу, оставит цель" может превратиться в "AI заберет все".
Где именно проходит эта граница — главный вопрос ближайших лет. И чтобы ее видеть в своей профессии, надо понимать, как AI устроен изнутри: что он реально делает, а где имитирует. Я веду на Boosty курс про это — с нуля, для тех, кто не хочет верить ни Хуангу, ни алармистам на слово.
Не так уж и важны ваши чипы, все, кому не лень, их повторяют. Так что тайвань не важен.
Китаю и сша пипец как важен тайвань, там же чипы, которые никто не может повторить, потому бомбить они тайвань не будут, даже что бы поднасрать друг другу.
Автор, ты уж как то определись, тайвань важен, или тайвань не важен? Чипы важны, или всем пох?
Американский стартап Bolt Graphics объявил о завершении tape-out своего первого тестового GPU Zeus. По данным компании и профильных изданий, чип действительно отправлен в производство на мощностях TSMC по техпроцессу 12nm FFC, а значит проект вышел за пределы красивых презентаций и теперь существует в кремнии, а не только в обещаниях. Но важно понимать: речь пока идёт именно о тестовом чипе, а не о готовом массовом продукте.
Bolt Graphics позиционирует Zeus не как обычную игровую видеокарту, а как решение для HPC, ИИ, path tracing, электромагнитных симуляций и рендеринга. В настольных и серверных вариантах компания заявляет до 40 FP16 TFLOPS, до 384 ГБ памяти в отдельных конфигурациях, интерфейсы PCIe 5.0, 400GbE, а также сильный акцент на стоимость вычислений и энергоэффективность. По словам компании, Zeus должен обеспечивать до 17-кратного снижения стоимости вычислений в некоторых сценариях.
Самый громкий маркетинговый тезис — это сравнение с Nvidia RTX 5090. Bolt утверждает, что Zeus сможет обеспечить до 5 раз более высокую производительность в path tracing и до 6 раз в HPC-нагрузках. Но здесь есть главный нюанс: на сегодня эти цифры основаны на внутренних расчётах самой компании, а независимых обзоров и открытых полноценных бенчмарков пока нет. Именно поэтому к таким заявлениям стоит относиться осторожно — особенно учитывая, что массовый выпуск Zeus ожидается только в конце 2027 года.
Глава Nvidia, самой дорогой компании в истории, выходит в эфир к американским сенаторам и говорит, что на одном из крупнейших рынков планеты у его компании 0%. Звучит как сцена капитуляции. Только это не капитуляция, и сейчас объясню, почему.
Дженсен Хуанг дал интервью Special Competitive Studies Project — это бипартийная инициатива американских законодателей, которая занимается долгосрочной конкурентоспособностью США. Цитата дословно: "В Китае мы упали до нуля". И тут же: "Уступать целый рынок размером с Китай, наверное, не имеет большого стратегического смысла, и я считаю, что эта политика уже в значительной степени дала обратный эффект".
Что значит "до нуля". Два года назад у Nvidia в Китае была львиная доля рынка ИИ-ускорителей — порядка 66% по итогам 2024-го. В начале 2026-го аналитики Bernstein давали прогноз падения до 8%. Реальность оказалась хуже любого прогноза: ноль (речь об официальных поставках — по серым каналам продолжают ввозиться какие-то объемы ускорителей, но учесть их сложно).
Освободившееся место заняли местные. Huawei с серией Ascend, Cambricon, Moore Threads, MetaX — все пилят свое железо и софт. Китайские дата-центры по госзаказу теперь обязаны брать домашние чипы. Последний рубеж, который у американцев пока держится — это CUDA, программный стек Nvidia, на котором сидит почти вся мировая ИИ-разработка. Все остальное Китай уже продублировал.
И вот здесь — самое интересное. Зачем Хуанг это вообще говорит. Дело в том, что пока Китай покупал Nvidia, он сидел в американской ИИ-экосистеме. Перестал покупать — за пару лет почти построил свою. Хуанг сейчас давит на Вашингтон, чтобы тот опомнился. Только давит он не из жадности — выручка у Nvidia и без Китая рекордная. Он давит, потому что видит, что американский стандарт перестает быть мировым по умолчанию.
Параллельно с этим американские сенаторы давят с другой стороны — хотят полностью закрыть оставшиеся лицензии и обрубить даже урезанные H200. Хуанг между двух огней. Его публичное "ноль процентов" — это, по сути, способ сказать политикам в Вашингтоне: ребята, вы добились ровно того, чего боялись.
Через год эта речь будет уже не про Китай. Она будет про Ближний Восток и Юго-Восточную Азию — там разворачивается следующий раунд той же игры. И решится она не тем, у кого чипы быстрее. А тем, чей программный стек выберут разработчики в Эр-Рияде, Джакарте и Сингапуре. Чипы можно догнать за два-три года. Стандарт — нет.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
30 апреля Reuters опубликовал эксклюзив: новейший AI-сервер Nvidia B300 в Китае стоит около миллиона долларов. В США тот же сервер уходит за $550 000 — почти вдвое дешевле. И вся эта история — про термопистолет за тридцать баксов, плачущие эмодзи в смс и 71-летнего сооснователя Supermicro, который теперь под судом и сидит на залоге $5 млн.
Знакомьтесь: Уолли Ляо. Создал Supermicro в 1993 году, держал в компании акций на $464 млн, заседал в совете директоров. 19 марта 2026 года его арестовали федералы. По версии обвинения, Ляо вместе с двумя подельниками — гендиром тайваньского отделения Стивеном Чаном (сейчас в бегах) и контрактором-"фиксером" Вилли Саном — в 2024-2025 годах пропустили в Китай серверов на $2,5 млрд. Внутри стояли чипы Nvidia Blackwell, которые с 2022-го запрещено поставлять в Поднебесную.
Схема была элегантной до неприличия. Подставная компания в Юго-Восточной Азии оформляла заказ якобы для собственных нужд. Серверы собирали в США, везли через тайваньские склады Supermicro, потом передавали "клиенту" в ЮВА, а тот в безымянных коробках отправлял все это в Китай. Подставная фирма, к слову, выросла до 11-го по прибыльности клиента Supermicro — $99,7 млн выручки за один квартал.
И тут начинается лучшая часть. Чтобы обмануть аудиторов, заговорщики держали в Юго-Восточной Азии тысячи пустых серверов-"кукол". Когда приходила проверка, надо было показать "те самые" серверы с правильными серийниками. Решение нашли простое: термопистолетом нагревали наклейки с серийными номерами на настоящих серверах, аккуратно отлепляли и переклеивали на куклы. Реальное железо ехало в Китай, аудиторы фотографировали пустышки. Видео с камер на тайваньском складе, где работники с фенами в руках занимаются этой ботаникой, прокуратура показала в суде.
И еще одна деталь, без которой история была бы не та. Когда коллегу-брокера в Китае арестовали за такую же контрабанду, Ляо в смс ответил тремя плачущими эмодзи. Прокуратура подшила переписку к делу — теперь эти эмодзи фигурируют в материалах Манхэттенского окружного суда.
Дальше — самое интересное. Акции Supermicro упали на 33% за день, $6 млрд капитализации испарилось. Ляо ушел из совета директоров и виновным себя не признал. А цены на B300 в Китае с конца прошлого года выросли с 4 до 7 миллионов юаней. Серый канал перекрыт — китайские компании теперь стоят в очереди и платят вдвое больше, потому что нужно срочно. Парадоксально, но санкции в каком-то смысле сработали наоборот: схема Ляо два года качала чипы в Китай, а после ее закрытия Китай не остался без серверов — просто платит вдвое больше за те же мощности.
Получается странная картина. Самый защищенный экспортный режим планеты обходили термопистолетом за тридцать баксов. Когда обход накрыли, рынок не закрылся, а просто перешел из серой зоны в очень дорогую серую зону. И где-то в этой истории есть мораль, но какая — пока непонятно.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
🔊 Текущий кризис на рынке DRAM привел к существенному росту выручки производителей памяти. Об этом сообщает портал Wccftech со ссылкой на тайваньское издание Ctee.
🪙 ADATA зафиксировала в первом квартале 17-кратный рост прибыли в годовом исчислении. CEO компании считает, что результаты первого квартала являются лишь отправной точкой для дальнейшего роста прибыли, рынок вступил в новую эру долгосрочного дефицита предложения. Из-за этого он ожидает, что текущая динамика цен и спроса сохранится как минимум до конца года.
💸 Помимо этого о рекордных показателях выручки отчитались такие фирмы, как Macronix, Apacer, Team Group и Nanya Tech. Согласно данным Ctee, данные производители заработали за первый квартал 2026 года больше, чем за весь прошлый год. Этому поспособствовал рекордный рост цен на микросхемы DRAM и NAND, вызванный ажиотажем вокруг ИИ.
🔊 Многие производители уже уведомили своих партнеров о повышении стоимости своей продукции во втором квартале 2026 года.
Ноу-хау и технологическая революция таинственного стартапа Majestic Labs
CEO компании Majestic Labs Офер Шахам. Фото: снимок экрана/YouTube-канал Semafor
Израильская компания Majestic Lab, принадлежащая Оферу Шахаму (ранее занимавшему руководящие должности в Meta и Google) и его американским партнерам, впервые раскрывает технологию, лежащую в основе производства чипов. • Вот как она преодолевает проблемы в секторе памяти, что позволит ее клиентам предоставлять более эффективные услуги в области искусственного интеллекта
Компания Majestic Labs в последние месяцы считается одной из самых загадочных и интригующих компаний, работающих в Израиле. Она была основана командой бывших топ-менеджеров инженерных отделов Google и Meta и привлекла 100 миллионов долларов, обещая разработать сервер искусственного интеллекта, который превзойдет Nvidia по эффективности каждой операции обработки ИИ (цена за токен, или «токен»).
Генеральный директор Офер Шахам, основавший лабораторию по разработке чипов Meta по приглашению Марка Цукерберга, до 28 апреля не раскрывал, как компания будет конкурировать с Nvidia. В своем первом заявлении израильским СМИ Шахам объясняет, что стоит за созданием сервера, призванного решить одну из самых больших проблем серверов искусственного интеллекта таких компаний, как Nvidia и AMD, — острую нехватку памяти.
Офер Шахам и его соучредители — американцы Шах Рави и Масуми Рейндс — не удовлетворились разработкой нового графического процессора, а решили создать совершенно новый сервер под названием «Прометей», исходя из предположения, что именно с него начинается устранение узкого места в обработке данных для искусственного интеллекта.
Каждый сервер израильской компании оснащен микросхемами памяти, которые обеспечивают в 100 раз больший объем памяти, чем стандартный сервер NVIDIA с процессорами Blackwell (B200).
Благодаря структуре, позволяющей каждому процессору расширенный доступ к памяти, объем памяти, доступный процессорам Majestic Labs, составляет 128 терабайт, но архитектура сервера — способ подключения основных компонентов памяти к различным микросхемам — фактически обеспечивает в тысячу раз больший объем памяти, чем средний процессор NVIDIA Blackwell, объем которого оценивается всего примерно в 192 гигабайта.
Шахам не раскрывает, какой именно тип памяти используется, но признает, что это не тот тип памяти, который обычно применяется в процессорах Nvidia — высокоскоростная память (HBM).
По оценкам, компания закупает компоненты памяти у трех крупнейших производителей микросхем памяти: Micron, Samsung и SK Hynix.
Вместо графических процессоров Nvidia, Majestic Labs предлагает собственные процессоры под названием «Ignite», или сокращенно AIU. Они были разработаны на основе интеллектуальной собственности ARM, оригинальной разработки Majestic и открытой платформы RISC-5 (RISC-V), которая позволяет выполнять и планировать вычислительные операции искусственного интеллекта таким образом, чтобы они соответствовали требованиям различных компаний.
Поскольку контроль Nvidia проявляется не только в поставках графических процессоров, но и в контроле над операционной системой искусственного интеллекта CUDA, процессоры AIU были разработаны для того, чтобы позволить программистам ИИ разрабатывать приложения на таких языках, как PyTorch, язык разработки, принятый экспертами по ИИ в среде Nvidia, и на операционной системе Triton от OpenAI, которая стала главным конкурентом CUDA, несмотря на то, что Nvidia недавно стала одним из крупнейших спонсоров OpenAI.
По словам генерального директора, новая архитектура Majestic Labs устраняет необходимость в значительном приобретении коммуникационных процессоров — роль, которую ранее выполняли процессоры Mellanox в серверах Nvidia.
«Нам не нужна связь между процессорами, потому что она осуществляется через память, как это происходит в стандартных вычислениях — например, связь между ядрами в обычном процессоре Core», — говорит Шахам. «Необходимость в таком количестве коммуникационных чипов в серверной ферме возникла из-за небольшого объема памяти, выделенного каждому процессору Nvidia. Это заставляет процессоры взаимодействовать друг с другом».
«Именно поэтому, чтобы обеспечить стабильную работу одного сервера, Nvidia пришлось создать дорогостоящую гибридную машину — 72-процессорную серверную стойку с высокоскоростной связью между ними (премиальный сервер Nvidia под названием NVLink-AG), — но из-за неэффективности их работы они очень быстро достигают максимального объема памяти, который могут обрабатывать, и ждут поступления данных, а тем временем простаивают.
А с увеличением количества параметров периферийных моделей, выпускаемых такими компаниями, как Anthropic, OpenAI и Gemini, компании вынуждены приобретать все больше и больше серверов, чтобы обеспечить эту огромную вычислительную мощность»
«Модели с расширенными функциями, такие как от Gemini или GPT, с трудом справляются с памятью даже 10 графических процессоров, поэтому для их работы требуются целые серверные стойки с 72 процессорами Nvidia, которые, как считается, способны обрабатывать самые мощные модели».
«Однако Дженсен Хуанг недавно представил слайд, на котором видно, что даже в таком масштабе модели уже испытывают трудности с прохождением тестов, и что уже при 400 000 токенов (токены — базовая единица обработки ИИ-AG) наблюдается спад, не говоря уже о моделях с 5 триллионами параметров, которые будут запущены к концу года или началу следующего года».
«Необходимость встраивать такое количество графических процессоров для обработки этих моделей диктует экспоненциально растущее и нерациональное энергопотребление. Затем достигается предел памяти, известный в отрасли как «стена памяти», и процессоры половину времени простаивают, потребляя энергию и ожидая поступления данных. В результате получается небольшая отдача и растущее энергопотребление с каждым добавленным графическим чипом — дело не только в нехватке памяти, это просто архитектурная проблема в модели, в которой сегодня работает искусственный интеллект».
Значит ли это, что вы будете продавать серверы, которые будут дешевле, чем серверы Nvidia?
«Мы конкурируем не по цене за вычислительный блок, а по цене за результат — по стоимости за токен. Мы предлагаем «машину», способную производить в 10–50 раз больше «токенов» на мегаватт на каждый доллар, вложенный в строительство серверной фермы».
«У меня есть клиент, который сейчас строит серверную ферму с потребляемой мощностью 500 мегаватт. Он спрашивает меня не столько о стоимости сервера, сколько о том, сколько токенов он сможет продать за мегаватт, и я знаю, как предложить ему цену в 50 раз выше рыночной. Предложение более дешевого продукта в данном случае не обязательно является для нас устойчивой моделью, именно так начинается «гонка на выживание». У меня нет ценового преимущества перед Nvidia, потому что здесь также играет роль объем, и они могут поставлять большие объемы по низкой цене и предоставлять скидки. Мы же хотим продавать наш продукт с хорошей прибылью»
По словам Шахама, серверы и чипы Majestic созданы в первую очередь для вывода информации и работы агентов, а не для обучения моделей, хотя их можно адаптировать и для этих целей. Компания фокусируется на языковых моделях и нейронных сетях на основе графов или таблиц, и в меньшей степени на моделях изображений и видео.
Когда вы начнете продавать серверы и процессоры?
«Мы уже работаем с несколькими клиентами на этапе создания прототипов, но готовая продукция будет отправлена нашим первым клиентам в следующем году. Мы уже принимаем заказы и работаем с несколькими клиентами, чтобы лучше адаптировать наш продукт к их потребностям».
Компания, доказавшая своим клиентам, скорее всего, облачным гигантам, что она может повысить эффективность обработки моделей ИИ в 50 раз, — это звучит как очень привлекательный актив для таких компаний, как Nvidia или одного из облачных гигантов. Получали ли вы какие-либо предложения о приобретении?
«Недавно меня спросили: мы создаём продукт или продуктом является компания? Ответ прост: мы создаём продукт — я создавал такие продукты для Google, для Meta, первые процессоры для DARPA (Американского агентства перспективных оборонных исследований). Наша цель — создать продукт, способный решать проблемы целых отраслей».
«Конечно, на этом пути могут возникнуть непредвиденные обстоятельства, но наша цель — создать продукт, который понравится нашим клиентам — компаниям, создающим серверные фермы для обработки данных с использованием ИИ, — который улучшит их энергопотребление и, как следствие, позволит значительно сэкономить на энергозатратах, запланированных на долгосрочную перспективу.
Нам пришлось оставить работу в технологических гигантах, чтобы понять, в чем заключаются узкие места, и они возникли гораздо быстрее, чем мы предполагали. Когда мы основали компанию два с половиной года назад, мы говорили, что проблема с памятью станет самой большой головной болью в отрасли, сегодня она в десять раз хуже, чем мы думали на данном этапе».