3

Возможный Единорог

Возможный Единорог

Cтартап Extropic дал жару и решил, что хватит уже спаливать мегаватты на то, чтобы нейросетка нарисовала вам котика. Их решение звучит как бред: вместо того чтобы умножать матрицы до посинения, они предложили железо, которое генерит ответы напрямую из физики. Из шума. Из броуновского движения электронов и вселенского хаоса.

28 октября 2025 команда выкатила TSU – термодинамические sampling-юниты. Забудьте про CPU и GPU, это вообще другой зоопарк. TSU не считают в классическом смысле, они сэмплируют вероятности физически. Берут напряжение, температуру, шум в транзисторе – и бац, у вас готовая выборка из распределения. Работает при комнатной температуре, на обычном CMOS-процессе. Без квантового холода, без экзотики, на тех же транзисторах, что в вашем телефоне.

Вся фишка в том, что генеративный ИИ – это по сути выборка из сложных распределений. Сейчас GPU сначала перемножают горы матриц, чтобы получить вектор вероятностей, потом уже сэмплируют. TSU говорят "а зачем эти танцы с бубном?" и идут напрямую. И тут начинается магия. По расчётам в их препринте на extropic.ai, энергопотребление падает в 10 000 раз. Десять. Тысяч. Раз. Если это правда хотя бы наполовину – счёт за электричество станет смешным, а у вашего CFO наконец отпустит язва.

В основе лежат п-биты (pbits) – это такие вероятностные транзисторы, которые выдают 1 или 0 с программируемой вероятностью. Звучит тупо, как один NAND-гейт. Но точно так же, как из миллиона гейтов собирают процессор, из сотен тысяч п-битов собирают TSU, которая может сэмплировать здоровенные распределения через алгоритм Гиббса. Локальное общение между соседними ячейками, никаких дальних проводов – вся энергия уходит на дело, а не на зарядку километров дорожек на плате.

Extropic уже разослала первые dev-киты XTR-0 в AI-лаборатории и метеокомпаниям (например, Atmo). XTR-0 – это настольная коробочка с двумя прототипными чипами X0, proof-of-concept, но уже рабочий. Параллельно выложили THRML – библиотеку на Python (JAX), которая эмулирует TSU на обычных GPU. Можно писать алгоритмы уже сейчас, пока они допиливают железо.

Production-чип Z-1 обещают к 2026 году. Он потянет около 250 тысяч п-битов и будет заточен под диффузионные модели – те, что восстанавливают картинки и видео из шума. Stable Diffusion, Sora – вот это всё, только на порядки эффективнее. Команда вообще утверждает, что такую систему можно засунуть в корпус размером с айфон, и она будет жрать батарейку, а не розетку на 220.

За проектом стоят бывшие квантовые исследователи из Google, а рулит всем Гийом Вердон, он же Beff Jezos из твиттера, тот самый акселерационист-мемолорд. Они придумали новый тип модели – Denoising Thermodynamic Model (DTM), которая вытягивает данные из шума через цепочку сэмплов, как диффузия, только нативно на TSU.

Если эта штука взлетит – а первые бенчмарки уже показали работу на Fashion MNIST – рынок AI-инфры ждёт жёсткая встряска. Генеративка локально на устройстве, погода с точностью до квартала, симуляции на заводах – всё без счёта за мегаватты. Первые реальные кейсы покажут себя в 2026-м, когда Z-1 выйдет в production. А пока можно ковыряться с THRML и молиться, чтобы они не наврали с цифрами.
В общем следите и если что, сливайте акции Nvidia

Источник: https://extropic.ai/writing/tsu-101-an-entirely-new-type-of-computing-hardware


#Нейросети #Технологии #Наука #Стартап #Единорог