523

Nvidia представила крошечный одноплатный суперкомпьютер Jetson Xavier NX

Компания Nvidia представила Jetson Xavier NX — самый маленький в мире суперкомпьютер с ИИ для роботов и встраиваемых систем. Как можно видеть на изображениях, размер платы суперкомпьютера действительно небольшой. Если точнее, габариты равны 69,6 х 45 мм.

Nvidia представила крошечный одноплатный суперкомпьютер Jetson Xavier NX Nvidia, Armpc

Конечно, термин суперкомьютер Nvidia в данном случае применяет на свой «страх и риск». На самом деле сердцем Jetson Xavier NX служит однокристальная система с шестью процессорными ядрами Nvidia Carmel и GPU Volta с 384 ядрами CUDA и 48 тензорными ядрами.

Nvidia представила крошечный одноплатный суперкомпьютер Jetson Xavier NX Nvidia, Armpc

Также суперкомпьютер получил 8 ГБ оперативной памяти LPDDR4X и 16 ГБ флэш-памяти eMMC 5.1. Всё это потребляет 10-15 Вт при производительности в 21 TOPS (при 15 Вт; при 10 Вт производительность равна 14 TOPS). Крошечный суперкомпьютер выполнен на плате формата SO-DIMM.


www.ixbt.com

Найдены возможные дубликаты

+113

Это плата для работы ИИ: быстрые свёртки, параллельные вычисления, при этом жрёт не киловатт (чего так любят дети), а около 20Вт. И стоит приличных очень денег.

Нужна для всего, где ИИ может применяться: дроны, автопилот, ЧПУ и т.п.

Доставляют, конечно, диванные эксперты: это ведь надо предположить, что корпорация не знала, зачем железку разрабатывает.

раскрыть ветку 16
+30
это ведь надо предположить, что корпорация не знала, зачем железку разрабатывает.
и такое бывает 
раскрыть ветку 10
+8
Google очки тому пример
раскрыть ветку 9
-38

подозреваю, что задумка была обрадовать майнеров, опоздали. Тогда кто-то сказал: добавим памяти и будет: "суперкомпьютер с ИИ для роботов и встраиваемых систем"

раскрыть ветку 4
+28

Перепись школьников-идиотов, помешанных на майнинге.

раскрыть ветку 1
+12

У вас видюхи только для майнинга?

раскрыть ветку 1
ещё комментарии
+57

суперкомпьютер с ИИ для роботов

Иллюстрация к комментарию
раскрыть ветку 1
0

На транжекторах

+52
Тудудуууу-ту-ду...
Иллюстрация к комментарию
раскрыть ветку 7
+12
Иллюстрация к комментарию
раскрыть ветку 1
+9
Блять. Всё испортил.
+6
Туду ту туду туду ту туду же
раскрыть ветку 2
+3
Ту ду туууууууууууууууу туууууун туууун
раскрыть ветку 1
+3
t 800 brain chip
0

я так обычно выстукиваю мелодию когда в гости прихожу

+39

Приставка "супер" относится к цене этой малявки?

раскрыть ветку 6
+7

Приз в студию!

+5

обычным смертным, скорее всего, не купить. Так с процами интел, их можно закупать у компании только в розницу и только партиями.

раскрыть ветку 4
+11

Это как - в розницу и партиями одновременно?

раскрыть ветку 2
0
Простым смертным купить можно, были бы деньги, а вот предприятиям из бСССР хрен. Двойное назначение и всё такое.
+22

На самом деле не плохие вещи создают Nvidia, но вот доверять им не стоит, они накручивают возможности платы..Являюсь обладателем Nvidia Jetson Nano, говорилось о том что можно использовать 8 rtsp потоков с камеры и не будет ничего лагать, но по факту на 4 rtsp уже идет просадка..Можете глянуть DeepStream там это описано..Множество косяков, которые сами Nvidia начинают исправлять только тогда, когда к ним на форум долбятся пользователи, нет мануалов нормальных для использования.. В целом на 2 камеры при 60fps она справится со своей задачей, но необходимо помнить что писать нужно на Си, потому что Python не дружит с TensorRT и если у вас есть готовые модели Coffee и другими моделями, то необходимо для ускорения прогонять их с помощью их сервиса..Я бы лучше за такую цену смотрел в сторону Intel NUC с их OpenVino библиотекой и подходом к тому что у них уже все готово, все модели проработаны и 90% задач решаются уже на этапе скачивания их примеров. Ах да, Jetson Nano греется аки зверская печка и вырубается, кулер покупать нужно и питание найти 5V 4A и ведь не все блоки питания подходят (5v 2a тоже работает от microUSB, но для промышленных задач этого мало)..Для задач домашнего использования этой штуки хватит с головой, чтобы поиграться, чтобы понять что такое ИИ и пытаться улучшать алгоритмы (благодаря Nvidia я хоть понял что gstreamer ахринительно крутая штука)

раскрыть ветку 9
+10

О чувак, фига ты крутой! А нет на примете статьи или для школьников-студентов для въезжания в тему типа:
Вот у нас cvs с 10005000 данных. Или 10005000 Jpg
Мы их вот так вот предобрабатываем.
Потом загружаем вот сюда и тут оно тупит, потому что перебор градиентный спуск и перемножение векторов 100 на 100.
В результате мы получаем 200 коэффициентов.
Мы их грузим в нейросетку на i7 и оно у нас считает 1 кадр в секунду.
Мы их грузим на Видеокарту с 100 ядрами и оно считает 30 кадров в секунду.
Мы их грузим в нейроИнтел и оно считает 60 кадров в секунду.
Мы их грузим в НвидеоСуперКомп и оно всё равно считает 60 кадров в секунду.
Мы их грузим в ифон и там тоже 60 кадров в сек.
Мы их грузим в андроид, а там нет нейропроцессора и дров к видюхе. 0.001. кадр в сек.
Я кстати, вполне понимаю как работает настроенная нейросеть или модель, но не понимаю, как она настраивается на суперкомпьютерах. Типа одно ядро процессора это один узел в нейросети/модели?
Я тут пытался утке объяснить про машиннное обучение и обнаружил гигантские пробелы у себя в знаниях.
А начинаешь читать или смотреть что-то там сразу заумь идёт жесткая. Мне нужно как для школьников примерно.)


Ну или сам что-нить запили во славу популяризации!)??
раскрыть ветку 4
+2

Для того чтобы ответить, нужно понимать что ты вообще делаешь, у android есть библиотека tensorflowLite, которая запускается даже на arduino, пытался ее запустить на esp32 с видеосенсором, по итогу не успев реализовать свое творение в интернет кто-то выкатил esp32 face recognition..А так если тебе нужны процессорные возможности для обучения модели, то есть такая крутая штука как Google MLKit бесплатная, там ограничения есть, но тебе думаю будет достаточно и их...на i7 1 кадр в секунду как-то маловато выходит, вполне вероятно что ты используешь OpenCV из python-opencv в котором про dnn ничего не известно, скомпилируй opencv новую где есть этот функционал, OpenCV библиотека крутая, но сейчас она скорее подходит для прогона своих идей. Есть библиотека dlib, уж оочень я ее люблю за работу с картинками и видяшкой, есть так же darknet библиотека, которая тоже практически все может сделать сама, для понимания нейронных сетей уж очень много нужно знать, знать слабые и сильные стороны каждых систем..Впрочем, сейчас я больше за то чтобы разрабатывать функционал используя облачные вычисления от гугла, MLKit доступен под все платформы...Для школьников как раз таки 1 кадр в секунду это хорошее начало, дальнейшие продвижения начинаются после того как ты начинаешь осознавать что вот например картинки нужно не в полном разрешении отправлять на распознавание, а сжимать их, срезать ненужное, переводить из RGB в nv12, либо делать предобработку в черно-белое изображение. Понимать как устроен h264 i-frame,p-frame,gop и все премудрости, что h264 с gstreamer отлично ладит и что gstreamer может в GPU, а ffmpeg тоже может, но делает это сносно, gstreamer создан для работ с видео, а ffmpeg для конвертации (сугубо мое личное мнение).

раскрыть ветку 3
+1

подписался.жду ответа.

0

А если не секрет, что именно не так с питоном и tensorRT? Глубоко тему не копала, но я сейчас на работе использую нейросетки на pytorch сконвертированные в tensorRT, пока полет нормальный

раскрыть ветку 2
+1

По скорости работы не дотягивают они, если использовать на С++, то можно выжать 30 к/c, а если писать на Python, то ограничивается все дело до 5 к/c..Процессор на Jetson Nano с Python ведет себя нецелесообразно, нагрузка на CPU примерно 80%. LA иногда зашкаливает (тут как раз Jetson Nano и вырубается сразу), а если написано на С++, то не вырубается ничего, нагрузка стабильно идет, распределение на потоки, в целом все отлично...Тоже писал ранее на Python, но по скорости С/C++ опережает значительно Python (сказал банально, но многие думают что разница в 1-2 кадра только, а по факту 20-30 кадров, что сами понимаете как значительно)

раскрыть ветку 1
+4
А цена?
раскрыть ветку 10
+15

если написать цену, то нужен тег "жесть"

+3

399$

раскрыть ветку 8
-3

А можно пруф? Меня на самом деле сильно интересует цена данной железки, а лучше её девкита. Просто мы сейчас плотно работаем со всей линейкой джетсонов, и меня интересуют все их разработки

раскрыть ветку 7
+7

Как никто этого до сих пор не сделал?

раскрыть ветку 3
0
Это из какой части?
раскрыть ветку 1
0

Вторая

-4

зашёл ради подобного коммента )

+2
$399 не так уж дорого.
+1

уже скоро

Иллюстрация к комментарию
+1

Хочу двигаться в сторону distributed systems. Пару лет назад видел подобную железку, которая вроде как использовалась как раз для "поиграть с distributed systems". Подскажите, что люди обычно используют при обучении? Нашел проект OctaPi, построенную на 9 Raspberry Pi, но может есть что-то поинтереснее?

+1

До чего техника дошла. А лет через 10 такая штука будет умещаться в лего человечке. Скорей бы оно подешевело

раскрыть ветку 3
0

подобные компьютеры были и раньше, слотовые одноплатные, по факту на плате содержался от 286 до 486, память и прочее на борту, все это вставлялось в нужный корпус, размером плата была с кредитную карту :)

раскрыть ветку 1
0

Скорее всего были, но ценник. Главное всегда это вопрос цены. Думаю сейчас сделать монстра размером с симку выжимающего как эта плата реально, но стоить он будет как небольшой самолёт, а кто его такой в массовое производство возьмёт?

0
Лет через 10 такая штука будет древним морально устаревшим куском
0
А R2D2 или C3PO потянет?
0

интересен момент-TOPS? что это? operation per sekond, количество операций в секунду? а где floating point? невнятный показатель, хоть и с приставкой "тера", если я правильно понял.

раскрыть ветку 1
0
Эта штука заточена под ии шную математику-логику, голые смеси под плавающую точку там не показатель, остаётся или курить документацию или верить на слово, что тестовая смесь соответствует реальным задачам.
0

Я сперва подумал, что на первой фотке плашка джойреактора.

0
Как эти со-димы подключаются? Вообще не понимаю этот формат, почему именно он?
раскрыть ветку 10
+8
А в чем проблема? SO-DIMM вполне себе стандартный и быстрый разъем. Пинов много - канал можно быстрый и широкий организовать. Вообще по схожему смыслу работают блейд-серверы. Есть "корзина" - плата с сокетами не под процессоры, а под другие платы. И вот на этих вот уже платах стоят свои процессоры и оперативная память. Это позволяет создавать более компактные, модульные и стандартизированные кластеры, что очень круто в работе с виртуализацией.
Для этих малюток можно тоже разработать (скорее всего уже разработана, просто я не успел почитать материал) корзину на хренову тучу сокетов. При этом у нас имеется вполне себе стандартный разъем, что позволяет проектировать и собирать с использованием, опять-таки, существующих технологий и производственных мощностей. Стандартизация - это экономно и быстро.
раскрыть ветку 4
+1
На БЭСМ похоже, там тоже были ячейки с ножевыми разъемами.
0
Вот и не понимаю это. Я смотрю на эту плату как обыватель, как пользователь всяких Малин и апельсинов. И просто не понимаю куда же я воткнул бы эту плату. Видимо, не для широких масс.
раскрыть ветку 2
+3

Возьмем обычную распбери. Если ты хочешь просто с ней в виде хобби поиграться, что тебя текущий формат полностью устраивает. Ты можешь её купить и сразу в неё тыкать клавиатуру, мышку, светодиоды.


Однако предположим ты разработчик встраиваемой системы. Например ты решил на основе распбери сделать мультимедию в автомобиль. Стандартное расположение разъемов у распбери тебя не устраивает. Ты конечно можешь в стиле DIY натыкать в разъемы удлинителей а все получившееся дело залить из спермоклеевого пистолета чтоб от тряски не разваливалось. Плюс не забывай, что GPIO это штука нежная и в них нельзя что-то серьезное напрямую пихать, нужны дополнительные схемы согласования и защиты от помех.


То есть для разработчиков встраиваемых систем встроенные в плату разъемы нахрен не сдались, а наоборот только мешают. Поэтому для них и выпускается вариант в котором все контакты выведены на один общий разъем. А дальше разработчик разрабатывает объединительную плату на которой он уже сам рулит как ему удобно. Где будут разъёмы. Будет ли какая то защита внешних линий и если будет, то какая. И т. д. А дальше при сборке устройства нужно будет только вщёлкнуть покупую расбери в разъем и все. Быстро, просто, технологично.


А почему выбрали именно SO-DIM? Просто подходящий форм фактор разъёма. Он маленький, в нём много контактов, а главное промышленность уже наклепала эшелон вагонов таких разъемов.

раскрыть ветку 1
+1
Спасибо за разъяснение.
0

Встраиваемые системы. Специализированные железяки под какие-нибудь теслы. Хотя интерфейсы юзаются, вполне традиционные.

раскрыть ветку 2
0
Вообще такую малютку можно использовать как отдельный центральный модуль практически в любом агрегате с цифровым управлением, так и в кластерной реализации. Очень захватывающе выглядит - побежал читать подробности! У вас нет ощущения, что будущее становится ближе с каждым днём от таких новостей и технологий? Уже работают квантовые компьютеры, по всему миру доступна аренда и стриминг огромных вычислительных мощностей, технологически доступны реализации чрезвычайно сложных поведенчески ИИ и НС. Просто чудесные времена)
раскрыть ветку 1
-1

каждый год подобные со-димы пк выпускают. кого удивить пытаемся?

-3

Крайзис потянет?

-4
И все равно не потянет рдр2 на ультрах?
-5

Майнеры...

Иллюстрация к комментарию
-7

Обычная видяха на mxm3

-7

Чет зело дохрена жрет для такого размера, небось без водянки опасно использовать.

раскрыть ветку 3
-1

Ну так это потребление энергии, а не выделение тепла. Да и 15 вт даже для тепловыделения не много.

раскрыть ветку 2
+7
В электронике потребление энергии равно тепловыделению. Расходовать её там больше не на что.
+2

Так в электронике считай потребление энергии=выделение тепла. Ведь никаких движущихся частей нету, лабиринты для электричества=)

-10

Doom можно запустить на этом устройстве? - суперкомпьютер!

-13

Нет, ардуина у них, конечно, получилась зачетная.

Но "супер", да еще и с "ИИ" - это перебор.


P.S. 3D очки валяются дома немым укором почившему 3DVision...

раскрыть ветку 1
+1

3д телевизионное тоже накрылось а было интересно смотреть. Цены только дорогие на фильмы были

-16
Не, ну такие новости уже моветон. Маленькие компьютеры уже лет семь точно не новость, никому не нужная херня, кроме узконаповленных хобби. Вся эта мелко-супер-компактная компоновка плат и комбайны в ноутах -этт охуенно, безспорно, но стоит на месте индустрия. У меня телефон сейчас в кармане в четыре раза мощнее моего первого компьютера, да, но порнуху я смотреть быстрее не стал.
раскрыть ветку 5
+5

Потом новость - "стотыщьпицот микрохуевин в кластере от нвидивы вошли в топ-500 по суперкомпам". Ну так, че б не войти, че....вроде и недорого выебнуцца.

+4

Ну так поставь скорость в порнухе на 1.25

раскрыть ветку 3
+1

Рукой быстрее двигать не сможет, он это хотел сказать.

раскрыть ветку 2
-26
Конечно, термин суперкомьютер Nvidia в данном случае применяет на свой «страх и риск»

С этой фразы стоило начинать.

Если честно, параметры не особо впечатляют.

Для "майнинга" это как-бы подойдет, если навесить на эту малявку огрохренительную охладилку, а в качестве сервера я б таким побрезговал.

раскрыть ветку 13
+17

Jetson не для майнинга - это потроха для робототехники, дронов, OCR и тд.

ещё комментарии
+1

А с сервером почему такое мнение, из-за размера или предполагаемой цены? Я только было подумал научиться на малинке/апельсинке поднимать домашний сервер. Интересно услышать отрицательное мнение.

раскрыть ветку 9
+3

Малина для домашних развлечений - самое то!!!

Про апельсину ничего не скажу, не трогал и говорить не буду.


У малины прекрасный GPIO позволяющий вешать на нее, практически без "обвеса" хоть черта в ступе. А raspbian это вполне себе система. Надо nginx - вот те nginx, надо perl - вот те perl... Камня вполне хватает на "контроль равновесия для антроподной модели", если датчик нормальные (делал, работало).


В общем - бери малину и не парься. Даже если не пригодится, ее можно просто спрятать в сигаретную пачку :)

раскрыть ветку 4
0

Смотря для чего сервер, если побаловаться то стопудов малина будет самым лучшим вариантом. А если в "умный дом" и чтобы надолго - ищи готовые решения.

0

Куда тебе CUDA для твоего "домашнего сервера"?

-1

А! Я не ответил на основной вопрос.

Посмотри на GPU. Вот на кой оно там такое?

раскрыть ветку 1
ещё комментарии
Похожие посты
Похожие посты закончились. Возможно, вас заинтересуют другие посты по тегам: