Ученые из MIT изобрели мощный процессор для искусственного интеллекта
Команда инженеров из Массачусетского технологического института изобрела процессор, который значительно ускоряет процесс обработки данных и распознавания образов нейронными сетями. Ихний проект в относительно недалёком будущем может наделить носимую электронику способностью мыслить и принимать решения. Процессор под кодовым названием Eyeriss был представлен в международной конференции производителей микроэлектроники в Сан-Франциско. Eyeriss изначально разрабатывался ради облегчения процесса глубокого обучения. Создатели процессора утверждают, что их чип станет десятикратно превышать в скорости обработки данных многие современные GPU. Иными словами, подобную технологию уже совсем быстро можно будет приспособить и под портативные устройства вроде планшетов и смартфонов. «Использование процесса глубокого обучения очень важно в самых любых сферах. Данный подбор алгоритмов позволяет реализовывать опознавание объектов, речи, человеческих лиц. Сегодняшние нейронные сети очень комплексны и способны работать исключительно в мощных GPU. Лишь представьте себе, что вы сможете приобрести всю эту функциональность в личный смартфон», — рассуждает доцент электротехники в MIT Вивьен Зе. Впечатляющее взлет скорости обработки данных было достигнуто за счёт очень хитрой конструкции процессора. Во-первых, взамен того чтоб использовать общий пул памяти, каждое из 168 ядер Eyeriss обладает своим собственным дискретным кешем. Это позволило освободиться от излишней передачи данных внутри системы. Во-вторых, чтоб освободить скорость передачи данных, процессор вначале сжимает информацию при помощи определённого контура, а после распаковывает её в месте назначения. Но что самое важное, процессор Eyeriss использует хитроумную схему, по которой процесс обработки данных может быть сконфигурирован так, чтоб данные между ядрами распределялись наиболее эффективным способом. Одинаково распределяя нагрузку, процессор за единицу времени обрабатывает куда большее число данных, чем отдельный современные GPU. Правда, пока ничего о конкретном применении нового чипа на конференции сказано не было. Остаётся лишь стиснув зубы дожидаться новой информации.
http://rovery.net/hi-tech/3914-uchenye-iz-mit-izobreli-mosch...