Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр  Что обсуждали люди в 2024 году? Самое время вспомнить — через виммельбух Пикабу «Спрятано в 2024»! Печенька облегчит поиск предметов.

Спрятано в 2024

Поиск предметов, Казуальные

Играть

Топ прошлой недели

  • Oskanov Oskanov 9 постов
  • Animalrescueed Animalrescueed 44 поста
  • Antropogenez Antropogenez 18 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
11
TechSavvyZone
TechSavvyZone

Продолжение поста «Технологии: "Alpha" история в фактах и комментариях»⁠⁠2

2 месяца назад

Часть 8. Эпоха Compaq


Судя по всему, Compaq приобрела остатки DEC из-за значительных сборочных мощностей, широкой сети дистрибьюции (в 98 странах) и кросс-лицензионного соглашения с Intel (позволяющего, например, выпускать 8-процессорные сервера линейки Profusion). Как показало дальнейшее развитие событий, подразделение по развитию архитектуры Alpha пришлось явно не к месту: Compaq издавна собирала рабочие станции и сервера на процессорах Intel, а также проявляла повышенный интерес и к процессорам AMD. Поэтому в июне 1998 Compaq вступилa в альянс с Samsung по развитию архитектуры Alpha (как известно, в феврале 1998 между DEC и Samsung было заключено соглашение, которое предоставляло последней доступ ко всем патентам по архитектуре Alpha, а также и позволяло выпускать уже разработанные DEC модели и даже проектировать собственные). Совместно была учреждена дочерняя компания, API (Alpha Processor Inc.), которая занималась маркетинговыми вопросами архитектуры (по-видимому, кто-то сделал нужные выводы из истории DEC). Летом 1998 системы на базе EV6 вступили в стадию массового производства, уверенно выигрывая по соотношению цена/производительность у имеющихся конкурентов. Серьёзные проблемы с выпуском будущего Itanium от Intel давали основание утверждать, что такое положение дел сохранится и в ближайшем будущем. Кроме Samsung, EV6 былa вынужденa производить сама Intel на Fab-6 в Хадсоне, по условиям договора с покойной DEC...

Год 1999 оказался неудачным для Compaq, в связи с падением объёмов продаж на рынке персональных компьютеров. Основной причиной называли недооценку возможностей, предоставляемых Интернетом для продаж компьютерной техники, и которыми активно воспользовалась Dell, перестроившая таким образом свою модель бизнеса, предлагая технику по самым низким среди крупных брэндов ценам. После финансовой катастрофы в 1-м квартале 1999 ушёл в отставку главный исполнительный менеджер Compaq, Экхард Пфайфер (Eckhard Pfeiffer). В целях экономии, Compaq начал сворачивать некоторые отрасли деятельности, и это отразилось на Alpha-системах: в мае 1999 было объявлено о закрытии сборочного цеха AlphaServer'ов в Салеме (Нью-Хэмпшир).

23 августа 1999 произошло довольно-таки знаменательное событие:Compaq отказалась от дальнейшего участия в разработке Windows NT, прекратила поставлять эту ОС со своими Alpha-системами и фактически в полном составе (примерно 120 человек) уволила группу программистов из бывшей Западной исследовательской лаборатории DEC (DECwest), работавших над этим проектом. Согласно статистике Compaq, среди всех предустановленных ОС на Alpha-системах Tru64 UNIX имела долю в 65%, OpenVMS -- в 35%, a на Windows NT приходилось около 5%, и поэтому дальнейшие работы над этой ОС не окупали себя. Неделю спустя Microsoft заявила, что отменяет работу над Windows 2000 для Alpha. Учитывая, что ещё в 1997 Microsoft свернула поддержку архитектур PowerPC и MIPS, будущее "универсальной ОС" свелось к одной-единственной архитектуре, если не считать IA-64...

Чтобы обеспечить лидерство архитектуры Alpha в обозримом будущем, в декабре 1999 Compaq и Samsung подписали меморандум, согласно которому обе компании инвестируют 500 млн. долл. США в развитие архитектуры Alpha (Samsung вложит 200 млн. в развитие и отладку новых техпроцессов, а Compaq использует 300 млн. на проектирование новых серверных решений, и на дальнейшее развитие Tru64 UNIX). Кроме того, в том же месяце Compaq и IBM заключили соглашение, согласно которому последняя будет производить процессоры Alpha с использованием своей технологии на медных проводниках, как только та будет отлажена; при этом Samsung всё же останется основным поставщиком процессоров Alpha. Если подводить итоги года для Compaq, то они довольно неплохо иллюстрировались курсом её акций: с 51 долл. США за шт. в феврале, и до 28 долл. США за шт. в декабре. Правда, многие аналитики утверждали, что могло быть и хуже.

Y2K обошелся для Compaq без потрясений. Samsung так и не успел наладить свой 0,18µ техпроцесс на алюминиевых проводниках, в отличие от IBM, которая начала ограниченные поставки EV68C для Compaq, а рынок был вынужден довольствоваться относительно медленными EV67. Разработка21364(ЕV7, также известный как Marvel) затянулась, хотя в анонсах уже значился21464(EV8, также известный как Arana). Крах dot-com'ов отразился и на курсе акций Compaq, упавшем к концу года до 15 долл. за шт., то есть на 44% по сравнению с началом года. Как ни странно, этот показатель можно считать отличным; другие компании, более зависящие от e-commerce, потеряли намного больше: Gateway -- 75%, Apple -- 71%, Dell -- 65%. Собственно dot-com'ы стали либо банкротами, либо были недалеки от этого; Yahoo.com потерял 95% своей рыночной стоимости, а Priceline.com -- 97%.

В начале 2001 Samsung смог наладить выпуск своих EV68А, но момент был упущен. Compaq планировала начать поставки систем с EV68C (AlphaServer'ов GS-класса), а также развернуть модернизацию имеющихся. EV7 был всё ещё где-то там, когда случилось то, чего мало кто ожидал: 25 июня 2001 (в "чёрный понедельник")Compaq объявила о постепенном переводе своих серверных решений с архитектуры Alpha на IA-64к 2004. Работы над EV8 были отменены немедленно, хотя некоторые принципы его внутреннего устройства были опубликованы ещё на Microprocessor Forum в октябре 1999, а EV7 планировалось выпустить не ранее начала 2002, после чего Alpha Microprocessor Division подлежал расформированию, а основную часть его сотрудников должна была принять на работу Intel. Samsung и IBM вскоре прекратили производство процессоров Alpha. Далее события развивались ещё более драматично: 3 сентября 2001 Hewlett Packard заявила о своих намерениях приобрести Compaq, находящуюся в весьма сомнительном финансовом положении: к концу года курс её акций составил 10 долл. США за шт. Сделка была утверждена собраниями акционеров обеих компаний, а также правительствами США и Канады, и завершилась в мае 2002.

21 октября 2001 API, переименованная к тому времени в API NetWorks, передала все полномочия по поддержке (в том числе гарантийной) Alpha-систем компании Microway, крупнейшему [после Compaq] сборщику рабочих станций и серверов на архитектуре Alpha, старому партнёру DEC. Сама же API ушла с этого рынка, сконцентрировав внимание на сетевых технологиях, развитии шины HyperTransport и системах хранения данных.

В заключение можно сказать, что хотя Compaq и избежала многих ошибок, сделанных в своё время DEC, она так и не раскрыла весь потенциал архитектуры. Производительные Alpha-системы на 21264A и 21264B так и не попали в ценовую категорию до 2 тыс. долл. США, а бюджетный 21264PC так и не появился. Возможность массового выпуска недорогих материнских плат на основе AMD Irongate была проигнорирована, а стоимость DEC Tsunami, продаваемого Compaq по цене свыше 1000 долл. за шт. в оптовых партиях, не оставила Alpha-системам шансов на выход в средний ценовой диапазон. Другие производители чипсетов для AMD Athlon так и не адаптировали их для работы с 21264, хотя у VIA такое намерение изначально имелось.

Часть 9. EV7, EV79, EV7z, EV8

Первые новости об архитектуре процессора21364(EV7) прозвучали в октябре 1998 на Microprocessor Forum; уже тогда было известно, что процессор будет базироваться на ядре EV6, но с интегрированным контроллером Direct Rambus DRAM (предположительно, 4-канальным) и кэшем L2 (1,5Мб с 6-канальной ассоциативностью). Также прозвучало, что никаких изменений в ядре EV6 не планируется, хотя возможна и другая причина: разрабатывать было уже некому, так как штат инженеров-проектировщиков сократился довольно существенно. Ожидалось, что дизайн EV7 будет закончен к 2000.

После поглощения Compaq наследие в виде архитектуры Alpha было для HP ненужным довеском, так как она развивала свою 64-битную архитектуру PA-RISC (Precision Architecture RISC) и состояла в альянсе с Intel по разработке её 64-битной архитектуры IA-64 (то есть Itanium'а). Поэтому интерес HP в плане архитектуры Alpha ограничился сбытом и поддержкой унаследованных от Compaq линеек серверов на EV6/EV67/EV68, а также запуском в производство EV7, окончательно представленного в январе 2002.

Как и ожидалось, в основе EV7 лежало ядро EV68 (абсолютно без изменений) и несколько дополнительно интегрированных блоков: два контроллера памяти(два Z-box'а, для Direct Rambus DRAM PC800),многофункциональный маршрутизатор(R-box, для поддержки многопроцессорности и сетевых функций), и полно скоростной кэш L2(S-cache, 1,75Мб с 7-канальной ассоциативностью). Разрядность шины данных к S-cache была как и у EV6 (128 бит), и собственно кэш работал со значительными задержками (12 тактов при чтении). Оба Z-box'а и R-box работали на 2/3 частоты ядра. Скорость работы каналов памяти зависела от Z-box'ов и составляла половину их частоты (соответственно, 1/3 частоты ядра), но с использованием технологии DDR.

Каждый Z-box поддерживал5 каналов памяти(4 основных и 1 вспомогательный) разрядностью по 18 бит (16 для команд/данных/адресов, 2 для ECC). Вспомогательный канал был опцией, и мог использоваться для организации отказоустойчивого массива в памяти (приблизительно, как RAID3); к примеру, при записи в память учетверенного слова (quad-word, 64 бита) оно разделялось на 4 слова (word, 16 бит), каждое из которых отправлялось по своему каналу, а по вспомогательному записывалась контрольная сумма. Также, каждый Z-box мог держать до 1024 страниц памяти открытыми. Суммарная теоретическая пропускная способность подсистемы памяти одного EV7 составляла около 12Гб/с. Естественно, так как каждый EV7 в многопроцессорной системе располагал своей областью памяти, то такая модель памяти называлась NUMA (Non-Uniform Memory Access), в противовес к традиционному SMP (Symmetric Multi-Processing), в котором все установленные процессоры имели доступ к единой (общей) области памяти. Поэтому, каждый процессор в системе (из максимум 128) имел доступ к памяти как через свои контроллеры, так и через контроллеры других процессоров. Функцию связи между процессорами, как и между отдельно взятым процессором и локальной периферией, выполнял R-box. Он поддерживал 4 независимых канала с теоретической пропускной способностью в 6 Гб/с каждый (по одному на каждый подключенный соседний процессор), а также 1 дополнительный канал для скоростного ввода/вывода.

Так как EV7 внутренне унаследовал все интерфейсы EV6, то в процессоре должен был быть реализован блок поддержки системной шины последнего. Хотя эта часть процессора нигде не документировалась и даже не упоминалась, но определённые предположения касаемо её быстродействия всё же можно сделать. Так как минимальный рабочий коэффициент умножения у ядер EV6 был равен 3, то теоретическая пропускная способность магистрали к этому блоку составляла около 3Гб/с для EV7, что было в 4 раза ниже суммарных возможностей обоих Z-box'ов. Это было серьёзным аргументом в пользу того, что EV7 изначально задумывался для использования в многопроцессорных системах класса high-end.

Процессоры EV7 могли подключаться друг к другу по произвольным алгоритмам, но на практике использовались так называемые "torus" и "shuffle", причём второй был потенциально эффективнее в некоторых случаях (например, в 8-процессорной системе с алгоритмом подключения "shuffle" каждый процессор был непосредственно связан с 4 другими процессорами, а в случае с "torus" -- только с 3; нетрудно догадаться, что уже в 12-процессорной конфигурации этот аргумент отпадал).

Производился по 7-слойному 0,18µ CMOS8 техпроцессу, состоял из 152 млн. транзисторов (из них 137 млн. на I-cache, D-cache и S-cache), и, как следствие, имел огромную площадь ядра (397 кв.мм.). Частота экспериментальных образцов составила 1250МГц (155Вт TDP), хотя в производимых HP системах использовались процессоры с частотами от 1000МГц до 1150МГц. С инженерной точки зрения, EV7 заметно уступал предыдущим представителям архитектуры Alpha с точки зрения плотности размещения функциональных устройств на подложке, а поэтому нерационально использовал её площадь, что не замедлило отразиться на тактовых частотах и задержках при операциях с S-cache -- то есть, на производительности.

В декабре 2002 HP опубликовала пресс-релиз, в котором шла речь о появлении серверов на EV7 с частотой в 1150МГц уже в январе 2003, а вскоре должен был выйти EV79 (по 0,13µ SOI техпроцессу), и на этом развитие архитектуры должно было прекратиться. В марте 2003, на ISSCC'2003, был представлен прототип EV79, с площадью ядра в 251 кв.мм., рассчитанный на напряжение в 1,2В, и работающий на частоте в 1450МГц (100Вт TDP). Но уже в октябре 2003 появились первые новости о трудностях, связанных с производством EV79 на фабрике IBM, а ещё через полгода процессор был окончательно отменён.

В августе 2004 было объявлено o выпуске последнего процессора Alpha, EV7z с тактовой частотой в 1300МГц, на том же 0,18µ техпроцессе. Он был предназначен для установки исключительно в продукцию HP; также было заявлено, что сервера и рабочие станции архитектуры Alpha будут продаваться под маркой HP до 2006, а поддерживаться до 2011 года, но не более.
Отменённый 21464 (EV8) должен был быть дальнейшим развитием EV7, с удвоенным количеством основных функциональных устройств (8 целочисленных и 4 вещественных конвейера), и с увеличенным до 3Мб S-cache. Также была заявлена поддержка технологии SMT (Simultaneous Multi-Threading), которая должна была позволить одновременное выполнение (concurrent execution) до 4 программных потоков внутри одного ядра (возможно, эта технология была несколько родственной Intel HyperThreading). Площадь ядра прогнозировалась в 420 кв.мм. при 0,13µ SOI техпроцессе.

Эпилог


На момент написания статьи (апрель 2005) Alpha-системы всё ещё продавались, в основном через HP и Microway. Последняя даже предлагала относительно недорогие рабочие станции с 21164А и AlphaPC 164LX под Linux (за 2 тыс. долл. США в стандартной комплектации). Довольно значительное количество списанных (но все ещё работоспособных) рабочих станций и серверов, а также отдельных комплектующих, доступно через "онлайновые барахолки"; большинство этих систем прeдназначалось для работы с Windows NT, и на многие из них нельзя установить ни Digital UNIX, ни OpenVMS, а на некоторые даже *BSD (системы, не поддерживающие SRM console), хотя сохраняется возможность установки Linux из-под ARC/AlphaBIOS. Если вы имеете намерение приобрести Alpha-систему, выясните этот вопрос перед покупкой, чтоб не иметь впоследствии лишних проблем.

Согласно статистике, к июню 2001 только DEC и Compaq продали около 800 тыс. рабочих станций и серверов на Alpha. Точное количество систем, собранных и проданных другими компаниями, неизвестно, но эта цифра определённо превышает 500 тыс.

Многие утверждают, что архитектура Alpha умерла своей смертью. Надеюсь, после прочтения этой статьи у вас не останется сомнений, что её похоронили, причём заживо. Потому что так было выгодно.

История знает немало случаев, когда товар с худшими характеристиками вытеснял сопоставимый товар с лучшими техническими показателями. Возможно, первый товар стоил существенно дешевле второго. Также возможно, что второй товар продвигался на рынке существенно пассивнее первого. Или лицензионные отчисления были несопоставимы. Всё возможно. Не исключено, что маркетологи некоторых товаров, осознавая их ущербность, продвигают их на рынке наиболее агрессивно, понимая, что иначе их очередная зарплатa может оказаться последней. Одно очевидно: для успеха на рынке технические показатели того или иного продукта имеют далеко не самое первостепенное значение.

Жизнь продолжается...

Показать полностью 3
IT Технологии Инженер Компьютерное железо Компьютер Alpha Производство История развития Чип Процессор Тестирование Электроника Инновации Ответ на пост Длиннопост
1
12
TechSavvyZone
TechSavvyZone

Продолжение поста «Технологии: "Alpha" история в фактах и комментариях»⁠⁠2

2 месяца назад

Часть 6. Крах DEC


26 января 1998 компьютерный мир обошла новость, что находящаяся в критическом финансовом положенииDEC была куплена Compaq, и что сделка находится в процессе утверждения собраниями акционеров обеих компаний. Акционеры DEC ратифицировали соглашение 2 февраля 1998. Сумма сделки составила 9,6 млрд. долл. США, при ориентировочной рыночной капитализации DEC приблизительно в 7 млрд. долл. США. Начавшийся вскоре процесс интеграции подразделений DEC в структуры Compaq привёл к тому, что уже через полгода DEC окончательно прекратила своё существование (11 июня 1998 её акции перестали котироваться на Нью-Йоркской фондовой бирже). Стоит отметить, что переговоры между DEC и Compaq велись ещё с 1995, но сорвались в 1996 из-за позиции менеджмента DEC, настаивавшего на именно слиянии компаний, а не поглощении. Тем не менее, вполне закономерен вопрос: как могло так случиться, что огромная компания (по состоянию на 1989: почти 130 тыс. человек персонала, общий объём продаж около 14 млрд. долл. в год, то есть второй показатель по отрасли после IBM), с очень высоким исследовательским потенциалом и значительной производственной базой, была вынуждена продать себя крупному сборщику компьютерной техники из Техаса? Однозначного ответа на этот вопрос никто так и не дал, хотя причины называли разные. Об этом, и подробнее.

Давным-давно Кеннет Ольсен, основатель, президент и главный исполнительный менеджер DEC почти до самого её конца, сказал, что хорошие с инженерной точки зрения продукты продают себя сами. А следовательно в рекламе или ином продвижении не нуждаются. Ему также принадлежит изречение, что нет причины, из-за которой каждый захотел бы иметь компьютер у себя дома. Возможно, эти мысли оправдывали себя в "добрые старые" времена, когда компьютерная техника производилась в небольших количествах профессионалами для профессионалов и стоила довольно больших денег, но не в конце 20-го века, когда её продавали миллионами штук в год, и когда самый обыкновенный компьютер можно было собрать максимум за час времени при помощи отвёртки и деталей из ближайшего компьютерного магазина, и за сумму на порядок меньшую предыдущей. В конце концов, купить его целиком в том же магазине, ещё и с доставкой на дом. А если учесть, что покупать такой компьютер будет не менеджер с техническим образованием, прекрасно осознающий глубину смысла термина TCO (Total Cost of Ownership, совокупная стоимость владения), а некая тётя Маша или представитель подрастающего поколения Вовочка, в принципе не отличающие транзистор от резистора, то таких покупателей надо мотивировать явно не инженерными достоинствами потенциального приобретения. Ошибка #1.

Ещё в самом начале развития архитектуры Alpha высшим руководством DEC был допущен большой стратегический просчёт. Как известно, прототипы EV4 были продемонстрированы DEC на компьютерной конференции в феврале 1991. Среди присутствующих были инженеры Apple Computer, которые в то время занимались поиском новой процессорной архитектуры для будущих компьютеров компании, и возможности EV4 произвели на них впечатление. В июне того же года Джон Скалли (John Sculley), в то время главный исполнительный менеджер Apple, встретился с Кеннетом Ольсеном, и предложил использовать новый процессор DEC в будущих Маках. Ольсен отклонил предложение Скалли, мотивируя тем, что процессор ещё не готов для рынка, а архитектура VAX ещё не исчерпала себя. Через несколько месяцев было объявлено, что новые Маки будут использовать процессоры PowerPC от альянса Apple, IBM и Motorola. Позже Вильям Деммер (William Demmer), бывший вице-президент подразделений VAX и Alpha, ушедший в отставку в 1995, заявил в интервью Business Week от 28 апреля 1997: "Кен не хотел, чтобы будущее компании зависело от Alpha."Ошибка #2.

DEC сама производила как процессоры Alpha, так и чипсеты для них на своей фабрике в Хадсоне (Массачусетс), а также многочисленную периферию. Она также сама разрабатывала и изготовляла материнские платы, хотя и в довольно ограниченном ассортименте, и исключительно "десктопной" направленности (эти платы так и назывались,Evaluation BoardилиAlphaPC). Несмотря на то, что почти все без исключения Alpha-сервера DEC были многопроцессорными, ни одна из этих материнских плат SMP не поддерживала. Тем не менее, все материнские платы были выполнены на высоком техническом уровне, хотя и стоили недёшево, как и процессоры Alpha. Схемотехника этих плат была в свободном доступе, поэтому некоторые компании (Aspen, Polywell, Enorex, др.) производили их клоны; единственной компанией, разработавшей и производившей свои платы, былаDeskStation. В целом, можно смело утверждать, что приоритетом для DEC была продажа собственных рабочих станций и серверов, а не рынок комплектующих для тех же рабочих станций и серверов. С таким походом к делу можно как-то выжить, но нельзя победить в борьбе за рынок. Ошибка #3.

Несмотря на все попытки,DEC так и не смогла сделать цены на свою продукцию (акцентируя внимание на процессорах, чипсетах и материнских платах) доступными широким слоям потенциальных покупателей. Например, 266МГц и 300МГц EV5 по состоянию на начало 1995 стоили соответственно 2052 и 2937 долл. США в партиях по 1000 шт. -- непомерные цены, даже учитывая среднюю стоимость производства (модель MPR) в 430 долл. США за шт. В расчёте на один "попугай" SPECint92, EV5 стоил приблизительно в 2 раза дороже RISC-процессоров других производителей! При этом стандартный чипсет к нему, Alcor, продавался не в пример дешевле -- 295 долл. США в партиях по 5000 шт., хотя материнская плата на его основе (EB164, с 1Мб B-cache), вместе с процессором и 16Мб оперативной памяти (чего, кстати, было явно недостаточно для большинства задач, даже по меркам того времени), предлагалась по цене около 7500 долл. США. Ошибка #4.

Хотя Alpha была изначально объявлена "открытой архитектурой", консорциум по её развитию так и не был создан. Разработки велись усилиями DEC, иногда сообща с Mitsubishi. Получалось, что хотя собственно архитектура и была свободной де-юре, её основные разработки являлись очень даже закрытыми де-факто, так как патентовались соответствующим образом и подлежали платному лицензированию (если вообще подлежали), что мало способствовало успешному продвижению на рынке. Стоит отметить, что вскоре после выпуска EV4 руководство DEC предлагало лицензировать производство процессора Intel, Motorola, NEC, и Texas Instruments. Но эти компании имели свои разработки и были мало заинтересованы или незаинтересованные совсем в EV4, а потому отказались. Не исключено, что условия могли быть неприемлемы, или что-нибудь ещё. Ошибка #5.

Далее, даже самый быстрый компьютер без операционной системы и нужного программного обеспечения -- всего лишь дорогой источник шума и обогреватель окружающей среды. Свою Alpha-продукцию DEC позиционировала для Windows NT, Digital UNIX, и OpenVMS, причем именно в таком порядке приоритетности. Оно бы и ничего, но...

Windows NT-- это операционная система, изначально рассчитанная на пользователя, а не на программиста (так как не содержала никаких встроенных средств для разработки ПО), и поэтому сильно зависела от откомпилированного для неё ПО, и в первую очередь, коммерческого. А если смотреть фактам в лицо, то количество приложений, доступных для Alpha, отличалось в разы от аналогичного показателя для i386. Ситуацию в некоторой мере мог исправить FX!32, выпущенный в 1996 командой Антона Чернова (Anton Chernoff), отличный эмулятор и транслятор кода x86 в код Alpha, но от падения производительности как минимум на 40% не спасал, по сравнению с изначально откомпилированными под Alpha приложениями. Далее, драйвера как категория ПО; тут FX!32 ничем помочь не мог, и дела обстояли ещё хуже -- очень немногие производители сочли выпуск версий для Alpha целесообразным, поэтому приходилось рассчитывать, в основном, на Microsoft и DEC. В конце-концов, Windows NT (как 3.51, так и 4.0) была32-битной ОС, даже работая на 64-битной архитектуре Alpha, и поэтому не могла полностью раскрыть потенциал последней. Тем не менее, все эти оказии не мешали DEC продвигать свои Alpha-системы под слоганом "Рождён для работы с Windows NT" ("Born to run Windows NT"). В общем, такая ОС не должна была позиционироваться как основная для архитектуры Alpha, хотя собственно факт возможности её установки был большим плюсом для архитектуры. Ошибка #6.

OpenVMS и Digital UNIX (также известная как DEC OSF/1, и позднее как Compaq Tru64 UNIX), две надёжные и масштабируемые коммерческие операционные системы от DEC, так и не обрели широкой популярности из-за высоких цен (например, свыше 1000 долл. США за одну копию Digital UNIX 4.x в 1997), и, как следствие, закрытости исходного кода. Хотя с этими ОС были связаны и другие сложности (например, поддержка аппаратной базы была ещё более ограниченной, чем у Windows NT), но eсли хотя бы одна из этих ОС получила свободу, вместе с теми отличными инструментами для разработки ПО от DEC, то это могло серьёзно укрепить рыночные позиции архитектуры Alpha. Ошибка #7.

DEC никак не поддерживала бесплатные операционные системы с открытым кодом, хотя первая из них (NetBSD) была портирована на Alpha в 1995, а вслед за ней Linux, OpenBSD и FreeBSD. Это было, как минимум, странно, потому что и по сей день в этом сегменте архитектура Alpha пользуется широкой популярностью, и рыночная ценность вышеупомянутых ОС была очевидна даже на то время, постоянно увеличиваясь. Кроме того, эти ОС обеспечивали не худшее быстродействие по сравнению с коммерческими Digital UNIX и OpenVMS, и сопоставимую с Windows NT поддержку аппаратной части (намного лучшую с точки зрения дня сегодняшнего), и многие другие преимущества, которые можно ожидать от ПО с открытым кодом. Oшибка #8.

В список ошибок DEC можно было ещё включить игнорирование революции массовых и недорогих персональных компьютеров, чрезмерную диверсификацию бизнеса, и прочие менее значительные, но так как они не связаны непосредственно с архитектурой Alpha, можно подвести итоги. С точки зрения автора, DEC приложила множество усилий, чтобы заработать как можно больше денег при помощи архитектуры Alpha, но не приложила почти никаких усилий, чтобы помочь собственно архитектуре.

Из-за многочисленных неудач DEC в конце 1980-х и начале 1990-х, решением совета директоров в июле 1992 Ольсен был отстранён от руководства компанией, и на его место пришёл Роберт Палмер (Robert Palmer). В 1994 по его инициативе была проведена полная реорганизация менеджмента компании, которая из "матричной" (когда функционально разные отделы компании тесно взаимодействовали между собой при принятии решений) трансформировалась в традиционную "вертикальную" (с чётко выраженными полномочиями и обязанностями от самого верха компании и до самого низа). Чистые убытки DEC за период с 1991 по 1994 составили свыше 4 млрд. долл. США, из них 2 млрд. только с июля 1993 по июль 1994 (учитывая 1,2 млрд. на реорганизацию), а количество персонала сократилось до 85 тыс. чел. Согласно программе Палмера, следовало избавиться от подразделений, не являющихся приоритетными для компании, и с этого момента началась глобальная распродажа. В июле 1994 за 400 млн. долл. США было продано Quantum подразделение по разработке и производству дисковых и ленточных накопителей (Storage Business Unit), вскоре после провала первых моделей жёстких дисков с тонкоплёночным покрытием пластин (RA90 и RA92), слишком поздно вышедших на рынок из-за недоработок при проектировке, и не выдержавших конкуренции. В августе 1994 за 100 млн. долл. США было продано Oracle подразделение баз данных (Database Software Unit), и тогда же за 140 млн. долл. США была продана 7,8% доля в итальянской Olivetti. В ноябре 1997 была подписана сделка о продаже Cabletron за 430 млн. долл. США подразделения сетевых решений (Network Product Business Unit).

Kонец DEC был довольно громким. В мае 1997 она подала в суд на Intel, обвиняя последнюю в нарушении 10 своих патентов на архитектуру Alpha при проектировании процессоров Pentium, Pentium Pro и Pentium II. В сентябре 1997 Intel ответила встречным иском, обвиняя DEC в нарушении 14 патентов при разработке процессоров Alpha. В конце-концов, 27 октября 1997 мир был подписан: обе компании отзывают свои претензии, DEC предоставляет Intel производственные права на весь спектр своей продукции (кроме сегмента Alpha), и соглашается поддерживать будущую архитектуру IA-64, а Intel выкупает у неё за 625 млн. долл. США фабрику в Хадсоне вместе с проектными центрами в Иерусалиме (Израиль) и Остине (Техас), и берётся за производство процессоров Alpha в будущем. Кроме того, был подписан договор о взаимном кросс-лицензировании патентов сроком на 10 лет. Сделка была завершена 18 мая 1998; к тому времени Compaq уже адаптировала в свои структуры основные подразделения DEC, включая 38 тыс. сотрудников (по сравнению с 32 тыс. у самой Compaq до поглощения), хотя значительная их часть всё же была сокращена в самом ближайшем будущем.

Стоит упомянуть, что незадолго до конца DEC, а также вскоре после этого, многие ведущие инженеры, которым DEC была обязана своим могуществом, ушли к другим работодателям: Деррик Мейер (Derrick Meyer) ушёл в AMD создавать K7; туда же, но архитектором K8, ушел Джеймс Келлер (James Keller); Дэниел Лейбхольц (Daniel Leibholz) ушёл в Sun разрабатывать UltraSPARC V; также уволился Ричард Сайтс, один из ведущих разработчиков архитектуры Alpha на протяжении всего времени её существования. В этом плане Intel повезло ещё меньше: доставшаяся ей от DEC архитектура StrongARM осталась почти без разработчиков, так как никто из ведущих инженеров, проектировавших StrongARM-110, а именно Дэниел Добберпуль, Ричард Витек, Грегори Хеппнер (Gregory Hoeppner) и Лайэм Мэдден (Liam Madden), не пожелал перейти на работу в Intel, а команда разработчиков StrongARM второго поколения, работавшая под руководством Витека в Остине, уволилась в полном составе, так что Intel пришлось разрабатывать ядро в буквальном смысле с нуля, усилиями своих инженеров, до этого разрабатывавших i960.

Часть 7. EV6, EV67, EV68C, EV68A


Хотя процессор 21264 (EV6) был разработан в DEC, и первая информация о нем была опубликована в октябре 1996 на Microprocessor Forum, окончательное воплощение в кремнии датируется февралём 1998, когда DEC уже была в процессе ликвидации. Собственно процессор представлял собой довольно существенный шаг вперед по сравнению с EV5, во многих аспектах революционный. Одним из основных нововведений было внеочередное исполнение (out-of-order execution) инструкций, повлёкшее за собой фундаментальную реорганизацию ядра, и снизившую зависимость основных функциональных устройств от пропускной способности кэшей и оперативной памяти. EV6 мог переупорядочить на лету до 80 инструкций, а это значительно больше, чем у других конкурентных разработок (к слову, архитектура Intel P6 предусматривала внеочередную обработку до 40 [микрокоманд], HP PA-8x00 -- до 56, MIPS R12000 -- до 48, IBM Power3 -- до 32, а PowerPC G4 -- до 5; разработанный к тому времени Sun UltraSPARC II переупорядочивание команд не поддерживал). Внеочередное исполнение дополнялось техникой переименования регистров (register renaming), и для этого в ядро было встроено дополнительно 48 целочисленных и 40 вещественных физических регистров (количество логических, то есть программных, осталось неизменным).

Количество целочисленных конвейеров было увеличено до 4 (организованных в 2 кластера), но функционально они были несколько неоднородны: 2-й конвейер мог выполнять операции умножения (7 тактов на инструкцию) и сдвига (1 такт), а 4-й -- MVI (3 такта) и сдвига; кроме того, все 4 конвейера поддерживали отработку элементарных арифметических и логических операций (1 такт). Каждый кластер располагал своим файлом целочисленных регистров (как упомянуто выше, на 80 записей), содержимое которых было идентично (синхронизировалось). 1-й и 3-й конвейеры также выполняли некоторые функции A-box, рассчитывая виртуальные адреса для операций загрузки/сохранения. Собственно A-box работал с I-TLB и D-TLB (каждый на 128 записей), очередями загрузки и сохранения (каждая по 32 команды), и 8 64-байтными буферами (miss address file) для операций с B-cache и основной памятью. Вещественные конвейеры также были функционально различны: 1-й поддерживал операции сложения (4 такта), деления (12 тактов для одинарной точности и 15 тактов для двойной), вычисления квадратного корня (15 и 30 тактов), а 2-й -- только умножения (4 такта). Между прочим, блок вычисления квадратного корня и соответствующие инструкции были нововведениями для архитектуры Alpha. Декодер, как и прежде в EV5, подавал до 4 инструкций за такт, а планировщик распределял их в 2 очереди: на целочисленные конвейеры (I-queue, 20 команд), и на вещественные конвейеры (F-queue, 15 команд). Кроме вычисления квадратного корня, были добавлены инструкции предварительной выборки, а также команды для переноса данных между целочисленными и вещественными регистрами.

Структура C-box подверглась значительным изменениям: теперь он работал только с 2 уровнями кэш-памяти. Интегрированный в ядро L1 состоял из 64Кб I-cache и 64Кб D-cache, оба с 2-канальной ассоциативностью и 64-байтными строками, причем D-cache работал в режиме обратной записи, хотя всё так же дублировался в B-cache. Из-за значительных размеров и усложнённой организации задержки D-cache при чтении/записи были увеличены до 3 тактов (в/из целочисленного регистра) и 4 тактов (в/из вещественного регистра). D-cache так и остался двухпортовым, но, в отличие от EV5, он уже не состоял из 2 одинаковых частей, синхронизированных по записи, а был просто заведён на удвоенной частоте. Внешний B-cache, размером от 1Мб до 16Мб с прямым отображением и обратной записью, использовал независимую 128-битную двунаправленную шину данных (с дополнительными 16 битами для ECC), а также независимую 20-битную однонаправленную шину шину адреса; набирался на микросхемах LW SSRAM (late-write, с отложенной записью), а позднее и DDR SSRAM (double data rate, с удвоенной скоростью передачи данных); частота B-cache программировалась (от 2/3 до 1/8 частоты ядра), и, в отличие от предыдущих поколений процессоров Alpha, собственно B-cache не был опциональным. Системная шина данных была только 64-битной (с дополнительными 8 битами для ECC), двунаправленной, но использовала технологию DDR. Системная шина адреса была 44-битной, физически представленная в виде двух 15-битных однонаправленных каналов, без поддержки DDR. 15-битная системная шина управления DDR также не поддерживала. Был изменён базовый принцип работы системной шины, которая теперь стала выделенной (вместо разделяемой), то есть каждый процессор имел свой путь к чипсету.

Блок предсказания ветвлений был полностью переработан. Теперь он был организован по 2-уровневой схеме: с локальной историей переходов (local history table, 1024 записи с 10-битными счетчиками) и локальным предсказателем (local predictor, 1024 записи по 3 бита), а также с глобальным предсказателем (global predictor, 4096 записей по 3 бита) и 12-битным "путем истории" (history path). Оба алгоритма работали независимо, и если локальный отслеживал каждый отдельный условный переход, то глобальный -- последовательности переходов. Общий предсказатель ветвлений анализировал результаты обоих алгоритмов, и делал выводы в виде отдельной таблицы выборочного предсказателя (choice predictor, 4096 записей по 2 бита), на основе которой выводились предпочтения при расхождении локальных и глобальных прогнозов. Такой кооперативный метод позволял добиться лучших результатов, чем применение любого из подходов в отдельности.

При разработке EV6, учитывая большое число и сложность организации взаимодействия функциональных устройств, была полностью переработана схема расположения генераторов тактовых частот. Более равномерное распространение тактового сигнала позволило ядру работать на частотах, равных частотам куда более простого ядра EV56, при использовании того же техпроцесса. В общем, потребляемая частотными генераторами мощность составляла для EV6 около 32% от общего потребления ядра; для сравнения, у EV56 этот показатель был около 25%, у EV5 -- около 37%, у EV4 -- около 40%.

Физически EV6 производился по той же 6-слойной 0,35µ CMOS6 технологии, что и EV56, состоял из 15,2 млн. транзисторов (из них около 9 млн. на I-cache, D-cache, и предсказатели переходов), имел площадь ядра в 314 кв.мм., и был рассчитан на рабочее напряжение от 2,1В до 2,3В. Тактовые частоты составляли от 466МГц до 600МГц (TDP прибл. от 80Вт до 110Вт). Форм-фактор: PGA-587 (Pin Grid Array).

В конце 1999 на рынок вышел 21264А (EV67), выполненный по 0,25µ CMOS7 техпроцессу от Samsung, с площадью ядра в 210 кв.мм., и пониженным рабочим напряжением в 2,0В. Никаких архитектурных изменений по сравнению с EV6 не наблюдалось. Тактовые частоты составили от 600МГц до 833МГц (TDP прибл. от 70Вт до 100Вт), что позволило Alpha вернуть лидерство на целочисленных операциях, незадолго до этого утраченное в пользу процессоров Intel и AMD.

В начале 2000 появились первые процессоры 21264B (EV68C), на этот раз от IBM, по 0,18µ CMOS8 техпроцессу с использованием медных проводников. Несмотря на прежнее отсутствие архитектурных изменений, многообещающая технология позволила поднять тактовые частоты сразу до 1250МГц. В 2001 Samsung смог наладить производство 21264B (EV68А) по своему 0,18µ техпроцессу, но с алюминиевыми проводниками, сократив площадь ядра до 125 кв.мм., и уменьшив напряжение питания до 1,7В, что позволило вывести тактовые частоты в диапазон от 750МГц до 940МГц (TDP прибл. от 60Вт до 75Вт).

В разных источниках проскакивали упоминания о 21264C и 21264D, с кодовыми именами EV68CB и EV68DC, выпускавшимися IBM по той же технологии, что и EV68C, и с теми же частотными характеристиками, поэтому их можно рассматривать как частные варианты последнего. Единственным существенным отличием было использование нового форм-фактора, "безногого" CLGA-675 (Ceramic Land Grid Array) вместо PGA-587.

Для процессоров серии 21264 было спроектировано 2 чипсета: DEC Tsunami (21272; он же Typhoon) и AMD Irongate (AMD-751), хотя их могло бы быть значительно больше, ввиду того, что и 21264, и Athlon использовали почти одинаковую системную шину (она была лицензирована AMD ещё у DEC).

DEC Tsunami был чипсетом повышенной масштабируемости. На его основе проектировали как однопроцессорные, так двухпроцессорные и четырехпроцессорные системы, с разрядностью шины памяти от 128 до 512 бит (SDRAM ECC registered, 83МГц), поддержкой как одной, так и нескольких шин PCI (64-бит, 33МГц). Такой гибкости удалось достичь благодаря разделению чипсета на отдельные компоненты: контроллеры системной шины (C-chips, по одному на каждый процессор), контроллеры шины памяти (D-chips, по одному на каждые 64 бита ширины шины), и контроллеры шины PCI (P-chips, по одному на каждую требуемую шину). Поэтому ничего удивительного, что в некоторых системах (например, AlphaPC 264DP) чипсеты состояли из 12 микросхем...

Хотя AMD Irongate разрабатывался изначально как северный мост для материнских плат, предназначенных для процессоров Athlon, его также использовали в некоторых материнских платах для Alpha (например, UP1000 и UP1100). Так как он был одночиповым решением, то стоил намного дешевле DEC Tsunami и отличался существенно более низким энергопотреблением. Однако, его возможности не соответствовали потенциалу 21264 из-за отсутствия поддержки многопроцессорности и слишком узкой шины памяти (64-бит, SDRAM ECC unbuffered, 100МГц). Тем не менее, Irongate был первым чипсетом для Alpha с поддержкой шины AGP. И последним.

В виду ограничения количества символов в статье

Продолжение следует...

Показать полностью 5
IT Технологии Инженер Компьютерное железо Компьютер Alpha Производство История развития Чип Процессор Тестирование Электроника Инновации Ответ на пост Длиннопост
2
11
TechSavvyZone
TechSavvyZone

Технологии: "Alpha" история в фактах и комментариях⁠⁠2

2 месяца назад

Вступление

Данный труд открывает цикл статей, посвящённых процессорам и архитектуре Alpha, а также многому с ними связанному. Цикл, потому что изложение всего имеющегося материала в виде одного обзора показалось автору довольно проблематичным и неуместным. К тому же, открываемая тема является действительно многогранной и во многих аспектах фундаментальной, не имеющей прецедентов в плане полноты и масштабности изложения, поэтому вполне заслуживает пристального и подробного рассмотрения. Возможно, эта и последующие статьи смотрелись бы более уместно лет 5 назад, когда Alpha-процессоры ставили очередные рекорды производительности и масштабируемости, a их будущее ожидалось совсем не таким, каким оно выглядит с точки зрения дня сегодняшнего. Однако, именно в наше время можно уверенно подвести финальную черту под этой сагой, посвященной одной из самых интересных и перспективных компьютерных архитектур.

Эта статья является, в значительной мере, историческим очерком с элементами анализа, поэтому её следует рассматривать именно в этом аспекте. В целом, она не претендует на универсальность, хотя и содержит значительное количество справочной информации. С другой стороны, рассматривать её как некролог или надгробную молитву также явно не стоит...

Часть 1. PDP и VAX


Digital Equipment Corporation (сокращенно DEC), основанная в 1957 двумя инженерами, Кеннетом Ольсеном (Kenneth Olsen) и Харланом Андерсоном (Harlan Anderson), выпускниками Массачусетского технологического института, была одной из старейших и наиболее значимых компаний мировой компьютерной индустрии.

До основания компании, Ольсен работал в Линкольнской лаборатории при том же институте, содержащейся на средства Министерства обороны США, и участвовал в разработке одного из первых транзисторных компьютеров, TX-2. Первое время компания разрабатывала и продавала элементарные модули для вычислительной техники, но уже в 1960 представила свой первый компьютер, 18-битный PDP-1 (Programmable Data Processor - 1), способный производить около 100 тыс. операций в секунду; кроме всего прочего, именно на нем была написана первая в истории компьютерная игра, Spacewar Стивена Рассела (Steven Russell). 12-битный PDP-8, запущенный в производство в 1964, вполне заслуженно считают первым серийно выпускаемым "миникомпьютером", из-за довольно компактных размеров (с небольшой шкаф) и невысокой, по тем временам, цены (около 18 тыс. долл. США (1965) в базовой комплектации); благодаря отличному соотношению цены и производительности, этот компьютер смог составить достойную конкуренцию знаменитым мэйнфрэймам IBM, и к 1968 было собрано около 1450 машин (не считая поздних многочисленных модификаций). В том же 1968 был представлен 36-битный PDP-10, основанный на дизайне экспериментального PDP-6, рассчитанный на использование в центрах обработки данных, исследовательских лабораториях, и в военных целях; модификации PDP-10 производились вплоть до 1983. Работы над усовершенствованием 36-битной архитектуры продолжались в рамках проекта "Единорог" (the Unicorn project), под руководством Леонарда Хьюджеса (Leonard Hughes) и Дэвида Роджерса (David Rogers), но в июне 1975 проект был закрыт, и все ресурсы были переведены на поддержку другой, 32-битной, архитектуры.

16-битный PDP-11, запущенный в производство в начале 1970-х, был первым компьютером DEC, в котором использовались 8-битные байты, и прямым наследником линейки PDP-8. Благодаря простой и удачной архитектуре, основанной на системной шине Unibus (или её модификации, Q-bus), довольно эффективному набору инструкций, и, что немаловажно, невысокой стоимости, линейка PDP-11 очень быстро обрела популярность. Вполне закономерно, что PDP-11 вскоре стали широко клонировать, в том числе и в "странах народной демократии": СМ-4 (СССР, Болгария, Венгрия), СМ-1420 (СССР, Болгария, ГДР), СМ-1600 (СССР), ИЗОТ-1016 (Болгария), ДВК (СССР). Для PDP-11 было разработано множество операционных систем: DEC предлагала P/OS, RSX-11, RT-11, RSTS/E, также было доступно несколько вариантов DOS, и в конце-концов, на PDP-7 и PDP-11 в 1971 было сделано первое издание ОС UNIX (в Bell Laboratories), тогда ещё на ассемблере. PDP-11 ушел с рынка в течение 1980-х по одной, но неизбежной причине: недостаточный объем адресного пространства, знаменовавший переход на новую, 32-битную, но все ещё CISC, архитектуру.

И ей стала VAX (Virtual Address eXtension), официально утвержденная на заседании VAX Architecture Committee в апреле 1975. Детали архитектуры разрабатывались в течение нескольких месяцев в рамках проекта "Звезда" (the Star project) под руководством Гордона Белла (Gordon Bell), параллельно с вышеупомянутым проектом "Единорог", и по окончании работ над обоими проектами было решено отменить дальнейшее развитие 36-битных систем, и сконцентрировать ресурсы на поддержке 32-битных VAX'ов. Фактическим результатом работы проекта "Звезда" было обоснование необходимости как увеличения разрядности основных регистров PDP-11 до 32 бит, так и их числа (с 8 до 16), а также существенный пересмотр набора инструкций. В октябре 1977 был анонсирован первый представитель линейки -- модель 11/780, а в феврале 1978 была выпущена новая операционная система для VAX'ов, VMS (Virtual Memory System) версии 1.0; к слову, новая ОС, многопользовательская и многозадачная, поддерживала до 64Мб оперативной памяти, встроенные сетевые возможности (DECnet), адаптивный планировщик задач, расширенное управление процессами, и многие другие функции, значительно опередившие свое время. В апреле 1980 вышла версия 2.0, с многочисленными улучшениями, переименованная в VAX/VMS. На VAX также была вскоре портирована классическая UNIX. VAX'ы выпускались и продавались с большим успехом в течение 1980-х, и даже на рубеже веков поставлялись ограниченными партиями по спецзаказам. Модельный ряд насчитывал несколько десятков наименований: от довольно компактных рабочих станций до 6-процессорных серверов мэйнфрэйм-класса. И по сей день тысячи VAX'ов работают в структуре Министерства обороны США и NSA (National Security Agency), а также во многих коммерческих организациях. Но тем не менее, эпоха VAX'ов осталась в 1980-х, а в 1990-х DEC сделала ставку на новую архитектуру.

Часть 2. Проект PRISM


В начале 1980-х DEC была на вершине финансового могущества, в значительной мере благодаря стабильно растущим объемам поставок VAX'ов. Однако ничто не вечно, и было очевидно, что в своё время и VAX придется уйти с рынка, как это уже происходило с PDP-11. В то время многие компании начали обращать внимание на перспективные разработки в среде RISC, и DEC явно не желала остаться в стороне. С 1982 по 1985 в составе компании активно работали несколько подразделений, занимавшихся исследованиями в области RISC:


Titan, высокоскоростной дизайн от Западной исследовательской лаборатории (Western Research Laboratory, DECwest) в Пало-Альто (Калифорния), под руководством Фореста Бэскетта (Forest Baskett), с 1982;
SAFE (Streamline Architecture for Fast Execution), под руководством Алана Котока (Alan Kotok) и Дэвида Орбица (David Orbits), с 1983;
HR-32 (Hudson RISC 32-bit), при фабрике DEC в Хадсоне (Массачусетс), под руководством Ричарда Витека (Richard Witek) и Дэниела Добберпуля (Daniel Dobberpuhl), с 1984;
CASCADE Дэвида Катлера (David Cutler) в Сиэттле (Вашингтон), с 1984.


В 1985, с подачи Катлера насчёт создания "корпоративного RISC-плана", все 4 проекта были объединены в один,PRISM(Parallel Instruction Set Machine), и совместными усилиями к августу 1985 была подготовлена первая спецификация на новый RISC-процессор. Стоит упомянуть, что к тому времени DEC уже принималa активное участие в разработке процессора MIPS R3000 и даже инициировалa создание консорциума Advanced Computing Environment для продвижения этой архитектуры на рынке.

Поэтому нет ничего удивительного в том, что разрабатываемый процессор унаследовал много черт, присущих архитектуре MIPS, но в то же время отличия были очевидны. Все инструкции имели фиксированную длину в 32 бита, из них верхние 6 и нижние 5 были собственно кодом инструкции, а остальные 21 предназначались для непосредственно данных либо их адресации. Были определены 64 основных 32-битных целочисленных регистрa (MIPS предусматривалa 32), а также 16 дополнительных 64-битных векторных регистров, и 3 контрольных регистра для векторных операций: два 7-битных (vector length и vector count), один 64-битный (vector mask). Регистр состояния процессора отсутствовал, поэтому результат сравнения двух скалярных операндов помещался в целочисленный регистр, а результат сравнения двух векторных операндов -- в vector mask. Встроенный блок вычислений с плавающей запятой не предусматривался. Также присутствовал набор специальных инструкций(Epicode, или extended processor instruction code), реализованных программно посредством загружаемого микрокода, для облегчения решения специальных задач, присущих определённой среде или операционной системе, и не предусмотренных стандартным набором команд; впоследствии, эта функция была реализована в архитектуре Alpha под названиемPALcode(Privileged Architecture Library code).

К 1988 проект был всё ещё в стадии разработки, когда высший менеджмент DEC закрыл его, посчитав дальнейшее финансирование нецелесообразным. Протестуя против этого, Катлер уволился и ушёл в Microsoft, где возглавил подразделение по разработке Windows NT.

В начале 1989 DEC представила свои первые рабочие станции с RISC-процессорами, DECstation 3100 на основе 32-битногоMIPS R2000с частотой в 16МГц, и DECstation 2100 на основе того же процессора, но с частотой в 12МГц. Обе машины работали под ОС Ultrix и стоили довольно умеренно (около 8 тыс. долл. США (1990) за DECstation 2100).

Часть 3. Проект Alpha


В 1989 морально стареющая архитектура VAX уже с трудом могла конкурировать с RISC-архитектурами 2-го поколения, такими какMIPSиSPARC, и было вполне очевидно, что следующее поколение RISC оставит VAX немного шансов на выживание. В середине 1989 перед инженерами DEC была поставлена задача создания конкурентоспособной RISC-архитектуры с перспективным потенциалом, но минимально несовместимой с VAX, чтобы облегчить перенос на неё VAX/VMS и всей сопутствующей программной базы. Также было определено, что новая архитектура должна изначально быть 64-битной, так как конкуренты уже были в процессе перехода на 64 бита. Была создана рабочая группа, в которой главными архитекторами были Ричард Витек и Ричард Сайтс (Richard Sites).

Первое официальное упоминание об архитектуреAlphaдатируется 25 февраля 1992, на конференции в Токио. Одновременно в небольшом обзоре (для USENET-конференции comp.arch) были перечислены ключевые моменты новой архитектуры; там же было оговорено, что "Alpha" является кодовым именем нового процессора, а рыночное название будет представлено позже. Процессор имел чистую64-битнуюRISC-архитектурус инструкциями фиксированной длины(по 32 бита),с 32 целочисленными64-битными регистрами, работал с 43-битными адресами виртуальной памяти (с расширением до 64 бит в перспективе), использовал, как и VAX,little-endianпорядок следования байт (то есть, когда младший байт регистра занимает при записи младший адрес в памяти; традиционно поддерживался Intel, в противовес к big-endian, изначально внедрённому Motorola, и используемому в большинстве процессорных архитектур, где младший байт регистра занимает при записи старший адрес в памяти). Математический сопроцессор был изначально интегрирован в ядро, вместе с 32 вещественными64-битными регистрами, причём использовался произвольный доступ к ним, в отличие от примитивного стекового, используемого сопроцессорами Intel x87. Срок службы новой архитектуры был определен, как минимум, в 25 лет.

Поддерживаемый набор инструкций был максимально упрощён с целью максимального облегчения конвейеризации, и состоял из 5 групп:


инструкции для целочисленных вычислений;
инструкции для вещественных (с плавающей запятой) вычислений;
инструкции отработки условных и безусловных переходов, а также сравнения;
инструкции загрузки и сохранения данных;
инструкции PALcode.


Стоит отметить, что инструкции целочисленного деления отсутствовали, так как являлись наиболее сложными и плохо поддающимися конвейеризации, а поэтому эмулировались.

Архитектура Alpha была "настоящей" RISC (в отличие от современных процессоров архитектуры i386, которые RISC только изнутри). Концептуально разница междуRISC(Reduced Instruction Set Computing) иCISC(Complex Instruction Set Computing) состояла (и до сих пор состоит) в нескольких моментах:

Процессор предполагалось запустить в производство на очень высокой для того времени частоте - 150МГц, и довести до 200МГц при тех же конструкторских нормах. Это оказалось возможным как благодаря удачной архитектуре, так и благодаря отказу разработчиков от использования систем автоматического проектирования и выполнению всех работ по схемотехнике исключительно вручную.

Проект вступил в производственную стадию и вскоре был реорганизован в регулярное подразделение DEC.

Трудами отдела маркетинга DEC новая архитектура получила название AXP (или Alpha AXP), хотя до сих пор неизвестно, аббревиатурой чего было это недоразумение. Возможно, что и ничего; в прошлом DEC имела проблемы с торговой маркой VAX, на которую претендовала компания по производству пылесосов, и тогда дело дошло до суда. Кроме всего прочего мотивировалось, что рекламный слоган этой компании ("Nothing sucks like a Vax!" - "Ничто не сосёт так, как Vax!") дискредитирует продукцию DEC. Так что вскоре в компьютерном мире появилась шутка, что AXP - это "Almost Exactly PRISM", то есть "почти точно PRISM".

Часть 4. EV4, LCA4, EV45, LCA45


Первый процессор из семейства Alpha получил название 21064 (21 указывал, что Alpha -- это архитектура XXI века, 0 -- процессорное поколение, 64 -- разрядность в битах), и кодовое наименование EV4 (EV является [предположительно] аббревиатурой "Extended VAX", а цифра 4 -- поколением техпроцесса, CMOS4; CMOS, в свою очередь, есть аббревиатура "Complementary Metal Oxide Semiconductor"). Стоит отметить, что прототип EV4 был готов ещё в 1991, по CMOS3 техпроцессу, а поэтому с уменьшенными кэшами и без блока вычислений с плавающей запятой; тем не менее, он сыграл свою роль в отладке архитектуры и программной среды. EV4 был представлен в ноябре 1992, и поступил в производство на передовом для того времени 3-слойном 0,75µ техпроцессе (впоследствии, производство было переведено на оптическую модификацию CMOS4 -- CMOS4S, 0,675µ). Был рассчитан на напряжение питания в 3,3В, выпускался с тактовыми частотами от 150МГц до 200МГц (ТDP от 21Вт до 27Вт). Состоял из 1,68 млн. транзисторов, и имел площадь ядра в 233 кв. мм. Поддерживал многопроцессорность, как один из ключевых моментов архитектуры. Форм-фактор: PGA-431 (Pin Grid Array).

Кэш L1 был интегрирован: 8Кб для инструкций (I-cache, instruction cache), с прямым отображением (direct-mapped), а также 8Кб для данных (D-cache, data cache), с прямым отображением и сквозной записью (write-through). Задержки при чтении из D-cache составляли 3 такта. Каждая линия I-cache состояла из 32 байт инструкций, 21-битного тега, 8-битного поля истории переходов, и нескольких вспомогательных полей; каждая линия D-cache состояла из 32 байт данных и 21-битного тега. Кэш L2 (B-cache, backup cache) был рекомендуемой опцией, набирался на микросхемах синхронной или асинхронной статической памяти, работал в режиме обратной записи (write-back) с прямым отображением и упреждающим чтением (read-ahead), мог иметь размер до 16Мб (обычно от 512Кб до 2Мб); каждая линия состояла из 32 байт данных или инструкций с 1-битным long-word parity или 7-битным long-word ECC, максимум 17-битного тега с 1 битом чётности, и 3 битов состояния с 1 битом четности. Скорость чтения/записи B-cache программировалась, в тактах процессора. Разрядность системной шины данных составляла 64 или 128 бит (программируемо, с 1-битным long-word parity или 7-битным long-word ECC), и она мультиплексировалась с шиной данных B-cache, переключаясь при необходимости; разрядность системной шины адреса составляла 34 бита. Организационно B-cache был включающим (inclusive) D-cache, то есть поддерживал копию содержимого последнего. При выгрузке данных из B-cache в память использовался механизм victim write. Операции чтения/записи в B-cache являлись прерогативой исключительно процессора, для системной логики было разрешено только чтение файла тегов (B-tag, что жизненно необходимо особенно в многопроцессорных системах, для обеспечения согласованности (когерентности) кэшей).

Процессор имел один целочисленный конвейер (E-box, 7 стадий), и один вещественный конвейер (F-box, 10 стадий). Декодер и планировщик инструкций (I-box) был в состоянии подавать 2 команды за такт в порядке очереди (in-order) на исполняющие устройства, то есть на E-box, F-box и блок загрузки/сохранения (A-box). Контроллер кэшей и системной шины (C-box) работал в тесном взаимодействии с A-box и управлял как интегрированными I-cache и D-cache, так и внешним B-cache. Также присутствовал блок предсказания переходов (branch prediction unit), с таблицей переходов на 4096 записей (branch history table), по 2 бита каждая. I-TLB имел 8 записей для 8Кб-страниц, и 4 записи для 4Мб-страниц, все с пoлной ассоциативностью (fully-associative). D-TLB имел 32 записи, с полной ассоциативностью.

Несмотря на отличную производительность, EV4 был довольно дорог для значительной части потенциальных покупателей, и поэтому в сентябре 1993 был анонсирован его бюджетный собрат, 21066 (LCA4, или LCA4S). Этот процессор был основан на ядре 21064, но с дополнительно интегрированными контроллерами памяти и шины PCI, а также некоторыми второстепенными функциями. Однако, разрядность системной шины данных была урезана до 64 бит, что негативно сказалось на производительности. LCA4 производился по 0,675µ CMOS4S техпроцессу, и его площадь оказалась ещё меньше, чем у EV4 (209 кв.мм по сравнению с 234 кв.мм.), а тактовые частоты были занижены (от 100МГц до 166МГц), в значительной мере из-за потенциальной угрозы перегрева в плохо вентилируемых настольных системных блоках того времени, и чтобы не создавать дополнительной конкуренции EV4. Количество транзисторов в ядре составило 1,75 млн., a напряжение питания -- 3,3В. Дизайн этого процессора был лицензирован Mitsubishi, и последняя также производила LCA4 (включая и 200МГц версию).

В октябре 1993, на Microprocessor Forum, был анонсирован 21064А (EV45), обновленная версия EV4, производимая по 4-слойному 0,5µ CMOS5 техпроцессу. В ноябре 1994, на COMDEX'94, был представлен 21066А (LCA45), почти аналогично модифицированная версия LCA4. Стоит отметить, что манера маркетологов DEC добавлять букву к модели процессора при перепланировке ядра под новый техпроцесс сохранилась и в будущем. Собственно состав процессорных ядер изменился незначительно; EV45 теперь обладал удвоенным размером кэша L1 (16Кб I-cache + 16Кб D-cache), к полям данных и тегам I-cache и D-cache было добавлено по биту чётности, поля истории переходов I-cache были расширены до 16 бит, ассоциативность D-cache была увеличена до 2 (2-way set associative), а к режимам контроля над системной шиной данных был добавлен 1-битный byte parity. Также в EV45 и LCA45 был незначительно модифицирован F-box (оптимизация деления: в EV4 одна операция требовала 34 такта для операндов одинарной точности и 63 такта для операндов двойной точности, вне зависимости от значений операндов; в EV45 она уже требовала от 19 до 34 тактов для операндов одинарной точности и от 29 до 63 тактов для операндов двойной точности, в зависимости от значений операндов). LCA45 также производился на мощностях Mitsubishi. Площади ядер уменьшились: до 164 кв.мм (EV45) и до 161 кв.мм (LCA45), количество транзисторов в ядре EV45 возросло до 2,85 млн., а в ядре LCA45 осталось прежним (1,75 млн.). В конечном результате, энергопотребление обоих процессоров в расчёте на единицу частоты сократилось, хотя напряжение питания осталось неизменным (3,3В). Тактовые частоты ЕV45 составляли от 200МГц до 300МГц (TDP от 24Вт до 36Вт), LCA45 -- от 166 до 233МГц.

Так как DEC участвовала в разработках оборудования под заказ Министерства обороны США, то в 1994 были спроектированы процессоры 21068 (66МГц) и 21068А (100МГц), являвшиеся вариантами LCA4 и LCA45, адаптированными под военные нужды (пассивное охлаждение, жёсткие температурные условия, пр.).

Первые чипсеты для EV4 использовали периферийные шины TURBOchannel, FutureBus+ и XMI. Хотя все эти реализации были очень скоростными для своего времени (около 100Мб/с на шину), они не получили широкого распространения, и количество доступной периферии измерялось единицами. Поэтому DEC обратила внимание на стандартные шинные архитектуры, такие как PCI и ISA (EISA). В начале 1994 был представлен чипсет DEC Apecs в двух исполнениях: с 64-битной системной шиной данных (21071) и 128-битной (21072). Вся разница между ними состояла в том, что 21071 состоял из 4 микросхем (1 универсальный контроллер, 2 микросхемы data slice, 1 контроллер шины PCI), а 21072 -- из 6 (дополнительно ещё 2 микросхемы data slice). Поддерживал частоту системной шины в 33МГц, до 16Мб B-cache и до 4Гб памяти FPM parity со временем доступа от 100 до 50нс. Поддержка шин ISA или EISA могла быть реализована посредством стандартных мостов, таких как i82378IB (ISA) или i82378EB (EISA).

Первая рабочая станция архитектуры Alpha от DEC была выпущена в ноябре 1992, DEC 3000 Model 500 AXP (кодовое имя Flamingo), с процессором EV4 150МГц, 512Кб B-cache, 32Мб оперативной памяти, SCSI HDD на 1Гб, SCSI CD-ROM, встроенным контроллером Ethernet 10Мбит (толстый коаксиал и витая пара), встроенным звуковым и ISDN контроллером, а также с 19-дюймовым монитором (1280х1024 8-бит). Цена была шокирующая: 38995 долл. США.

Часть 5. EV5, EV56, PCA56, PCA57


Первая архитектурная информация о своём Alpha-процессоре 2-го поколения была открыта DEC на конференции Hot Chips, которая состоялась 14 августа 1994 в Пало-Альто (Калифорния), хотя официальным анонсом21164(EV5) можно считать пресс-релиз DEC от 7 сентября 1994. Процессор базировался на ядре EV45 и содержал изменения скорее экстенсивного характера, чем интенсивного. Ядро включало удвоенное количество конвейеров для целочисленной и вещественной математики (по сравнению с EV4 или EV45), причём количество стадий вещественных конвейеров сократилось с 10 до 9. Однако, целочисленные конвейеры были неодинаковы: хотя оба могли выполнять элементарные арифметические и логические операции, только в компетенцию 1-го входило выполнение инструкций умножения и смещения, и только по 2-му могли быть направлены инструкции условных/безусловных переходов; также, оба конвейера могли вычислять виртуальные адреса для команд загрузки, однако только 1-й -- для команд сохранения. Вещественные конвейеры были также неоднородны: 1-й мог выполнять любой код с плавающей запятой, кроме инструкций умножения, которые были теми единственными командами, что мог выполнять 2-й конвейер. Чтобы обеспечить эффективную загрузку функциональных устройств, I-box мог выбирать и декодировать до 4 инструкций за такт. Производился по тому же 4-слойному 0,5µ CMOS5 техпроцессу, что и EV45, был рассчитан на напряжение питания в 3,3В, имел площадь ядра в 299 кв.мм. и содержал 9,3 млн. транзисторов (из них 7,8 млн. в виде интегрированного кэша), что было очень близко к теоретическому пределу для данного техпроцесса. Тактовые частоты EV5 составляли от266МГц до 333МГц(TDP от 46Вт до 56Вт). Форм-фактор: IPGA-499 (Interstitial Pin Grid Array).

Размеры и организация I-cache и D-cache остались как у EV4, то есть по 8Кб, и со сквозной записью для D-cache, хотя он теперь стал двухпортовым по чтению, то есть за 1 такт он мог поставить данные для 2 инструкций загрузки. Жертвуя транзисторами во имя быстродействия, физически D-cache состоял из 2 абсолютно одинаковых по содержанию частей размером в 8Кб каждая, то есть чтение шло из любой части, а запись -- одновременно в обе. Так как процессор имел 96Кб интегрированного кэша L2 с обратной записью с 3-канальной ассоциативностью, то в структуру C-box была добавлена его поддержка (S-cache, secondary cache) через независимую 128-битную шину данных, при этом интерфейс к внешнему B-cache (который все ещё оставался опциональным, набирался на микросхемах синхронной статической памяти и мог иметь размер до 64Мб, хотя обычно составлял от 1Мб до 4Мб) был сохранён -- другими словами,EV5 поддерживал 3 уровня кэшей. Доступ к S-cache был организован по принципу 4-стадийного конвейера: два такта на поиск тега и его изменение, два такта на доступ к данным и их передачу; строка S-cache была в 64 байта (с возможным разделением на две 32-байтных подстроки), с одним тегом на строку. Задержки при чтении из D-cache сократились до 2 тактов, а из S-cache -- составляли 7 тактов (как упоминалось выше, 4 такта на первые 16 байт, и по 1 такту на каждые последующие 16 байт для формирования полной строки). Как и в EV4, содержимое D-cache дублировалось, только теперь в S-cache; в свою очередь, для упрощения поддержки, B-cache был включающим S-cache, несмотря на разницу в ассоциативностях. Ёмкость I-TLB была увеличена до 48 записей (страницы размером от 8Кб до 4Мб), а D-TLB -- до 64 записей, причём он стал двухпортовым (по аналогии с D-cache). Системная шина данных имела фиксированную ширину в 128 бит (с дополнительными 16 битами для ECC) и всё так же мультиплексировалась с шиной данных к B-cache; системная шина адреса была 40-битной, управления -- 10-битной.

В октябре 1995, на Microprocessor Forum, был представлен 21164А (EV56), незначительно модифицированная версия EV5 с учетом 0,35µ конструкторских норм (CMOS6), производимая на той же фабрике в Хадсоне (DEC инвестировала в её модернизацию около 450 млн. долл США). Наиболее существенным архитектурным отличием можно считать BWX (Byte-Word Extension) -- набор из 6 дополнительных команд для загрузки/сохранения данных размером в 8 или 16 бит. Изначально архитектура Alpha поддерживала загрузку/сохранение данных квантами исключительно по 32 или 64 бита, что создавало определенные сложности при портировании или эмуляции кода других процессорных архитектур, например, i386 или MIPS. Предложение о внедрении BWX в базовый набор команд Alpha появилось в июне 1994 с подачи Ричарда Сайтса и было утверждено в июне 1995. Правда, для успешной работы BWX требовалась поддержка как со стороны процессора, так и со стороны чипсета. EV56 производился с тактовыми частотами от 366МГц до 666МГц (TDP от 31Вт до 55Вт), начиная с лета 1996. Samsung также выпускал EV56, по лицензионному соглашению с DEC от июня 1996 (версию на 666МГц производил только он). Содержал 9,66 млн. транзисторов, площадь ядра составляла 209 кв.мм., использовалось двойное напряжение (2,5В на основную логику и 3,3В на входные-выходные цепи).

17 марта 1997 был представлен 21164PC (PCA56), бюджетный вариант EV56, спроектированный совместно DEC и Mitsubishi. Отсутствовал S-cache и соответствующая логика, зато размер I-cache был увеличен вдвое (до 16Кб). Содержал 3,5 млн. транзисторов, имел площадь ядра в 141 кв.мм., использовал тот же техпроцесс и напряжение питания, что и EV56; форм-фактор процессора изменился: IPGA-413 против IPGA-499. Выпускался с тактовыми частотами от 400МГц до 533МГц (TDP от 26Вт до 35Вт). В будущем, на производственных мощностях Samsung, также выпускался 0,28µ вариант 21164PC (PCA57), с удвоенными размерами I-cache и D-cache, причём первый использовал 2-канальную ассоциативность. Количество транзисторов в ядре увеличилось до 5,7 млн., а его площадь уменьшилась (до 101 кв.мм.); был спроектирован под пониженное напряжение питания (2,0В на основную логику и 2,5В на входные-выходные цепи), с тактовыми частотами от 533МГц до 666МГц (TDP от 18Вт до 23Вт).

Кроме унаследованных от EV56 инструкций BWX, PCA56 поддерживал новый набор MVI (Motion Video Instructions), предназначенный для ускорения алгоритмов обработки видео и аудио потоков по принципу SIMD (Single Instruction -- Multiple Data), в некоторой мере сопоставимый с MMX.

Первым стандартным чипсетом, разработанным для EV5, был DEC Alcor (21171). Он поддерживал частоту системной шины в 33МГц, до 64Мб B-cache, до 8Гб памяти FPM ECC (используя шину памяти разрядностью в 256 бит), а также 64-битную шину PCI (33МГц). Поддержка шины ISA (EISA) могла быть реализована посредством стандартного моста, как и прежде. Встроенного контроллера IDE также не было (мог устанавливаться отдельной микросхемой других производителей). Физически чипсет состоял из 5 чипов: 1 универсального контроллера (включающего поддержку шины PCI), и 4 коммутаторов данных (data switch). Одновременно с запуском в производство EV56 была выпущена модификация Alcor, поддерживающая BWX -- Alcor 2 (21172). Дальнейшим развитием этой "чипсетной династии" стал одночиповый Pyxis (21174), который поддерживал системную шину с частотой в 66МГц и память SDRAM ECC 66МГц (правда, используя шину памяти с разрядностью в 128 бит). Для систем на основе PCA57 был разработан чипсет VLSI Polaris.

В виду ограничения количества символов в статье

Продолжение следует...

Показать полностью 11
IT Технологии Инженер Компьютерное железо Компьютер Alpha Производство История развития Чип Процессор Тестирование Электроника Инновации Длиннопост
5
11
TechSavvyZone
TechSavvyZone

Технологии в Играх: "Фотограмметрия"⁠⁠

8 месяцев назад

Для создания реалистичной графики в играх используется огромное количество различных сложных технологий. Одной из них является фотограмметрия, призванная сделать виртуальный мир реалистичнее за счет переноса в него реальных объектов с помощью фотографии. В чем суть технологии, как она работает и где применяется?

Немного истории

Фотограмметрия — это наука и технология получения надежной информации о физических объектах и окружающей среде через процессы записи, измерения и интерпретации фотографических изображений. Этот метод используется в различных областях, таких как картография, архитектура, геодезия и даже криминалистика. Основная идея фотограмметрии заключается в том, чтобы использовать фотографии для создания точных моделей и карт.

Фотограмметрия позволяет получать данные о форме, размере и положении объектов, что делает ее незаменимой в различных научных и практических областях. Например, в геодезии фотограмметрия используется для создания топографических карт, в архитектуре — для документирования исторических зданий, а в криминалистике — для реконструкции мест преступлений. Благодаря своей универсальности и точности, фотограмметрия нашла широкое применение и продолжает развиваться с появлением новых технологий.

Ранние этапы развития фотограмметрии

Фотограмметрия начала развиваться в середине 19 века, вскоре после изобретения фотографии. Первые попытки использовать фотографии для измерений и картографирования были сделаны в 1850-х годах.

В 1851 году французский инженер Доминик Франсуа Араго предложил использовать фотографии для топографических съемок. В 1858 году французский фотограф и картограф Aimé Laussedat впервые применил фотограмметрию для создания карт.

Примеры ранних применений

  • 1858 год: Aimé Laussedat использовал фотографии для создания топографических карт Парижа. Этот метод позволил значительно ускорить процесс картографирования и повысить точность получаемых данных.

  • 1867 год: немецкий ученый Albrecht Meydenbauer разработал метод фотограмметрии для архитектурных съемок. Его работа стала основой для дальнейшего развития архитектурной фотограмметрии, которая используется для документирования и реставрации исторических зданий.

Эти ранние примеры показывают, как фотограмметрия начала находить свое применение в различных областях. Несмотря на ограниченные технические возможности того времени, исследователи смогли заложить основы для дальнейшего развития этой науки.

Эволюция технологий и методов в 20 веке

С развитием технологий в 20 веке фотограмметрия претерпела значительные изменения. Появление авиации и спутниковых технологий открыло новые возможности для фотограмметрии. Эти инновации позволили значительно расширить область применения фотограмметрии и повысить точность получаемых данных.

Авиасъемка и спутниковая фотограмметрия

  • 1920-е годы: Появление авиасъемки позволило создавать более точные и детализированные карты. Фотограмметрия стала важным инструментом в военной разведке и картографии. Авиасъемка позволила получать данные о больших территориях за короткое время, что было особенно важно в условиях военных действий.

  • 1960-е годы: С запуском первых спутников началась эра спутниковой фотограмметрии. Спутниковые снимки предоставили возможность получать данные о больших территориях с высокой точностью. Это открыло новые возможности для мониторинга природных катастроф, изучения климата и других научных исследований.

Программное обеспечение и цифровая фотограмметрия

С развитием компьютерных технологий фотограмметрия стала цифровой. Появление специализированного программного обеспечения позволило автоматизировать многие процессы, делая их более точными и эффективными.

  • 1980-е годы: Разработка первых программ для цифровой фотограмметрии. Эти программы позволили значительно упростить процесс обработки фотографий и получения данных.

  • 1990-е годы: Широкое распространение цифровых камер и развитие компьютерных технологий способствовали дальнейшему развитию фотограмметрии. Цифровые камеры позволили получать изображения с высокой разрешающей способностью, что повысило точность фотограмметрических измерений.

Эти технологические достижения позволили значительно расширить область применения фотограмметрии и повысить точность получаемых данных. Сегодня фотограмметрия используется в самых различных областях, от создания 3D моделей городов до мониторинга природных катастроф.

Современные достижения и инновации

Сегодня фотограмметрия используется в самых различных областях, от создания 3D моделей городов до мониторинга природных катастроф. Современные технологии, такие как дроны и лазерное сканирование, значительно расширили возможности фотограмметрии.

Примеры современных применений

  • Архитектура и строительство: Создание точных 3D моделей зданий и сооружений. Фотограмметрия позволяет документировать исторические здания, проводить их реставрацию и создавать виртуальные туры.

  • Геодезия и картография: Создание высокоточных карт и моделей местности. Фотограмметрия используется для создания топографических карт, мониторинга изменений ландшафта и других геодезических задач.

  • Криминалистика: Использование фотограмметрии для реконструкции мест преступлений. Фотограмметрия позволяет создавать точные 3D модели мест преступлений, что помогает в расследовании и анализе доказательств.

Инновации и новые технологии

  • Дроны: Использование дронов для аэрофотосъемки позволяет получать данные с высокой точностью и детализацией. Дроны могут использоваться для мониторинга строительных площадок, сельскохозяйственных угодий и других объектов.

  • Лазерное сканирование: Совмещение фотограмметрии с лазерным сканированием позволяет создавать более точные и детализированные модели. Лазерное сканирование используется для создания 3D моделей зданий, ландшафтов и других объектов.

Эти современные достижения и инновации позволяют значительно расширить возможности фотограмметрии и повысить точность получаемых данных. Фотограмметрия продолжает развиваться и находить новые применения в различных областях.

Будущее фотограмметрии

Фотограмметрия продолжает развиваться, и будущее этой науки выглядит многообещающе. Новые технологии, такие как искусственный интеллект и машинное обучение, открывают новые возможности для автоматизации и повышения точности фотограмметрических методов.

Перспективы развития

  • Искусственный интеллект: Использование ИИ для автоматической обработки и анализа фотограмметрических данных. ИИ может использоваться для распознавания объектов на фотографиях, автоматической коррекции ошибок и других задач.

  • Машинное обучение: Применение машинного обучения для улучшения точности и эффективности фотограмметрических методов. Машинное обучение позволяет создавать модели, которые могут адаптироваться к изменениям и улучшать свою точность со временем.

  • Виртуальная и дополненная реальность: Интеграция фотограмметрии с VR и AR для создания интерактивных моделей и симуляций. VR и AR позволяют создавать виртуальные туры, обучающие симуляции и другие интерактивные приложения.

Фотограмметрия, начавшаяся как простая идея использования фотографий для измерений, превратилась в мощный инструмент, который продолжает развиваться и находить новые применения. Будущее этой науки обещает быть еще более захватывающим и инновационным.

С развитием новых технологий фотограмметрия будет продолжать находить новые применения и улучшать свою точность. Это позволит создавать более точные и детализированные модели, что будет полезно в различных научных и практических областях.

Но давайте вернемся к основному вопросу, "Что такое фотограмметрия?" и как она применяется в играх...

Фотограмметрия в 3D-графике

Для создания 3D-моделей используются снимки объекта с разных сторон. Специальное программное обеспечение сначала определяет положение камеры во время снимков, а затем «сшивает» их для создания единого графического пространства.

После этой процедуры программа переносит полученные данные в 3D-модель, используя полигоны — те самые треугольники, которые стоят в основе компьютерной 3D-графики реального времени. Так как поверхности реальных объектов очень сложные, изначальное количество полигонов на модель может достигать сотен тысяч.

Для использования в кинематографии детальные модели только в плюс, ведь каждая мелочь только придает реалистичности. А вот для использования в играх модели упрощаются в десятки или даже сотни раз, так как в режиме реального времени графические процессоры компьютеров не в состоянии справиться с изначальной громадной детализацией.

При этом находится некий баланс между изначальным количеством деталей и количеством полигонов, которые могут «переварить» видеокарты. В результате графические ресурсы такие модели в играх потребляют аналогично вручную нарисованным, а вот выглядят гораздо более достоверно.

Оборудование для создания моделей

Для создания исходного материала используются фотокамеры. После череды снимков с разных сторон фотографии загружаются в программу, которая обрабатывает их и превращает в 3D-объект.

Чем больше снимков и чем качественнее камера, тем более точной получается итоговая модель.

Многое зависит и от освещения — оно должно быть с определенной цветовой температурой, качественное и однородное. При неправильном освещении перенесенный в 3D-сцену объект может выглядеть неестественно. По той же причине на объекте переноса должны отсутствовать посторонние тени и блики. У моделей, которые можно разделить на части, например, оружия, каждую деталь для более высокой точности сканируют отдельно, затем «склеивая» их воедино в программе-редакторе.

Для качественной фотограмметрии используются все атрибуты фотостудии — камеры с достойной оптикой, студийное освещение, окружение белого цвета. Более того, крупные игровые компании создают специальные комнаты с массивом камер, закрепленных вокруг предмета съемки с точным позиционированием. Такая конструкция позволяет наиболее корректно сделать снимки с определенных координат и максимально точно перенести объект в цифровой вид.

К сожалению, не все объекты сканирования можно транспортировать в студию, особенно крупные и природные. В таких случаях снимки делаются на местах расположения объектов, но не забывая при этом про корректное освещение, отсутствие теней и бликов. Имеющиеся изъяны дорабатывают на компьютере — разница в том, что ручного труда для точного переноса объекта в таком случае требуется больше.

В виду ограничения фотоматериалов

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 21
Инженер Технологии IT Компьютер Программа Тестирование 3D графика Компьютерная графика Фотография Топосъемка Дизайнер Архитектура Компьютерные игры Производство История развития Ученые Изобретения Изобретатели Инновации Компьютерное железо Длиннопост
2
24
TechSavvyZone
TechSavvyZone

Технологии: "Видеопамять GDDR" куда пропали мегагерцы⁠⁠

8 месяцев назад

Еще несколько лет назад в характеристиках видеокарты производители указывали скорость работы видеопамяти частотой — в МГц. Но в последние годы вместо частоты скорость указывается в Гбит/c или ГТ/с. В чем отличие этих характеристик, почему стали использоваться новые значения и как сравнить между собой эти величины?

В компьютерных системах еще с начала 90-х годов используется оперативная память типа Dynamic Random Access Memory (DRAM), которая к настоящему времени сменила несколько поколений. Физический принцип работы такого типа памяти прост: данные хранятся в ячейках, представляющих собой микроконденсаторы. Каждая ячейка хранит в себе 1 бит данных. В заряженном виде он читается как 1, в разряжённом — как 0.

В середине 90-х получает распространение память Synchronous Dynamic Random Access Memory (SDRAM). В отличие от ранних предшественников, память впервые стала синхронной, обзаведясь тактовым генератором. Данные в этом типе памяти передаются один раз за такт. То есть, частота генератора равна результирующей частоте работы самой памяти.

Как формируется частота памяти DDR

В начале 21 века на рынок был выведен новый тип памяти — Double Data Rate SDRAM (DDR). Как следует из названия, DDR представляет собой SDRAM с удвоенной скоростью передачи данных. Этого удалось достичь с помощью передачи данных дважды за такт, на фронте и спаде тактового сигнала.

Чтобы отправить информацию дважды за такт, сначала нужно было подготовить ее к такому выводу, что стало возможно благодаря технологии предвыборки под названием 2n-prefetch. Информация из двух выборок попадает в буфер ввода-вывода, через который потом происходит обмен данными с системой. Буфер и шина памяти у DDR имеют частоту, аналогичную частоте ядра памяти. Таким образом DDR, работающая на частоте в 200 МГц, имеет эффективную частоту в 400 МГц. По такому же принципу работает память для видеокарт GDDR первого и второго поколения.

Именно с момента появления первой DDR появились понятия «реальная» и «эффективная частота передачи данных». Хотя еще в то время в спецификации JEDEC появилось замечание, что использовать термин «МГц» для памяти типа DDR некорректно, правильнее указывать «миллионов передач в секунду через один вывод данных». Один миллион передач называется мегатрансфером, а количество таких передач в секунду обозначается МТ/c. Память типа DDR2 использует следующее поколение 4n-prefetch, где используются четыре выборки. И если в DDR частота буфера и шины была равна частоте ядра памяти, то в DDR2 она вдвое превышает последнюю. С этого поколения реальную частоту памяти можно считать по частоте работы шины. Эффективная частота все так же в два раза выше. Например, в памяти DDR2 с частотой 800 МГц шина памяти и буфер вывода работают на 400 МГц, а сама память — на 200 МГц. На базе DDR2 была разработана графическая память GDDR3, обладающая схожим принципом работы.

В оперативной памяти DDR3 и DDR4 используется выборка 8n-prefetch. Соответственно, шина и буфер работают на частоте, которая в четыре раза превышает частоту самой памяти. Реальная скорость передачи данных выше частоты шины все так же в два раза. Так работает и графическая GDDR4.

Современные виды видеопамяти GDDR и их отличия

Современные виды графической памяти открывает устаревшая, но до сих пор применяющаяся в начальном сегменте GDDR5. Как и GDDR4, она использует 8n-prefetch, но пятое поколение видеопамяти стало способно передавать данные четыре раза за такт против двух у предшественников. Это стало возможным благодаря отделению частоты передачи адресов и команд (CK) от частоты передачи данных, которая вдвое выше (WCK). Теперь передается одновременно два импульса, в каждом из которых, как и раньше, два бита данных — на фронте и на спаде. Таким образом, эффективная частота памяти у GDDR5 в четыре раза превышает частоту шины.

Память типа GDDR5X отличается от предшественника выборкой 16n-prefetch. Благодаря более широкой выборке частоту шины памяти теперь можно было снизить, при этом получив прирост пропускной способности на четверть.

Аналогичную выборку использует и современная GDDR6. Основная разница в том, что в этом типе видеопамяти каждый 32-битный канал данных разделен на два 16-битных. Это позволяет отправлять к памяти больше запросов одновременно, но непосредственно на пропускную способность не влияет. Последняя возросла до полутора раз по сравнению с GDDR5X благодаря повышенным частотам.

В новейшей GDDR6X увеличение скорости работы памяти по сравнению с предшественником в очередной раз достигло полуторакратной планки. В этом ей помогла новая технология кодирования 4 Pulse Amplitude Modulation (PAM4), суть которой в использовании четырехуровневой модуляции сигнала против двухуровневой у прошлых поколений памяти.

Куда подевались мегагерцы?

Как вы уже поняли, с развитием памяти DDR увеличение количества выборок и новые виды модуляции все дальше и дальше отдаляли «эффективную» частоту памяти от «реальной», под которой подразумевается частота шины. А уж от частоты работы самих микросхем памяти и подавно. Именно поэтому несколько лет назад производители видеокарт решили наконец вспомнить про рекомендации JEDEC двадцатилетней давности и указывать скорость работы памяти либо в трансферах в секунду, либо в пропускной способности на один контакт.

Например, современный флагман NVIDIA RTX 3090 Ti имеет скорость работы памяти 21000 МТ/c, или 21 ГТ/c. Это же значение указывается как 21 Гбит/c — в этом случае имеется ввиду пропускная способность на один вывод памяти, то есть на один бит шины. Это может запутать неподготовленного пользователя, ведь в случае видеокарты имеет смысл не один вывод, а общая пропускная способность шины. Которая, к тому же, измеряется не в Гбит/с, а в Гбайт/c.

Как узнать реальную пропускную способность памяти видеокарты, у которой вместо частоты указаны МТ/c, ГТ/c или Гбит/c? Все очень просто. Указанные величины соответствуют эффективной частоте памяти. 21000 МТ/c, 21 ГТ/c, и 21 Гбит/c — все это равно эффективной частоте памяти в 21 ГГц. А зная частоту, можно вычислить пропускную способность установленной видеопамяти по формуле:

Частота (ГГц) х ширина шины памяти (бит) : 8 (бит в байте)

В случае RTX 3090 Ti мы получаем пропускную способность 21 ГГц × 384 бит ÷ 8 = 1008 Гбайт/c, что соответствует официальному значению, указанному компанией NVIDIA.

Откуда же берутся такие высокие результирующие частоты памяти? Чтобы понять принцип их формирования, предлагаем взглянуть на таблицу ниже.

Разберем на примере все той же RTX 3090 Ti с памятью GDDR6X. Эффективная частота в 21000 МГц в этом случае имеет соотношение к частоте шины 16:1. То есть для вычисления последней 21000 нужно разделить на 16. Результат будет равен 1312,5 МГц, что и наблюдается в округленном виде в программе GPU-Z.

Соотношение эффективной частоты к истинной частоте работы микросхем памяти составляет 64:1. Благодаря нехитрым расчетам можно узнать, что внутри топовой GDDR6X работают микросхемы с частотой около 328 МГц.

Итоги

Как видите, путаница обозначений возникла из-за использования разных характеристик скорости памяти производителями в разные годы. Если бы компании изначально придерживались рекомендаций JEDEC еще со времен выпуска первой DDR, то такого бы не было.

Любая память типа DDR имеет три разные частоты: частоту ядра памяти, частоту шины/буфера и эффективную частоту. Впрочем, для простого пользователя достаточно знать лишь последнюю — с ее помощью можно вычислить пропускную способность и сравнить видеокарту по скорости работы памяти с другими. А как она обозначается — Гбит/c, ГТ/c или ГГц — неважно. Важно помнить, что все эти значения в данном конкретном случае взаимозаменяемы.

Показать полностью 10
Компьютерное железо Инженер Технологии Компьютер IT Видеокарта Производство История развития Электроника Транзистор Изобретения Инновации Длиннопост
1
53
TechSavvyZone
TechSavvyZone

Технологии: "Оперативная память DDR/GDDR" Эволюция поколений⁠⁠

8 месяцев назад

Поколения оперативной и видеопамяти сменяются через каждые несколько лет. В каждом из них производятся улучшения, нацеленные на повышение производительности. Значением, измеряющим скорость работы памяти, является эффективная частота. Однако она не является частотой работы чипов памяти, а достигается благодаря многим ухищрениям.

SDRAM

До середины 90-х годов прошлого века сменилось множество поколений оперативной памяти. Относительно современный период развития ОЗУ начинается в 1996 году с появления Synchronous Dynamic Random Access Memory (SDRAM). Это первая разновидность оперативной памяти, у которой появился тактовый генератор. Память стала синхронной. Это значит, что все ее компоненты — ядро памяти, буферы ввода-вывода и внешняя шина — работают на одной частоте.

Изначально новый тип памяти был достаточно дорог. В основном, он использовался в производительных графических адаптерах. В качестве ОЗУ SDRAM стала массово распространяться с 1997 года, когда на рынке появились процессоры Intel Pentium II и AMD K6.

Типичная частота SDRAM — 66–133 МГц. Напряжение питания — 3.3 В. Как и у всех последующих типов ОЗУ, ширина шины памяти модуля составляет 64 бита. Однако чипсеты того времени не поддерживали многоканальные режимы памяти. Поэтому пропускная способность памяти (ПСП) в системах с несколькими модулями SDRAM была точно такой же, как и в компьютерах с одной планкой: от 0.5 до 1 ГБ/c. В видеокартах предельная ширина шины была вдвое выше, да и сама память могла работать на более высоких частотах — 150-183 МГц. Это давало ПСП вплоть до 2.9 ГБ/c.

DDR

В 2000 году на свет появилась первое поколение памяти типа DDR (Double Data Rate, удвоенная скорость передачи данных). Основы работы DDR стали ключевыми для возможности линейного наращивания производительности ОЗУ, и используются в ее всех последующих поколениях.

DDR основана на предшественнице SDRAM. Ключевое отличие в том, что данные из ядра памяти выбираются не один раз за такт, а дважды. Эта технология получила название 2n-prefetch. Чтобы успевать передавать удвоенное количество данных по внешней шине без увеличения ее физической частоты, информация тоже стала передаваться дважды за такт — на фронте и спаде тактового сигнала.

При частоте внутренних компонентов в те же 133 МГц, что и у SDRAM, память DDR передает вдвое больше информации. То есть, аналогично SDR при частоте 266 МГц. Поэтому было введено понятие «эффективная частота памяти». Оно показывает, на какой частоте должна работать память SDR, чтобы получить такую же пропускную способность. Это и стало основной характеристикой новой ОЗУ.

При этом стандарт JEDEC подразумевает использование термина «мегатрансфер в секунду» вместо «мегагерц», что означает «миллионов произведенных транзакций передачи в секунду». Но производители памяти в маркетинговых материалах вместо этого агрессивно использовали эффективную частоту в МГц, поэтому термин «МТ/c» не прижился на рынке памяти. Таким образом, с приходом DDR реальная частота работы микросхем памяти перестала упоминаться.

Стандартное напряжение питания DDR составило 2.5 В. Распространение новая память получила c приходом на рынок процессоров Intel Pentium 4 и AMD Athlon. Типичная эффективная частота DDR — 266-400 МГц, хотя существуют модули, которые способны работать на частоте до 700 МГц.

Важным моментом в период распространения DDR стало появление двухканальных контроллеров памяти у чипсетов. Вследствие этого на некоторых материнских платах стало возможным удвоить пропускную способность ОЗУ добавлением второй планки. В одноканальном режиме ПСП массовой DDR составляет от 2.1 до 3.2 ГБ/c, разогнанных модулей — до 5.6 ГБ/c.

GDDR и GDDR2

Два первых поколения графической памяти получили названия GDDR и GDDR2 (сокращение от Graphics DDR). Они работают по принципу, схожему с обычной DDR. Оба вида получили оптимизации для увеличения тактовой частоты, жертвуя повышением задержек — ведь они для видеопамяти, в отличие от системной ОЗУ, не так важны. GDDR может работать со скоростью до 950 МГц, GDDR2 — до 1000 МГц.

Ширина шины памяти у топовых видеокарт к моменту расцвета графической DDR увеличилась до 256 бит. Из-за сравнимых частот оба поколения GDDR вместе с такой шиной достигали примерно одинаковой пропускной способности — 30-32 ГБ/c.

DDR2

В конце 2003 года появилась память DDR второго поколения. Технологию выборки усовершенствовали: теперь это 4n-prefetch, которая выбирает данные из памяти четыре раза за такт. Чтобы успевать передавать столько данных, частоту буфера и шины памяти по сравнению с DDR первого поколения увеличили вдвое. Благодаря этим изменениям эффективную частоту удалось еще раз удвоить без поднятия частоты самой памяти.

Для более простого понимания разберем пример. У микросхем DDR с частотой 133 МГц шина памяти и буфер вывода работают на такой же частоте. Эффективная частота ОЗУ при этом составляет 266 МГц — за счет передачи данных дважды за такт. У микросхем DDR2 с частотой 133 МГц шина памяти и буфер работают на удвоенной частоте в 266 МГц. А за счет передачи данных дважды эффективная частота вырастает еще в два раза — до 533 МГц.

Возросшая эффективная частота поспособствовала кратному увеличению пропускной способности. Но более «широкая» выборка данных практически кратно увеличила и задержки памяти. Поэтому первые модули DDR2 и чипсеты с их поддержкой не могли похвастать ощутимым увеличением производительности, а то и вовсе оказывались медленнее решений на DDR.

Чтобы получить видимый прирост производительности от новой памяти, потребовались процессоры нового поколения — Intel Core 2 и AMD Athlon X2. Их распространение началось в 2007 году. Надо сказать, что подобный подход к раскрытию потенциала новой памяти сохранится и в отношении каждого последующего поколения ОЗУ: и DDR3, и DDR4, и самой современной DDR5.

При эффективной частоте от 533 до 1200 МГц пропускная способность памяти составляла от 4.2 до 9.6 ГБ/c. Двухканальный режим, который к тому времени значительно распространился у чипсетов материнских плат, помогал удвоить эти значения. Стандартное напряжение питания DDR2 составило 1.8 В. У планок с повышенной частотой оно могло достигать 2.1 В.

GDDR3

GDDR3 была разработана для видеокарт на базе обычной DDR2. Как и в прошлых поколениях GDDR, для нее использовались частотные оптимизации. Благодаря им эффективная частота GDDR3 с 2004 по 2009 год выросла с 800 до 2500 МГц.

За счет GDDR3 пропускная способность памяти видеокарт заметно выросла. У моделей с 256-битной шиной она достигла 70 ГБ/c. Но самую «крутую» реализацию GDDR3 получила линейка видеокарт NVIDIA GeForce GTX200. Благодаря широкой 512-битной шине скорость обмена данных с памятью у топа серии GTX285 достигла отметки в 159 ГБ/c.

DDR3

2007 год принес компьютерному миру новую память DDR3, вновь удвоившую эффективные частоты относительно прошлого поколения. Принцип повышения производительности оказался таким же, как и в прошлый раз. Выборка из памяти теперь производится восемь раз за такт вместо четырех (8n-prefetch), а частоты работы буфера и шины вновь удвоены. При этом само ядро памяти работает в диапазоне 100-266 МГц, как и у DDR2.

«Детские болезни» у новой памяти на старте продаж были те же самые: низкий рост производительности и повышенные задержки. Впервые заметный прирост скорости работы с памятью DDR3 обеспечила процессорам Intel Core i7 первого поколения, которые были выпущены в конце 2008 года. Тогда под платформу LGA1366 был разработан новый чипсет с трехканальным контроллером памяти. На тот момент скорость памяти составляла скромные 800–1066 МГц. Со временем массовые планки достигли частот в 1600–1866 МГц. Важным новшеством DDR3 стала поддержка технологии Extreme Memory Profile (XMP). Она позволяет модулю памяти иметь специальные профили для работы на повышенных частотах, обеспечивая «легальный» разгон. Благодаря XMP топовые планки DDR3 смогли достичь потолка частоты в 2933 МГц, что дает пропускную способность для одного модуля в 23.4 ГБ/c.

Стандартное напряжение DDR3 составило 1.5 В, но при задействовании профиля XMP могло повышаться до 1.65 В. В 2010 году был утвержден стандарт DDR3L с пониженным напряжением питания 1.35 В. Первые планки с его поддержкой использовались в ультрабуках, но спустя три года стали распространяться в обычных ноутбуках и десктопных компьютерах.

GDDR4

Графическая память GDDR4 основана на обычной DDR3. Еще до ее выхода на рынок, во второй половине 2006 года, свет увидела первая видеокарта с GDDR4 — ATI Radeon X1950 XTX. При этом по эффективной частоте новая память даже в момент выхода недалеко ушла от предшественницы. А позже — и вовсе уступила «старой» GDDR3.

Спустя полтора года после появления развитие GDDR4 приостановилось в связи со скорым выходом видеопамяти следующего поколения. Ее максимальная эффективная частота в серийных видеокартах составила 2250 МГц.

GDDR5

Память GDDR5 также основана на DDR3, и использует аналогичную выборку 8n-prefetch. Но у всех прошлых поколений памяти эффективная частота вдвое превышает частоту шины. А главное новшество GDDR5 — не вдвое, а вчетверо большая эффективная частота.

Это стало возможным благодаря одновременной трансляции двух параллельных сигналов, у каждого из которых все также по две передачи данных за такт. И хотя память использует в названии аббревиатуру «DDR», технически это QDR — Quad Data Rate (учетверенная скорость передачи данных). Для более эффективного использования пропускной способности у широких шин видеокарт GDDR5 имеет не 64-битные, а 32-битные каналы доступа. Обе эти особенности сохранятся и у всех последующих поколений GDDR.

Это поколение видеопамяти очень долго господствовало на рынке. Первая видеокарта с GDDR5 появилась в 2008 году: ей стала ATI Radeon HD4870. Последние модели появились в 2019 году — это NVIDIA GeForce GTX 1660 и GTX 1650. За этот долгий временной период, благодаря новым техпроцессам и оптимизациям, эффективные частоты памяти возросли с 3600 до 9000 МГц.

При использовании 512-битной шины новая память уже на старте обеспечила бы на две трети возросшую пропускную способность по сравнению с топовыми вариантами GDDR3/GDDR4. Однако производители видеокарт решили пойти путем экономии, сузив шины обмена данными у флагманских видеокарт до 256 или 384 бит. В итоге, у первой видеокарты с GDDR5 ПСП составила 115 ГБ/c, а у последних решений на базе этой памяти достигла внушительных 336 ГБ/c.

DDR4

2014 год подарил миру оперативную память нового поколения — DDR4. Как и DDR3, она использует выборку 8n-prefetch. Но теперь данные выбираются одновременно из двух банков памяти, а не из одного. Впрочем, обе выборки в итоге все равно проходят через мультиплексор, который объединяет их поток. Поэтому такая выборка не равнозначна более широкой 16n-prefetch, но эффективнее, чем обычная 8n у DDR3.

Подобное решение не могло полностью скомпенсировать отсутствия удвоенного числа выборок, как между прошлыми поколениями памяти. Поэтому двукратного роста скорости DDR4 не показала. Эффективные частоты стандартной памяти начинаются с 2133 МГц и заканчиваются на отметке 3200 МГц. Топовые планки с поддержкой XMP позволяют увеличить этот потолок до частоты 5000 МГц — на 70 % больше, чем у флагманской DDR3.

Стандартное напряжение питания DDR4 составило 1.2 В. Планки с поддержкой XMP обычно требуют 1.35 В, но у топовых модулей это значение может достигать 1.6 В. Впервые памятью DDR4 обзавелась высокопроизводительная платформа Intel LGA2011-v3. Помимо ОЗУ нового поколения, процессоры под нее получили целых четыре канала DDR4-2400.

Широкое распространение DDR4 началось в 2015 году c выходом шестого поколения Core и платформы Intel LGA1151, которая поддерживала и прошлую DDR3. Разницы между двумя видами памяти на ней еще практически не было — чуть более высокие частоты нивелировали повысившиеся задержки. Полноценно новая память стала раскрываться только в 2017 году, с приходом платформ LGA1151 v2 от Intel и AM4 от AMD.

Один топовый модуль DDR4-5000 способен обеспечить пропускную способность до 40 ГБ/c. Однако контроллеры памяти процессоров оказались не готовы к прямой работе с такими частотами. Поэтому с приходом высокочастотной DDR4 последним платформам с ее поддержкой была добавлена возможность использования делителей памяти. Они позволяют контроллеру работать с вдвое меньшей частотой, чем сам модуль.

GDDR5X

В этот раз передовые технологии первой получила не оперативная, а видеопамять — GDDR5X. Она была выпущена в 2016 году, и получила в два раза более широкую выборку 16n-prefetch. Таким образом, эффективная частота с этого поколения в восемь раз превышает частоту шины памяти.

Благодаря более широкой выборке производительность могла бы увеличиться вдвое. Но память получилась горячей, поэтому частоту ее ядра пришлось понизить. В результате максимальная эффективная частота увеличилась по сравнению с GDDR5 не так сильно — с 9000 до 11400 МГц.

Пропускная способность в топовых видеокартах на базе GDDR5X достигла значения в 547 ГБ/c. При этом напряжение питания памяти снизилось с 1.5 до 1.35 В.

GDDR6

Из-за высокого тепловыделения GDDR5X массовой так и не стала. Эту роль на себя приняла GDDR6, впервые увидевшая свет в 2018 году. Она имеет аналогичное напряжение и принцип формирования эффективной частоты, но с одним важным улучшением. Теперь каждый 32-битный канал памяти поделен на два внутренних по 16 бит, а вместо однопоточной выборки используется двухпоточная 16n-prefetch (или 2x8n). Это позволяет отправлять больше запросов к памяти одновременно, и повышает ее эффективность в сложных задачах.

Эффективная частота памяти снова возросла, охватив широкий диапазон от 12000 до 20000 МГц. GDDR6 остается актуальной и на сегодняшний день, достигнув во флагманских видеокартах AMD пропускной способности в 960 ГБ/c.

GDDR6X

Следующее поколение видеопамяти увидело свет в 2020 году, дебютировав в топовых видеокартах серии GeForce RTX 3000. GDDR6X представляет собой дальнейшее развитие идей GDDR6, в очередной раз увеличивая отрыв эффективной частоты от частоты шины памяти до шестнадцатикратного.

В этом памяти помогла новая технология кодирования сигнала 4 Pulse Amplitude Modulation (PAM4), которая заменила ранее используемую NRZ. Она позволяет передавать данные в одном импульсе не дважды, а четырежды за такт. Это происходит благодаря четырем уровням кодирования сигнала, тогда как ранее их было только два.

GDDR6X оказалась лишь немного быстрее предшественницы, так как изменений в самой выборке не произошло. На момент выхода ее эффективная частота достигала 19 ГГц, тогда как GDDR6 довольствовалась планкой в 16 ГГц. Оба вида памяти развивались параллельно, поэтому разрыв между ними не увеличился: сегодня GDDR6 может обеспечить 20 ГГц, а GDDR6X — 23 ГГц эффективной частоты. При этом память с приставкой «X», как и в прошлом поколении, оказалась заметно горячее.

DDR5

Технологии, применяемые в GDDR6, послужили основой для обычной DDR5, впервые появившейся на рынке в 2021 году. Этот тип ОЗУ также использует двухпоточную выборку 16n-prefetch, разделяя каждый канал памяти на два внутренних. Ключевое отличие от GDDR6 — DDR5 передает данные за такт дважды, а не четырежды. То есть это истинная DDR, а не QDR. Поэтому эффективная частота у нее заметно ниже, чем у графической предшественницы.

В каждый модуль DDR5 встроена коррекция ошибок (ECC), тогда как у предшествующих поколений DDR она была только в серверных планках. За счет этого новое поколение модулей имеет два канала по 40 бит. В каждом из них для ECC используется 8 бит, а для данных — 32 бита. То есть, ширина шины для передачи данных осталась неизменной — это те же 64 бита, что и у прошлых поколений памяти, просто поделенные на две части.

В отличие от DDR4, у которой данные с двух выборок попадали в один мультиплексор, каждый канал DDR5 работает независимо. Поэтому новое поколение памяти наконец принесло ожидаемое удвоение эффективных частот. Даже самая медленная DDR5 работает на частоте в 4800 МГц, что практически равно скорости самой топовой ОЗУ прошлого поколения.

DDR5 дебютировала в 2021 году вместе с процессорами Core 12 поколения и платформой Intel LGA1700. Как и в случаях с прошлыми поколениям ОЗУ, её первые модули обладали высокими задержками и практически не имели преимуществ в работе перед DDR4. Но с массовым распространением новой памяти и постепенным снижением таймингов прирост от нее стал заметен даже на первой платформе с ее поддержкой, не говоря о более новых AMD AM5 и Intel LGA1851.

Но к 2023 году скорости DDR5 стали потихоньку упираться в очередное препятствие. Длинные дорожки, соединяющие контроллер ОЗУ в процессоре и чипы памяти на планках DIMM и SO-DIMM, стали вносить в работу быстрой DDR5 помехи. Из-за этого дальнейший рост частот стал проблематичным.

Чтобы обойти эту проблему, было представлено два решения. Первый — появившийся в 2023 году новый форм-фактор памяти CAMM2. Он сокращает длину соединений между ЦП и чипами памяти, значительно уменьшая эти помехи. Есть и еще одно ключевое преимущество: возможность организовать широкий 128-битный доступ к памяти, заменяя одним модулем CAMM2 два модуля DIMM или SO-DIMM.

Однако CAMM2 нацелен больше на ноутбуки— ведь в них модули DDR5 SO-DIMM нередко заменялись распаянной на плате ОЗУ. Для декстопных ПК гораздо больше подошло второе решение, появившееся в 2024 году — планки CUDIMM. Они схожи с обычными планками DDR5 DIMM и имеют обратную совместимость, но для решения вопроса с помехами оснащаются собственной микросхемой тактового генератора. Такой микросхемой могут оснащаться не только полноразмерные модули DIMM, но и компактные планки SO-DIMM и CAMM2.

К концу 2023 года частота DDR5 уперлась в потолок чуть выше 8000 МГц, но благодаря CUDIMM и CAMM2 снова стала расти. На начало 2025 года выпускаются модули DDR5 с эффективной частотой в 10000 МГц, которые в разгоне уже превышают потолок в 12000 МГц.

При этом DDR5 продолжает развиваться, а вот контроллеры памяти в процессорах пока такую скорость не осиливают. Если для быстрой DDR4 приходилось использовать делитель памяти 1:2, то для топовой DDR5 необходим уже делитель 1:4 — тогда контроллер работает лишь на одной четверти от эффективной частоты самих планок.

GDDR7

Графическая видеопамять GDDR7, как и три поколения ее предшественниц, увидела свет вместе с очередной серией видеокарт NVIDIA. В январе 2025 года она дебютировала в моделях линейки RTX 5000, первыми из которых стали RTX 5080 и RTX 5090.

GDDR7 является дальнейшим развитием и объединением ранее использованных идей. У DDR5 она позаимствовала встроенную коррекцию ошибок (ECC). У GDDR6 — деление одного канала передачи на внутренние. Причем уже на два, а на целых четыре. Каждый из них имеет ширину в 10 бит, 2 из которых используются для работы ECC. Таким образом, общая ширина передачи данных остается равной 32 битам. Но, как и в GDDR6, для каждого внутреннего канала используется своя выборка 8n. Это обеспечивает памяти GDDR7 четырехканальную выборку 32n-prefetch (4x8n).

По сравнению с двумя прошлыми поколениями видеопамяти выборка увеличилась вдвое. А вот увеличить аналогично частоту буфера — задача не из легких. Тут бы пригодилась технология PAM4, используемая в GDDR6X. Но помехи воспрепятствовали распознаванию четырех уровней сигнала на столь высоких частотах. Поэтому было решено использовать 3 Pulse Amplitude Modulation (PAM3) — она работает аналогично предшественнице, но позволяет передавать данные в одном импульсе не четырежды, а трижды за такт.

Уже в первых видеокартах GDDR7 достигла эффективной частоты в 28000-30000 МГц. Ближе к концу жизненного цикла для неё ожидаются значения, эквивалентные 48000 МГц (или МТ/c — кому как удобнее ).

HBM

High Bandwidth Memory (HBM) — память с высокой пропускной способностью, предназначенная для конкуренции с семейством DDR в высокопроизводительных видеокартах, профессиональных и серверных решениях. HBM интегрируется на подложку вычислительного чипа (ЦП или ГП), поэтому не отнимает место на плате, как в случае с чипами DDR/GDDR.

HBM — это многослойная память, слои которой накладываются друг на друга подобно этажам в доме. За счет непосредственной близости к вычислительному кристаллу стало возможным значительно расширить интерфейс взаимодействия с ней. Один канал связи с памятью HBM обладает шириной в 128 бит. На каждый слой приходятся два таких канала. При этом память точно так же, как и DDR, может передавать данные дважды за такт. Четыре слоя образуют стек, который в итоге имеет 1024-битную шину доступа.

Cтек HBM первого поколения имеет объем в 1 ГБ. Дебютным графическим процессором с поддержкой HBM стал AMD Fiji. Он использует четыре стека HBM. Таким образом получаются 4 ГБ памяти с шиной доступа в 4096 бит.

Невероятные цифры по сравнению с GDDR, не так ли? Но эффективная частота HBM намного ниже, чем у ее конкурента — около 1000 МГц. Однако и этого хватило, чтобы значительно превысить показатели ПСП GDDR5 в момент появления на рынке. Первое поколение памяти в потребительских видеокартах появилось в серии видеокарт AMD Fury в 2015 году. Ее пропускная способность составила 512 ГБ/c против 336 ГБ/c у топовых решений на GDDR5. Однако был и явный минус — малый объем памяти при четырех стеках, который являлся ограничением для первого поколения HBM.

Этого недостатка лишилась HBM2, появившаяся в 2017 году. Стек HBM2 имеет объем в 4 ГБ и такую же 1024-битную шину, но работает на частоте до 2000 МГц. Как и прежде, для получения полной 4096-битной шины нужно четыре стека, из которых получается 16 ГБ HBM2. Изначально HBM2 появилась в профессиональных ускорителях NVIDIA Quadro GP100, а затем и в игровых картах AMD: Vega 64 и Vega 56.

В отличие от серии Fury, в этот раз игровые модели AMD получили два стека, которые образовали 8 ГБ памяти при 2048-битной шине. Наиболее полно в игровых видеокартах HBM2 раскрылась в 2019 году. Тогда была выпущена топовая модель Radeon VII с четырьмя стеками и максимальной скоростью памяти, пропускной способность которой достигла 1024 ГБ/c.

К сожалению, на этом история перспективной памяти в игровых ПК пока завершается. И NVIDIA, и AMD используют память типа HBM в профессиональных и серверных ускорителях, но в игровые видеокарты она больше не попадает. Это связано в первую очередь с высокой стоимостью HBM: топовая GDDR на данный момент немного медленнее, но ощутимо дешевле.

В ускорителях вычислений развитие памяти продолжилось. В них в 2020 году появилась обновлённая HBM2 со стеками размером 8 ГБ. Параллельно ей началось распространение HBM2e. Она представляет собой улучшенную версию HBM2 с поддержкой 12 слоев памяти вместо 8. Это позволяет увеличить максимальную ширину шины до 6144 бит и расширить предельный объем памяти стека до 24 Гб. При этом повысилась и частота памяти — до 3200 МГц против 2000 МГц у HBM2. Предельная ПСП может достигать 2457 ГБ/c, но в реальных продуктах максимальная конфигурация HBM2e не использовалась.

HBM3 увидела свет в 2021 году. Она поддерживает до 16 слоев памяти. Это позволяя расширить шину доступа до 8192-битной, а объем памяти стека — до 32 ГБ. Для более эффективного распараллеливания доступа один слой теперь имеет не два 128-битных, а четыре 64-битных канала памяти. К тому же, максимальная частота памяти возросла в два раза — до 6400 МГц. Это позволяет увеличить пропускную способность до 6553 ГБ/c.

HBM3e была представлена в 2023 году. При схожих с HBM3 основных характеристиках, её эффективная частота памяти может достигать 9600 МГц. За счёт этого обеспечивается невероятная пропускная способность — до 9830 ГБ/c.

Cравнение разных поколений памяти

Вы познакомились практически со всеми видами оперативной и видеопамяти за последние три десятилетия. Сравнить их основные технические характеристики можно в таблицах ниже. Для удобства память SDRAM присутствует в них дважды – и в качестве оперативной, и в качестве видеопамяти.

Показать полностью 24
Технологии Компьютерное железо IT Компьютер Оперативная память Производство История развития Изобретения Электроника Инновации Чип Длиннопост
2
15
TechSavvyZone
TechSavvyZone

Технологии: Транзисторы "Planar, FinFET и GAAFET" история развития. Часть Вторая⁠⁠

9 месяцев назад

Нано FET

Новая архитектура транзисторов должна обеспечить дальнейший рост производительности интегральных схем и возможность перейти на более тонкие техпроцессы — вплоть до 1–2 нм.

В 2020 году компания TSMC объявила об активной разработке транзисторов нового поколения — GAAFET (Gate-All-Around Field-Effect Transistor). Поскольку «плавники» уже были неэффективны, инженеры решили порезать их на части. Так получились каналы, окруженные затвором со всех четырех сторон. Интересно, что впервые GAA-транзистор представили в 1988 году, однако до массового производства дело дойдет только в ближайшие годы.

Кольцевые затворы позволили реализовать каналы, сформированные из нескольких горизонтальных кремниевых «нанотрубок». Благодаря этому возможно преодолеть порог в 3 нм, а также существенно повысить эффективность управления транзисторами. С повышением плотности размещения удастся добиться прироста производительности и энергоэффективности.

Аналогично в 2020 году компания Samsung заявила о работе над GAAFET-транзисторами и взятии барьера в 3 нм на прототипах. Помимо этого фирма представила собственную вариацию — MBCFET. Разница в том, что используются не нанотрубки, а нанолисты. Последние предлагают лучший контроль токов, поскольку нанотрубки слишком тонкие.

У Intel эта разновидность получила название RibbonFET. Инженеры заявили, что предложат несколько вариаций с числом нанолистов от 2 до 5.

Samsung запустила в производство MBCFET (3GAE) в середине 2022 года и заявила о готовности поставок. Предполагалось, что Snapdragon 8 Gen 2 должен стать первым процессором с применением MBCFET 3нм. Однако в Qualcomm отдали предпочтение компании TSMC, выбрав 4 nm FinFET. В планах также выпуск процессора Exynos 2300 с использованием техпроцесса 3 нм и MBCFET транзисторов. Однако новостей от Samsung пока не последовало.

Таким образом, пока не выпущено ни одного массового продукта на базе GAAFET транзисторов. TSMC и Intel все еще масштабируют FinFET, но уже готовятся запускать производство новой технологии. К проблеме внедрения Gate-All-Around относится и большая стоимость создания из-за специфической структуры. Разработчики SoC пока не спешат отказываться от FinFET, с учетом того, что те предлагают вполне конкурирующую производительность и техпроцесс до 4 нм.

А что дальше?

Открыв для себя 3D-структуры, разработчики начали экспериментировать и предлагать куда более сложные архитектуры.

Например, Intel рассказал о комплементарном полевом транзисторе (CFET), предназначенном для 2,5 нм. В CFET идея состоит в том, чтобы наложить nFET и pFET структуры друг на друга. Такое «складывание» уменьшает площадь активной области ячейки и обеспечивает еще большую плотность.

Другая альтернатива — Forksheet FET, нацеленная на 2 нм. В этом исполнении структуры располагаются рядом и разделены диэлектрической стенкой. Преимущества все те же — возможность добиться куда большей плотности размещения транзисторов. Однако насколько эффективны предложенные архитектуры, предстоит только проверить.

Также IBM и Samsung работали над VTFET (Vertical Transport Field Effect Transistors). Это еще более сложная структура с вертикальным расположением транзисторов. Предполагается двойной прирост производительности или на 85 % меньшее потребление энергии, в сравнении с FinFET.

Конструкция CFET-транзистора предполагает расположение рядом друг с другом полупроводниковых элементов n-типа (pFET) и p-типа (pFET). В настоящий момент рассматривается два варианта CFET-транзисторов — монолитные (monolithic) и последовательные (sequential). Второй вариант отличается более высокой и широкой конструкцией. В правой части изображения ниже представлены четыре варианта конструкции CFET-транзисторов. Какой из них в конечном итоге выберет Intel — неизвестно. И узнаем мы это нескоро, поскольку Imec считает, что CFET-транзисторы появятся на рынке не ранее момента, когда техпроцесс производства чипов не сократится до уровня 5 ангстрем, что в свою очередь ожидается не ранее 2032 года.

Конечно, никто не исключает, что Intel не будет следовать этим временным рамкам и придёт к выпуску новых транзисторов гораздо раньше. Примечательно, что на продемонстрированном компанией изображении переход к CFET-транзисторам идёт после нанолистовых GAA-транзисторов RibbonFET, минуя разветвлённые GAA-транзисторы (forksheet GAAFET), которые рассматриваются отраслью в качестве переходного звена от нанолистов к CFET.

Однако не факт, что дойдет до практической реализации. Масштабирование ИС становится непомерно дорогим, поэтому производители все чаще прибегают к другим решениям. Например, все большую популярность набирают технологии компоновки чипов. Вместо того чтобы помещать все функции на один кристалл, предполагается разбивать устройства на более мелкие кристаллы и интегрировать их в корпус.

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 8
Технологии Компьютер IT Производство Процессор Транзистор Электроника История развития Инженер Изобретения Микроконтроллеры Чип Инновации Компьютерное железо Длиннопост
2
475
TechSavvyZone
TechSavvyZone
Сделано у нас

Сердце ПК: Кремниевый двигатель "Комдив" процессоры-кентавры России⁠⁠

9 месяцев назад

Про российские процессоры «Эльбрус» знают почти все, про «Байкал» знают многие, а про процессоры «КОМДИВ» знает мало кто. А между тем процессоры «КОМДИВ» уже давно используется в космической отрасли и оборонной сфере. Где они успешно заменяют процессоры AMD, Intel и другие зарубежные аналоги.

Линейка российских процессоров «КОМДИВ» - это семейство 32 и 64-разрядных процессоров, разработанных в НИИСИ (научно-исследовательском институте системных исследований) Российской Академии наук. Они используют набор команд MIPS и собственную MIPS-совместимую оригинальную архитектуру «Комдив». Имеют встроенные системный и периферийный контроллеры, кэш-память и другие необходимые функциональные узлы. И способны за один такт выполнять одновременно несколько инструкций, то есть являются суперскалярными.

Производство 32-разрядных процессоров «КОМДИВ-32» берет свое начало еще с 1999 года. Первые процессоры производились по 500 нм техпроцессу и работали на частотах 33-50 МГц, а начиная с 2016 года, перешли на 250 нм с тактовой частотой до 125 МГц.

С 2005 года началось производство 64-разрядных процессоров «КОМДИВ-64, первые из них производились по техпроцессу 350 нм и работали на частоте 120 МГц. А начиная с 2016 года, перешли на 65 нм и увеличили частоту до 1 ГГц. Максимальное количество их ядер соответствует двум.

В 2019 году был выпущен уже 28 нм двух ядерный процессор под обозначением (1890ВМ118) работающий на частоте 1,3 ГГц и имеющий на своем «борту» встроенное 3D-видеоядро.

Процессоры «КОМДИВ» с технормами ниже 250 нм производятся, как и в случае с процессорами «Эльбрус» на производственных мощностях Тайваньской компании TSMC.

Данные процессоры являются узкоспециализированными, и в первую очередь предназначены для использования в космической отрасли и оборонной сфере. А также они решают важнейшую задачу по замещению зарубежных процессоров в этих стратегически важных сферах, требующих надежной, гарантированной безопасности информации. Естественно, что использование зарубежных процессоров создает серьезную предпосылку к утечке важной государственной информации. Поэтому замещение их на отечественные процессоры является важной государственной задачей.

Одним из основных преимуществ процессоров «КОМДИВ» является способность работать в очень широком диапазоне температур, от -60 до +125 °С. Чем не может похвастаться ни один зарубежный аналог, а уж тем более таких рабочих температур не могут предложить ни процессоры AMD, ни Intel. Такой широкий диапазон температур позволяет строить на процессорах «КОМДИВ» защищенные вычислительные системы для эксплуатации в экстремальных условиях, например, в арктическом климате. Примером такой вычислительной системы является система «Восход», в которой используется модель процессора (1809ВМ8Я).

Вычислительная система "ВОСХОД" 

Вычислительная система "ВОСХОД" 

Отличительной особенностью вычислительной системы «Восход», да и вообще архитектуры процессоров «КОМДИВ» является способность объединять их в кластеры с общим числом ядер более тысячи. Это позволяет создавать сверхмощные системы для решения ресурсоёмких задач.

Процессоры «КОМДИВ» имеют довольно короткую длину конвейера, которая составляет 7 стадий, такой короткий конвейер обеспечивает высокое быстродействие процессоров. Дело в том, что во многих современных процессорах длина конвейера достигает 14 стадий. При прерываниях конвейер «разрушается», быстродействие процессоров при этом падает, и чем длиннее конвейер, тем сильнее падает быстродействие. Поэтому в процессорах «КОМДИВ» применяется минимально возможная длина конвейера.

Многие модели процессоров «КОМДИВ» имеют радиационную стойкость, то есть имеют высокую устойчивость к повреждениям и сбоям в работе под воздействием высоких уровней ионизирующего излучения.

Радиационно стойкий процессор 1900ВМ2Т «КОМДИВ-32»

Радиационно стойкий процессор 1900ВМ2Т «КОМДИВ-32»

Их радиационная стойкость не меньше, чем 200 крад, чего и не снилось процессорам AMD и Intel, и другим зарубежным аналогам. Используются радстойкие модели процессоров в космической отрасли, например, в бортовых компьютерах спутников «ГЛОНАСС-М».

Модель процессора «КОМДИВ-64» (1890ВМ5Ф) применяется в БЦВМ (бортовая цифровая вычислительная машина) информационно – управляющих систем современных российских истребителей Су-34 и Су-35.

Бортовая цифровая вычислительная машина (БЦВМ) на процессоре 1809ВМ5Ф

Бортовая цифровая вычислительная машина (БЦВМ) на процессоре 1809ВМ5Ф

И это лишь только некоторые примеры. А многие говорят, что в России нет своей микроэлектроники.

Работают процессоры «КОМДИВ» под управлением специализированной операционной системы «БАГЕТ» (операционная система реального времени), разработанной все тем же НИИСИ Российской Академии наук. Отличительной ее особенностью от других операционных систем, например таких, как Windows и Linux, является способность мгновенно реагировать на внешние события, а не на действия пользователя. То есть, основная область ее применения – это автоматизированные системы, которые используются и на космических спутниках, и в современных самолетах.

А для тех, кому интересно что обозначает аббревиатура «КОМДИВ», сообщаем – это «КОМпьютер Для Интенсивных Вычислений» и ничего общего с должностью командира дивизии она не имеет.

Показать полностью 5
Компьютерное железо Технологии Компьютер IT Процессор Российское производство Микроконтроллеры Электроника Инженер Инновации Импортозамещение Промышленность Техника История развития Длиннопост
187
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии