Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр 🔮✨Магия, романтика… и шерсть на одежде! Разгадывай загадки, находи подсказки — и знай: каждое твое решение влияет на ход игры!

Мой Любимый Кот

Новеллы, Головоломки, Коты

Играть

Топ прошлой недели

  • cristall75 cristall75 6 постов
  • 1506DyDyKa 1506DyDyKa 2 поста
  • Animalrescueed Animalrescueed 35 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
45
TechSavvyZone
TechSavvyZone

Технологии: Эволюция графики "AMD/ATI" путь развития Часть Вторая⁠⁠

8 месяцев назад

От первых моделей с универсальными шейдерами до появления видеокарт с поддержкой современного DirectX 12.

Radeon HD2000: DirectX 10 и суперскалярная TeraScale

Компания AMD завершает сделку по приобретению ATI в конце 2006 года. Тогда же NVIDIA запускает первые карты новой линейки GeForce 8000 с поддержкой DirectX 10, которые бьют все рекорды производительности. Ответа пришлось ждать до мая 2007 года: именно тогда ATI выпускают первую карту, разработка которой частично протекала под крылом AMD — Radeon HD2900 XT.

В основе модели чип R600 на новой графической архитектуре TeraScale. Она разработана с учетом API DirectX 10 и шейдеров версии 4.0. К тому же TeraScale поддерживает неграфические вычисления с помощью API под названием ATI Stream. ГП имеет 64 суперскалярных шейдерных кластера, в каждом из которых пять универсальных скалярных потоковых процессоров (SP). Четыре SP могут выполнять только простые инструкции, а пятый — более сложные. Управляет вычислительными блоками Ultra-Threaded Dispatch Processor второго поколения.

Таким образом, полный чип имеет 320 SP. Компанию им составляют 16 блоков ROP и столько же TMU, а также программируемый блок аппаратной тесселяции, который не входил в стандарт DirectX 10. Контроллер памяти имеет кольцевую шину, которую расширили до 1024 бит. Внешняя шина памяти достигла небывалых 512 бит. Чип производился по технологии 80 нм, достигнув частоты в 743 МГц. HD2900 XT могла оснащаться 512 МБ или 1 ГБ как GDDR3, так и более быстрой GDDR4, обладающей пропускной способностью в 128 ГБ/c.

R600 получил улучшения анизотропной фильтрации и режимов сглаживания: к последним добавились MSAA 8x и CFAA. Но, несмотря на 320 SP и 512-битную память, HD2900 XT не удалось догнать конкурентную GeForce 8800GTX, поэтому она позиционировалась как конкурент стоящей на ступеньку ниже 8800GTS. При этом потребление модели было очень высоким по меркам того времени — целых 215 Вт. Для организации питания карте впервые потребовалось два разъема: 6-pin и 8-pin.

Спустя месяц после старшей карты на сцену вышли средние и младшие представители линейки: модели серии HD2600 и HD2400. Карты оснащались 256 или 512 МБ памяти GDDR3 или DDR2, а старшая HD 2600 XT вдобавок получила вариант с GDDR4. Линейка HD2600 получила чип RV630 со 120 SP и 128-битной шиной памяти, а HD2400 — RV610 с 40 SP и 64-битной шиной. Производились оба ГП по технологии 65 нм. Весь ассортимент карт обеспечили три чипа: после десятка моделей ГП и трех десятков моделей видеокарт в прошлых поколениях наконец воцарился порядок.

Осенью 2007 года на базе R600 были выпущены еще две карты: HD2900 PRO и HD2900 GT. Pro-версия отличалась от флагмана сниженными частотами и выпускалась в двух версиях: с 512-битной и урезанной 256-битной шиной памяти. GT была ограничена существеннее: активными остались только 240 SP из 320, а память представляли 256 или 512 МБ 256-битной GDDR3.

Radeon HD3000: DirectX 10.1 и оптимизация

В ноябре 2007 года, спустя всего полгода после выхода первой карты серии HD2000, AMD выпускает старшие карты следующего поколения — HD3870 и HD3850.

Смекнув, что за топами NVIDIA в данный момент не угнаться, компания решила оптимизировать и перенести на 55 нм техпроцесс свои прошлые творения. Первым стал наследник чипа R600, получивший название RV670. Он обладает аналогичной конфигурацией блоков, но получил несколько нововведений. В их числе поддержка DirectX 10.1 и шейдерной модели 4.1, а также интерфейс PCI-E 2.0, который вдвое ускоряет скорость обмена данными между картой и системой.

Единственным минусом чипа стала более узкая шина памяти: теперь она стала 256-битной, а внутренняя кольцевая шина вернулась к 512-битной организации. Однако это позволило значительно упростить ГП при минимальном падении производительности, ведь 320 SP нагрузить 512-битную шину памяти в большинстве случаев были не в состоянии. За счет более тонкого техпроцесса размеры ГП удалось уменьшить вдвое, поэтому он стал обходиться намного дешевле. К тому же значительно упало энергопотребление: старшая модель потребляла всего 106 Вт.

Карты серии HD3800 показывали производительность уровня прошлой линейки HD2900, но отставали от конкурентной серии GeForce 8800 на чипе G92. Тем не менее, они стали намного популярнее предшественников благодаря более низкой цене и сниженному энергопотреблению. Последний факт позволил AMD создать свою первую двухчиповую карту — HD3870 X2. Она была запущена через два месяца после первых карт линейки и представляла собой две платы с чипами RV670, объединенные в одном корпусе. Несмотря на это, TDP карты достигало всего 165 Вт. Спустя несколько месяцев была выпущенная еще одна двухчиповая модель — HD3850 X2. Благодаря CrossFire стало возможным объединить две таких платы, тем самым получив в одной системе четыре ГП.

В январе 2008 года было представлено еще два 55 нм чипа: RV635 и RV620. Первый повторял конфигурацию RV630 из прошлой линейки и лег в основу Radeon HD3650. Карта, как и предшественник, могла оснащаться одним из трех типов памяти: GDDR4, GDDR3 или DDR2. К концу года на базе RV630 появились еще две карты — HD3730 и HD3750, отличающиеся от первой модели частотами. Младший RV620 был аналогичен RV610, и стал основой бюджетных карт серий HD3400 и HD3500.

Radeon HD4000: больше — лучше

В июне 2008 года NVIDIA представляет «тяжелую артиллерию»: карты GTX280 и GTX260 на чипе GT200. Спустя неделю AMD отвечает двумя картами новой серии — HD4870 и HD4850 на чипе RV770.

В основе RV770 все та же архитектура TeraScale, но баланс блоков изменен. ГП имеет 160 шейдерных кластеров, объединенных в 10 крупных массивов, называемых SIMD-блоками. Таким образом, полный чип содержит 800 SP — в целых 2,5 раза больше, чем в прошлом поколении. Вдобавок к этому ускорена работа с геометрическими шейдерами. Кратно возросло и количество TMU, слабое место прошлого чипа — с 16 до 40. А вот блоков ROP все также 16, хотя они подверглись улучшениям и стали работать эффективнее предшественников.

Много изменений в подсистеме обмена данными: переработана система кэширования, кольцевую шину сменила схема с центральным хабом, а контроллер памяти получил поддержку быстрой GDDR5. Несмотря на 256-битную шину, это позволяет достичь пропускной способности в 115 ГБ/c — лишь немногим меньше, чем 512-битная шина вместе с GDDR4. Памятью GDDR5 оснащалась топовая HD4870, а младшая 4850 получила привычную GDDR3 и пониженную частоту ядра. При всех улучшениях, карты вышли довольно экономичными — TDP старшей модели не превышал 160 Вт.

Как и в прошлой линейке, AMD придерживалась правила «дешево и сердито». HD4850 была на уровне конкурентной 9800GTX, а HD4870 приближалась к GTX260, намного более дорогой и сложной карте — и все это при более низкой цене. Для конкуренции с топовой GTX280 в августе была выпущена двухчиповая HD4870 X2. Она не давала и шанса топовой GeForce в играх, оптимизированных под CrossFire, но потребляла прилично — до 286 Вт. В ноябре появилась и ее двухголовая «сестра» — HD4850 X2.

Сентябрь 2008 года принес младшие серии Radeon HD4600, HD4500 и HD4300. Эти карты стали последними моделями, у которых имелась разновидность с AGP-интерфейсом. Старшая серия базируется на чипе RV730. Он получил 320SP и 128-битную шину, с которой могли использоваться три типа памяти: GDDR4, GDDR3 и DDR2. Две младшие серии получили RV710 — чип с 120 SP и 64-битной шиной памяти, оснащавшейся DDR2 или DDR3. В этом поколении только у младших карт остались версии с 256 МБ памяти. Средние и старшие модели выпускались в двух вариантах: с 512 МБ или 1 ГБ.

В октябре появляется первая видеокарта на базе урезанного RV770 — HD4830. Карта обладает 640 SP и 256-битной памятью GDDR3. В 2009 году к ней добавятся еще две модели с таким же чипом, но 128-битной памятью GDDR5 — HD4810 и HD4730.

В апреле 2009 года серия Radeon HD4700 пополнится еще одной моделью — HD4770. Она обладает новым чипом RV740, который изначально имеет 640 SP и 128-битную шину GDDR5, и производится по техпроцессу 40 нм. Так компания решила «обкатать» техпроцесс перед запуском новой линейки видеокарт. Одновременно был выпущен обновленный топ HD4890 на чипе RV790. Он представляет собой RV770, оптимизированный для достижения более высоких частот — 850 МГц и выше. Новая модель составила достойную конкуренцию GTX275.

Сентябрь 2009 года принес неожиданное расширение серии Radeon HD4000. HD4750 стала второй картой на основе RV740, а HD4860 — второй моделью на RV790. При этом последний чип был урезан до 640 SP, чего хватило для борьбы на равных с главным «врагом» GTS250.

Radeon HD5000: первые с DirectX 11

В конце сентября 2009 года AMD запускает новую линейку видеокарт Radeon HD5000. Ее первые представители: HD5870 и HD5850. В отличие от прошлых линеек, это топовые решения, предназначенные для борьбы с флагманами конкурента. Карты получили поддержку DirectX 11, принесшего шейдеры версии 5.0, аппаратную тесселяцию и вычисления DirectCompute. Это заслуга обновленной архитектуры TeraScale 2.

Чип, используемый в картах серии, получил кодовое имя Cypress. Он производился по техпроцессу 40 нм. Внутреннее строение довольно схоже с RV770, но всех блоков стало вдвое больше: 20 SIMD, 320 шейдерных кластеров, 1600 SP, 32 ROP и 80 TMU.

Блок тесселяции, присутствующий во всех чипах еще с R600, был доработан для поддержки стандартной тесселяции DirectX 11. Шейдерные процессоры получили поддержку новых видов инструкций, а кэши ГП ускорились. Шина осталась 256-битной, но контроллер получил поддержку более высокочастотной памяти, за счет чего полосу пропускания удалось увеличить до 153.6 ГБ/c.

Такие характеристики получила старшая HD5870. Младшая HD5850 отличалась сниженными частотами и урезанным до 1440 SP чипом. Тем не менее, обе модели обгоняли карты серии GTX200. Ответ от NVIDIA последовал лишь полгода спустя — топовые GTX480 и GTX470 опережали продукцию AMD при использовании тесселяции, но без нее были на одном уровне. К тому же HD5870 потребляла значительно меньше энергии, чем конкурентная GTX480 — 188 Вт против 250 Вт. Раннее появление на рынке и более скромное энергопотребление склонило чашу весов пользователей в сторону карт AMD.

Спустя месяц после старших карт были выпущены HD5770 и HD5750 на базе более скромного чипа Juniper, являющегося «половинкой» Cypress. ГП обладает 128-битным интерфейсом памяти, но использует такую же быструю память GDDR5, как и старшие карты. Карты стали популярными за счет производительности уровня HD4870 и HD4850 при гораздо меньшем энергопотреблении. GTS450 от конкурента выйдет годом позже и будет медленнее старшей HD5770.

Вслед за этими картами последовал новый двухчиповый король графики — HD5970. Карта представляет две HD5870 на одной плате и почти на полтора года станет самым быстрым двухчиповым ускорителем на рынке. При этом потребление по сравнению с 4870 X2 увеличилось несильно — до 294 Вт.

Февраль 2010 года принес еще одну вариацию Cypress — HD5830 с активными 1120 SP, а также новинки на двух бюджетных чипах. ГП Redwood имеет 400 SP и 128-битную шину, которая поддерживает память GDDR5, GDDR3 и DDR2. Он лег в основу моделей серий HD5600 и HD5500, среди которых только младшая HD5550 получила урезанный чип. Чип Cedar — самый младший в линейке. Имея всего 80 SP и 64-битную шину памяти, он нашел приют в единственной модели — HD5450.

Radeon HD6000: последние представители TeraScale

В октябре 2010 года AMD выпускает две видеокарты, относящиеся к новой линейке — HD6870 и HD6850. В них используется чип Barts на архитектуре TeraScale 2, который по сравнению с Cypress получил меньшее количество вычислительных блоков, но обзавелся ускоренным блоком тесселяции. В ГП 14 SIMD, 224 шейдерных кластера, 1120 SP, 32 ROP и 56 TMU. Шина памяти, как и у Cypress, 256-битная с поддержкой GDDR5.

HD6870 получила полный чип, HD6850 — урезанный до 960 SP. Карты предназначались для замены HD5870 и HD5850 и были немного медленнее своих предшественников, но и стоили при этом дешевле. В апреле 2011 года появилась еще одна карта на ГП Barts, HD6790. Она растеряла почти треть SP — активными остались только 800 штук.

В ноябре 2010 года NVIDIA выпускает первого представителя серии GTX500: топовую GTX580. Карта унаследовала от предшественницы архитектуру Fermi, но лишилась ее основных недостатков — урезанного чипа и пониженной частоты. В ответ на это спустя месяц AMD представляет топовые карты нового поколения: Radeon HD6970 и HD6950.

Модели построены на чипе Cayman, который использует обновленную архитектуру TeraScale 3. Основу чипа составляют все те же суперскалярные шейдерные кластеры. Но теперь в каждом из них не пять, а четыре SP, что позволяет более эффективно загружать их. Поэтому, несмотря на то, что в Cayman оказалось чуть меньше SP, он стал немного быстрее Cypress.

Полный чип содержит 24 SIMD, 384 суперскалярных блока и 1536 SP. Вычислительные блоки разделены на две части, каждой из которой управляет отдельный Ultra-Threading Dispatch Processor. Блоков геометрии и тесселяции теперь тоже по два. Каждый из них до полутора раз быстрее, чем у предшественника. Полный чип обладает 32 блоками ROP и 96 TMU. Шина памяти осталась 256-битной, но пропускная способность за счет более быстрых чипов GDDR5 возросла до 176 ГБ/c. Среди новых технологий — поддержка сглаживания EQAA.

Флагманская HD6970 получила полный чип, а субфлагман HD6950 — урезанный до 1408 SP. Стандартный объем памяти карт был увеличен до 2 ГБ. Несмотря на это, конкуренции с GTX580 не получилось — старшая карта была на уровне GTX570, а младшая — немного медленнее ее, хотя потребляли карты довольно много: до 250 Вт. Спустя год чип Cayman ляжет в основу еще одной модели — HD6930, в чипе которой оставили 1280 активных SP.

В марте 2011 года оба производителя карт выпускают свои топовые двухчиповые ускорители: NVIDIA — GTX590, а AMD — HD6990. И тут компания отыгралась: решение конкурента было немного медленнее. Однако HD6990 поставила рекорд по энергопотреблению — целых 375 Вт.

Спустя месяц на сцену выходят HD6770 и HD6750. AMD не стала разрабатывать для карт новые чипы: обе модели представляют из себя переименованные HD5770 и HD5750 на ГП Juniper. То же относится и к HD 6350 — это переименованная HD5450 на ядре Cedar. А вот промежуток между средним производительным сегментом и откровенно бюджетным компания заполнила новыми чипами: Turks и Caicos.

Несмотря на новизну, в основе пары чипов старая архитектура TeraScale 2. Turks имеет 480 SP и 128-битную шину памяти, поддерживающую как GDDR5, так и более медленную GDDR3. Он лег в основу моделей HD 6670 и 6570. Caicos, имеющий всего 160 SP и 64-битную шину памяти DDR3, использовался в единственной модели — HD 6450.

Radeon HD7000: DirectX 11.1 и скалярная GCN

В январе 2012 года начинается новая глава в истории графики AMD. Тогда были выпущены первые карты на основе совершенно новой графической архитектуры — Graphics Core Next (GCN). В отличие от суперскалярной TeraScale, GCN является скалярной архитектурой. Это значит, что ее блоки можно нагрузить гораздо эффективнее, чем блоки предшественницы. К тому же и для неграфических вычислений такая архитектура подходит куда больше.

Основой новых ГП являются вычислительные блоки (CU). В одном блоке содержатся 4 TMU и 64 SP, поделенных на четыре группы. Каждая из них работает со своим потоком команд, которые задает планировщик исполнения, имеющийся внутри CU.

Первыми картами на основе GCN стали HD7970 и HD7950 на базе ГП Tahiti. Чип имеет 32 CU, которые образуют 2048 SP и 128 TMU. Управляют ими процессор графических команд и два движка асинхронных вычислений (ACE). Благодаря этому ГП поддерживает одновременно три потока команд — один графический и два вычислительных, каждым из которых могут заниматься произвольное число CU.

Как и предшественник, Tahiti имеет два блока обработки геометрии и тесселяции. Они были переработаны и значительно оптимизированы, благодаря чему стали от трех до четырех раз быстрее, чем у чипа прошлого поколения. Таким образом, в этом поколении один из главных недостатков карт AMD по сравнению с конкурентом — медленная работа тесселяции — был устранен.

В прочее оснащение чипа входят 32 блока ROP. Память представляет 384-битная шина, которая вкупе с GDDR5 обеспечивает полосу пропускания 264 ГБ/c. ГП получил интерфейс PCI-E 3.0, который в очередной раз удваивает скорость «общения» карты с системой. Вдобавок к этому имеется полная поддержка DirectX 11.1, частичная — DirectX 11.2. Хотя для производства используется 28 нм техпроцесс, максимальный TDP такой же, как у предшественников — 250 Вт.

Топовая HD7970 получила полный чип, HD7950 — урезанный до 1792 SP. Обе карты имели 3 ГБ памяти и обгоняли GTX580, но реальный противник для них был представлен лишь спустя два месяца. GTX680 на старте была немного быстрее HD7970, как и вышедшая позже GTX670 по сравнению с HD7950.

Однако карты AMD могли работать на более высоких частотах, и уже летом 2012 года компания представила две обновленные модели — HD7950 Boost и HD7970 GHz Edition. Эти модели первыми получили поддержку динамического увеличения частоты ядра, аналогично технологии GPU Boost конкурирующей NVIDIA. Обновленные карты сравнялись с конкурентами, а спустя некоторое время стали обгонять их в новых играх — сказывалась оптимизация архитектуры, более высокая пропускная способность памяти и ее больший объем.

Февраль 2012 года принесет бюджетный чип архитектуры GCN — Cape Verde. Он содержит 640 SP и комплектуется 128-битной шиной памяти. Одновременно будут выпущены две карты на его основе: старшая HD7770 с полным чипом и младшая HD7750 — с урезанным до 512 SP. Cтаршая модель стала первой картой компании, частота ядра которой достигла 1 ГГц. Обе модели имеют варианты с 1 и 2 ГБ памяти GDDR5. В апреле 2013 года на базе этого чипа выйдет еще одна модель — HD7730. В ней останутся активными только 384 SP, а к варианту с GDDR5 добавится более бюджетный с DDR3.

В марте 2012 года были представлены карты серии HD7800 на чипе Pitcairn. Он получил 1280 SP и 256-битную шину памяти. Старшая HD7870 получила полный чип и 2 ГБ памяти. В младшей HD7850 осталось активными 1024 SP, а к 2 ГБ варианту добавился более бюджетный с 1 ГБ памяти. В ноябре 2012 года была представлена HD7870 XT. В ее основе старший чип Tahiti, в котором остались активными 1536 SP. Помимо этого, карта получила урезанную до 256 бит шину, вследствие чего ей достались лишь 2 ГБ памяти.

Младшие линейки новой серии представляют собой переименованные карты прошлого поколения на архитектуре TeraScale 2. Все модели линеек HD7600, HD7500, HD7400 и HD7300 обладают аналогичными характеристиками с картами серий HD6600, HD6500, HD6400 и HD6300.

В апреле 2013 года выходит двухчиповая HD7990, представляющая собой пару HD7970 на одной плате. Несмотря на то, что карта вышла на год позже конкурентной GTX690, она показывала сравнимую с ней производительность и была быстрее имиджевой GTX Titan.

С выходом ОС Windows 10 карты серии HD7000 на архитектуре GCN получили частичную поддержку DirectX 12. Но полной совместимостью с новым API обзаведётся только следующее поколение карт — Radeon R200, с которого начнется значительная часть современной истории графики AMD.

Показать полностью 13
Технологии IT Компьютерное железо Компьютер Инженер Производство Изобретения Процессор История развития Компьютерные игры Компьютерная графика Игровой ПК Электроника Микроконтроллеры Длиннопост
6
65
TechSavvyZone
TechSavvyZone

Технологии: Эволюция графики "AMD/ATI" путь развития Часть Первая⁠⁠

8 месяцев назад

AMD. Второй по величине производитель дискретных графических процессоров, давний и бессменный противник NVIDIA. Как появились и развивались видеокарты AMD/ATI.

Wonder и Mach: 2D, ничего более

Компания ATI была основана задолго до NVIDIA — в 1985 году. О 3D-ускорителях графики тогда речи не шло, под «графической картой» понималась плата для вывода 2D-изображения.

Дебютной серией карт ATI стала линейка, позже получившая название Wonder. Первая модель, выпущенная в 1986 году, имела 64 КБ памяти и могла выводить как монохромное, так и цветное изображение. В первом случае поддерживалось разрешение до 720x348 точек, во втором — 320×200 при четырех цветах или вдвое меньше при 16 цветах.

Последняя модель серии под названием Wonder XL24 была выпущена в 1992 году. Она имела до 1 МБ памяти и поддерживала изображение разрешением 800x600 при 16-битной глубине цвета. Для подключения карт Wonder к системе использовалась шина ISA.

С начала 90-х линейку Wonder постепенно сменила серия 2D-ускорителей Mach, которые были призваны разгрузить ЦП системы от «рисования» интерфейса системы и программ. Новые модели Mach выпускались вплоть до 1996 года. Последняя модель Mach 64 имела от 1 до 4 МБ видеопамяти и поддерживала вывод картинки с разрешением до 1280x1024. Ранние модели использовали шину ISA, более поздние перешли на PCI.

3D Rage: переход в 3D

Первая карта с поддержкой 3D-ускорения была выпущена ATI в апреле 1996 года под именем 3D Rage. Чип карты производился по техпроцессу 500 нм и работал на частоте 40 МГц. Он сочетал в себе блок работы с 2D-графикой от Mach 64 с 3D-ускорителем, в составе которого один пиксельный конвейер, растровый блок (ROP) и текстурный модуль (TMU). По 64-битной шине чип соединялся с 2 МБ памяти EDO RAM, обладавшей пропускной способностью чуть больше 500 МБ/c.

Как и поздние Mach 64, карта имела исполнение PCI. В отличие от NVIDIA STG-2000, модель работала с треугольными полигонами. 3D Rage стала одной из первых карт с поддержкой DirectX 5, но OpenGL для игровых приложений был недоступен. Для демонстрации способностей карты была разработана специальная версия игры MechWarrior 2: 31st Century Combat, использующая ускорение Direct3D.

Спустя пять месяцев была выпущена обновленная 3D Rage II. Частоту ядра увеличили в полтора раза, а в качестве памяти могла использоваться как EDO RAM, так и более быстрые SGRAM/SDRAM объемом от 2 до 8 МБ. Благодаря этим изменениям и обновленным драйверам под новую (на тот момент) Windows 95, модель до двух раз опережала предшественника. Наряду с PCI карте добавили поддержку шины AGP 1x. К тому же графический чип 3D Rage II распаивался и на материнские платы — это был первый прообраз встроенной графики ATI.

3D Rage Pro: эпоха DirectX 6

В марте 1997 года ATI представила новую модель — 3D Rage Pro. Чип, лежавший в основе карты, получил новый движок полигонального рендеринга, поддержку прозрачности, тумана и бликов, таким образом став одним из первых с поддержкой DirectX 6. Он производился по техпроцессу 350 нм, что позволило достичь частоты в 75 МГц. Как и предшественник, карта могла использовать один из трех типов памяти, объем которой варьировался от 4 до 16 МБ.

Хотя 3D Rage Pro поддерживала шину PCI, она проектировалась в первую очередь для нового интерфейса AGP. Первые модели работали в режиме AGP 1x, но с выходом RIVA 128 от NVIDIA компания решила задействовать режим AGP 2x, чтобы лучше противостоять сопернику.

По производительности 3D Rage Pro был на уровне конкурента, однако сырые драйвера досаждали просадками производительности в Direct3D, а поддержка OpenGL для игр все также отсутствовала. Доработанные драйвера вышли позже, когда RIVA 128 и другая конкурирующая карта Voodoo Graphics от 3dfx стали массовыми. В итоге 3D Rage Pro не удалось завоевать популярность, хотя технически модель была достаточно продвинутой для своего времени.

В августе 1998 года была выпущена Rage XL, представляющая собой недорогую карту на базе 3D Rage Pro с памятью SDRAM.

3D Rage 128: упор на 32-битный цвет

К началу 1998 года карты Voodoo пользовались огромной популярностью. В феврале была выпущена Voodoo 2, продолжившая дело первой модели. В июне NVIDIA ответила на нее своей RIVA TNT. Конкурент от ATI вышел на рынок последним — это была пара моделей Rage 128.

В чипе Rage 128 было удвоено количество конвейеров, ROP и TMU — точно так же, как и в RIVA TNT. Благодаря новой технологии SuperScalar Rendering чип обрабатывает два пикселя в двух конвейерах одновременно. Rage 128 имеет два отдельных кэша для текстур и пикселей, повышающих эффективность работы подсистемы памяти.

За счет техпроцесса 250 нм частота ядра достигла 100 МГц. Шину памяти расширили до 128 бит, вследствие чего полоса пропускания возросла до 1.6 ГБ/c у старшей модели Rage 128 GL. Младшая Rage 128 VR получила урезанную до 64 бит шину. Карты оснащались от 8 до 32 МБ памяти SGRAM или SDRAM. Помимо дискретных карт, чип Rage 128 VR распаивался на материнские платы в качестве встроенной графики.

Rage 128 показывала сравнимую с RIVA TNT производительность, а при использовании 32-битного цвета даже опережала ее. К тому же поддержка OpenGL в этот раз имелась уже со старта. Погубило модель слишком позднее появление: выйди карта на полгода раньше, ей удалось бы отвоевать гораздо большую часть рынка.

В начале 1999 года появились более быстрые RIVA TNT2 и Voodoo 3, на что ATI ответила новыми моделями Rage 128 с приставками Pro и Ultra — но опять с опозданием в полгода. Картам добавили поддержку шины AGP 4x, ускорили ядро и память на четверть, что помогло приблизиться к оппоненту. Однако на носу была гораздо быстрая GeForce 256, и ATI нужно было чем-то ответить прямо здесь и сейчас…

Этим ответом стала первая двухчиповая карта компании — Rage Fury MAXX, выпущенная в октябре 1999 года. Два чипа от Rage 128 Pro рендерили кадры по очереди, что позволяло практически вдвое повысить производительность. Каждый из чипов имел 32 МБ памяти SDRAM.

Производительность карты приближалась к GeForce 256, но последняя все же была быстрее и выглядела предпочтительнее за счет поддержки аппаратной трансформации и освещения (T&L) и DirectX 7, которого у ATI еще не было.

Первый Radeon: DirectX 7, и даже немного больше

Битва с GeForce 256 была проиграна, но ATI не собиралась сдаваться. В ее недрах кипела разработка нового графического ядра, которое было быстрее GeForce 256 и с успехом соревновалось бы со следующим поколением конкурента. Встречайте, первый чип для карт нового семейства Radeon — R100.

R100 получил новый геометрический движок Charisma Engine, имеющий некоторые возможности более поздних вершинных шейдеров, что позволяло ATI заявлять о поддержке шейдерных эффектов. В Charisma Engine входит аппаратный блок T&L, движки смешения вершин и интерполяции по ключевым кадрам. У чипа два пиксельных конвейера, на каждый из которых приходится один блок ROP и три TMU.

Чип производился по техпроцессу 180 нм и работал на частоте до 183 МГц. ГП обладал полной совместимостью с DirectX 7, но также поддерживал некоторые функции DirectX 8: глубину резкости, размытие в движении и полноэкранное сглаживание. Шина памяти 128-битная, возможно использование как SDRAM, так и вдвое более быстрой DDR c пропускной способностью до 5.8 ГБ/c. Она используется более эффективно благодаря технологии сжатия Z-буфера под названием Hyper-Z. Radeon с памятью DDR была выпущена в апреле 2000 года, одновременно с первыми GeForce 2. Карта обладала 32 или 64 МБ памяти и чаще всего была наравне с продуктами NVIDIA при использовании 32-битного цвета, но отставала при 16-битном. Спустя два месяца была выпущена более медленная модель с памятью SDR, которая превосходила GeForce 2 MX. Позже для того, чтобы отличить карты от более новых моделей, обе Radeon вдобавок к имени получили цифровой индекс 7200.

Voodoo 4 и 5 в этот раз появились позже конкурентов. К тому времени многие игры научились использовать аппаратный T&L, которого у карт от 3dfx не было. В итоге новые модели от 3dfx чаще всего были медленнее конкурирующих решений при более высокой цене. NVIDIA воспользовалась упадком компании и в конце 2000 года купила 3dfx. С того момента на рынке остались только два серьезных конкурента — NVIDIA и ATI.

В феврале 2001 года была выпущена бюджетная Radeon VE, позже получившая номер 7000. В ее основе упрощенный чип RV100 c 64-битной шиной памяти, который является «половинкой» R100 без движка Charisma Engine и блока T&L.

Radeon 8500: продвинутый DirectX 8

В феврале 2001 года NVIDIA выпускает первую карту с поддержкой DirectX 8 — GeForce 3. В ответ на это спустя полгода ATI выпускает две новые модели: Radeon 7500 и 8500.

В составе Radeon 7500 обновленный чип RV200. Он представляет из себя R100, перенесенный на техпроцесс 150 нм, за счет чего удалось в полтора раза повысить частоту ядра. Использование памяти более быстрой DDR позволило увеличить полосу пропускания до 7.3 ГБ/c.

А вот основой Radeon 8500 стала действительно новая разработка. Чип R200 получил движок Charisma Engine II, в котором нестандартные средства для работы с геометрией сменили два вершинных шейдера. На каждый из четырех конвейеров приходится по одному блоку ROP и пиксельному шейдеру версии 1.4, которые позволяют заявлять о полной поддержке DirectX 8.1. Таким образом, R200 обладает более совершенной программируемой шейдерной архитектурой, чем его конкурент NV20.

ГП получил поддержку TruForm — технологии, позволяющей увеличивать геометрическую сложность сцены посредством разбиения существующих полигонов на более мелкие. По сути, TruForm является собственной реализацией N-патчей DirectX 8 и предком современной тесселяции. Чип обзавелся поддержкой адаптивного сглаживания SmoothVision. А 128-битная шина памяти с быстрыми чипами DDR позволили достигнуть пропускной способности в 8.8 ГБ/c. Благодаря обновленной технологии Hyper-Z II чип более эффективно распоряжается ей по сравнению с предшественниками.

Radeon 8500 и его слегка замедленная версия 8500LE навязали соперничество семейству GeForce 3, хотя топовая модель Ti 500 была немного быстрее. Обе карты выпускались в двух версиях — с 64 и 128 МБ памяти.

Radeon 9700: первый DirectX 9

Следующих новинок ATI пришлось ждать целый год. К августу 2002 года семейство GeForce 4 уже распространилось, и пара новых моделей Radeon 9000 как раз противопоставлялась младшим GeForce 4 MX.

ATI не стала повторять ошибки NVIDIA с отсутствием шейдеров в бюджетной видеокарте. Чип RV250 получил вдвое меньше вершинных блоков и TMU по сравнению с R200, но сохранил 128-битную шину памяти, а также четыре пиксельных конвейера с ROP и пиксельным шейдером на каждом. Это позволяло ему быть быстрее конкурента при сохранении поддержки новых игр, использующих DirectX 8. А вот прямого конкурента GeForce 4 Ti компания разрабатывать не стала. Эпоха DirectX 8 подходила к закату, и ATI решила сосредоточить силы на новом чипе с поддержкой DirectX 9, который превосходил бы текущий топ NVIDIA и составил конкуренцию следующему. Встречайте, первая карта с поддержкой DirectX 9: Radeon 9700 Pro на базе чипа R300.

R300 получил восемь пиксельных и четыре вершинных шейдера, которые значительно переработаны для поддержки шейдерной модели 2.0. Компанию им составляют восемь блоков ROP, столько же TMU и 256-битная шина памяти DDR с пропускной способностью 17.3 ГБ/c. Чип получил более качественную анизотропную фильтрацию и поддержку шины AGP 8x. Теперь доступно адаптивное сглаживание SmoothVision 2.0 на базе MSAA, которое работает значительно быстрее более ранних методов. Из-за энергопотребления, превысившего возможности шины AGP, карте впервые понадобилось дополнительное питание с помощью разъема MOLEX.

В октябре 2002 года линейка карт на чипе расширяется обычным Radeon 9700 и парой Radeon 9500/9500 Pro. Первая модель отличается от 9700 более низкими частотами, а 9500 Pro — еще и урезанной до 128 бит шиной. Radeon 9500 без приставки Pro «пострадал» больше всего: количество пиксельных шейдеров, ROP и TMU ему урезали вдвое. Впрочем, карты этого поколения славились возможностью разблокировки нерабочих блоков: программно или с помощью перепаивания резисторов. Таким образом, благодаря ловкости рук младшую карту можно было превратить в аналог старшей.

Ответ NVIDIA последовал лишь в начале 2003 года. Линейка GeForce FX5000 также поддерживала DirectX 9 и технически даже в чем-то превосходила оппонента из-за усовершенствованной шейдерной модели 2.0a. Однако перегнать топовые Radeon 9700 в новом API первые карты серии не смогли. Лишь в мае 2003 года с выходом FX5900 на чипе NV35 картам на базе R300 пришлось «подвинуться». Однако за два месяца до этого на рынке уже появился его преемник R350 с более высокими частотами.

R350 представляет собой оптимизированную и разогнанную версию R300. На нем основан обновленный флагман компании — Radeon 9800 Pro. Помимо более высоких частот чипа и памяти, карты отличаются объемом памяти: модели с 64 МБ теперь нет, зато доступна новая с 256 МБ. Старшая версия встречается с как с памятью DDR, так и с новой GDDR2. Вместе с топом был выпущен и Radeon 9800SE, повторяющий конфигурацию Radeon 9500. Чуть позже появились модели Radeon 9800 и 9800XL с полным чипом, но сниженными относительно флагмана частотами.

За средний сегмент «отдувался» упрощенный чип RV350, представляющий собой «половинку» от R300/350 по всем блокам. Память у него 128-битная. На RV350 основаны Radeon 9600 Pro, 9600 и 9550. Radeon 9550 SE и 9600 SE также используют RV350, но с урезанной до 64 бит шиной памяти. Бюджетные модели серии Radeon 9200 базируются на RV280, который поддерживает лишь DirectX 8.1 — это реинкарнация чипа RV250, использовавшегося в Radeon 9000.

В сентябре 2003 года выходит Radeon 9800XT на чипе R360, который отличается от R350 только частотой. Ядро достигает 412 МГц, а память — пропускной способности в 23.2 ГБ/c, что помешало стать лидером выпущенной спустя месяц GeForce FX 5950 Ultra. Со сниженной частотой R360 нашел применение и в поздних Radeon 9800 Pro.

Radeon X: появление CrossFire

Карты следующего поколения вышли у конкурентов почти одновременно. В конце апреля 2004 года NVIDIA выпускает первых представителей топовой линейки GeForce 6800, на что ATI в начале мая отвечает новинками серии Radeon X800. В отличие от NVIDIA, которая использовала чип-мост HSI для реализации карт с новомодным интерфейсом PCI-E, ATI создала две версии одного чипа с разными интерфейсами — R420 (AGP 8x) и R423 (PCI-E x16). Отличались и способы подвода дополнительного питания: для AGP-карт — пара MOLEX, для PCI-E карт — один разъем 6-pin.

Внутреннее устройство новых ГП ATI достаточно схоже с конкурирующим NV40 от NVIDIA. Пиксельные шейдеры имеют по два вычислительных векторных ALU. Четыре таких шейдера и четыре TMU сгруппированы в пулы квадов, которые работают с фрагментами картинки размером 2х2 пикселя. В чипе четыре пула, что дает 16 пиксельных шейдеров и 16 TMU. Компанию им составляют шесть вершинных шейдеров и 16 блоков ROP — точно так же, как и в NV40.

Интерфейс памяти 256-битный. Используется GDDR3, пропускная способность которой у топовой модели достигает 35.8 ГБ/c. Чип получил поддержку шейдеров версии 2.0b, временного сглаживания на базе MSAA и метода компрессии текстур 3Dc, предназначенного для сжатия карт нормалей. Благодаря 130 нм техпроцессу потолок частот ГП удалось увеличить до 520 МГц, что вкупе с увеличенным количеством блоков ускорило новые карты до двух раз по сравнению с прошлым поколением.

Старшие модели X800 XT и X800 XT PE были наравне с конкурентной GeForce 6800 Ultra в большинстве новых игр, но иногда уступали в старых проектах. Для обеспечения превосходства по производительности в сентябре 2004 года ATI выпускает линейку Radeon X850 на чипе R480 (а через полгода — на его AGP-клоне R481), который является оптимизированным и разогнанным вариантом R420/R423. Модели серии X850 первыми получили поддержку технологии CrossFire, которая позволяла объединить две карты для увеличения графической производительности. Для этого требовалась особая карта CrossFire Edition, которая соединялась с обычной картой посредством специального кабеля.

Одновременно был выпущен чип R430, представляющий еще одну вариацию R420/R423, перенесенную на 110 нм техпроцесс. Он стал основой обычной X800, а также X800XL — первой карты компании, получившей разновидность с 512 МБ памяти. ГП обладает нативной поддержкой интерфейса PCI-E, а для реализации AGP-вариантов используется чип-мост Rialto.

Таким образом, линейка Radeon X800 стала довольно обширной: различные модели основывались на четырех разных чипах R4xx, отличаясь между собой частотами и количеством активных блоков. Основная масса карт оснащалась 256 МБ памяти, хотя встречались и модели со 128 МБ.

Вместе с серией X850 ATI запускает бюджетные линейки карт X600 и X300. В их основе чипы RV380 и RV370, которые являются слегка улучшенным вариантом RV350, применявшимся в прошлых сериях Radeon 9600 и 9500. В отличие от предшественника, оба чипа обладают интерфейсом PCI-E, а RV370 вдобавок производится по более тонкой 110 нм технологии. Интересной особенностью RV370 была поддержка технологии HyperMemory, позволяющей использовать для нужд ГП часть системной оперативной памяти. В середине 2005 года на базе RV370 была выпущена пара бюджетных карт Radeon X550 c интерфейсом AGP.

В декабре 2004 года компания анонсирует первые модели линейки X700 на базе нового чипа RV410. Он является «половинкой» R430 по всем блокам, за исключением вершинных шейдеров — их, как и в старшем чипе, шесть штук. Шина памяти 128-битная. Основная масса карт X700 получила полный чип, упрощению подверглись лишь модели с приставками LE и SE: обе получили 64-битную шину, а вторая — еще и урезанный по блокам чип. В январе 2007 года на базе X700 SE были выпушены две бюджетные модели серии Radeon X550 с интерфейсом PCI-E.

Radeon X1000: запоздалый DirectX 9.0c

Большинство карт прошлой серии были немного быстрее GeForce 6000, но в козырях последней была поддержка шейдеров версии 3.0, которые спустя год после выхода конкурирующих линеек понемногу станут появляться в играх. В июле 2005 NVIDIA выпустила следующее поколение карт GeForce 7000. Тогда ATI стало окончательно ясно, что пора прекращать делать ставку на шейдеры 2.x и начинать ориентироваться на третьи шейдеры.

ATI запустила новую линейку карт с поддержкой DirectX 9.0c и шейдеров версии 3.0 в октябре 2005 года, представив сразу семь видеокарт линеек X1800, X1600 и X1300. В их основе три разных чипа: бюджетный RV515, средний RV530 и старший RV520. Все ГП получили поддержку адаптивного сглаживания прозрачных текстур.

Строение чипов подобно предшественникам, хотя есть и несколько важных отличий. У топового чипа R520 все также четыре пула квадов. В каждом из которых четверка TMU и пиксельных шейдеров, которые стали сложнее: теперь в каждом из них, помимо пары векторных ALU, имеется еще два скалярных ALU для простых операций. Используются пулы более эффективно благодаря новому блоку Ultra-Threading Dispatch Processor, который распределяет работу между ними.

Число вершинных шейдеров в чипе возросло до восьми, хотя блоков ROP 16. Контроллер памяти получил внутреннюю двунаправленную кольцевую 512-битную шину, позволившую передавать данные с меньшими задержками, но внешняя шина памяти осталась 256-битной. Применение более быстрых чипов GDDR3 увеличило полосу пропускания до 48 ГБ/c. Чипы производились по 90 нм техпроцессу, что позволило достичь 625 МГц ядру топовой модели.

R520 лег в основу топовой линейки Radeon X1800. Карты на его основе оснащались 256 или 512 МБ памяти и полным чипом, за исключением вышедшей позднее X1800 GTO с одним отключенным пулом квадов. В отличие от прошлой линейки, в этот раз топовые модели обоих производителей получились примерно равными по силам: 7800GTX и X1800 XT опережали друг друга с переменным успехом.

Средний чип RV530 получил 12 пиксельных и 5 вершинных шейдеров, 4 ROP и 4 TMU. Шина памяти у него 128-битная, возможно использование как GDDR3, так и DDR2. ГП стал основой пары моделей серии Radeon X1600. Младший RV515 имел аналогичную шину памяти и столько же блоков ROP и TMU, но намного меньше шейдеров: 4 пиксельных и 2 вершинных. Чип применялся в линейке карт Radeon X1300, младшая из которых получила урезанную до 64 бит шину. Карты линейки использовали память DDR или DDR2.

В январе 2006 года компания решает усилить свои позиции запуском карт новой серии Radeon X1900. Они базируются на новом чипе R580, основное отличие которого от R520 — увеличение количества пиксельных шейдеров с 16 до 48. Это обеспечило рост производительности в новых играх со сложной графикой. Спустя два месяца последовал ответ от NVIDIA в лице 7900 GTX, который вновь уравнял обоих конкурентов.

В конце августа ATI выпускает первую модель серии Radeon X1950 на чипе R580+. Главное отличие от обычного R580 — новая память GDDR4, которая позволила увеличить полосу пропускания до 64 ГБ/c. В октябре выходят еще две карты серии на этом чипе, а также модели на новых 80 нм чипах.

RV570 и RV560 представляют собой упрощенный R580 на новом техпроцессе 80 нм с меньшим количеством активных блоков — 36 пиксельных шейдеров и 12 ROP/TMU у старшей модели и 24 пиксельных шейдера вкупе с 8 ROP/TMU у младшей. Новые чипы получили отдельный интерфейс для CrossFire, благодаря которому отпала необходимость в главной карте и стало возможным объединить любые модели с поддержкой технологии и одинаковым ГП специальными мостиками.

RV570 стал основой карт X1950 с приставками PRO и GT, RV560 — моделей X1650 с суффиксами GT и XT, а также X1700 SE.

Бюджетные чипы также получили обновления по 80 нм технологии. RV530 превратился в RV535, а RV515 — в RV516. На базе первого была выпущена X1650 PRO, второй нашел применение в X1550 и X1650SE.

Линейка Radeon X1000 стала последней с раздельными пиксельными и вершинными шейдерами. Следующая линейка карт получила суффикс HD, и обзавелась универсальной шейдерной архитектурой.

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 20
Компьютерное железо Компьютер Технологии Инженер IT Игровой ПК Видеокарта Производство Изобретения Компьютерная графика Компьютерные игры История развития Электроника Процессор AMD Nvidia Микроконтроллеры Длиннопост
12
10
TechSavvyZone
TechSavvyZone

Сердце ПК: Кремниевый двигатель "Intel техпроцессы 20A, 18A и 14A" особенности⁠⁠

9 месяцев назад

В феврале 2024 года компания Intel представила свою обновленную дорожную карту. Этим она немного приоткрыла завесу тайны, огласив некоторые интересные особенности процессоров следующих поколений и технологий их производства.

Многие наверняка помнят, что основной для продуктов Intel долгое время являлась технология производства 14 нм. С 2015 по 2021 год именно по этому техпроцессу выпускались все десктопные процессоры Intel Core. И лишь в конце 2021 года вместе с Core 12-го поколения компания вывела на рынок новый техпроцесс Intel 7, который на самом деле является разновидностью 10 нм норм.

С этого момента в истории производства Intel началась новая глава. Десктопные модели Core 13-го и 14-го поколений продолжили использовать техпроцесс Intel 7, но в мобильных процессорах Core Ultra, представленных в конце 2023 года, компания начала использовать следующий процесс под названием Intel 4 (7 нм). В обновленном роадмапе за ним следуют будущие техпроцессы — Intel 3, Intel 20A, Intel 18A, Intel 14A и Intel 10A. Расскажем о каждом поподробнее.

Intel 3

Дальнейшее развитие идей Intel 4 найдет воплощение в техпроцессе Intel 3. Как и в прямом предшественнике, в нем используется литография в сверхжестком ультрафиолете (EUV), без которой не обойтись в таких тонких процессах.

Intel 3 уже прошел полное тестирование и готов к применению. Относительно Intel 4 показатель производительности на ватт вырастет на 18 %, что довольно неплохо при схожем процессе производства. К тому же, по сравнению с предшественником, он позволит достичь более высокой плотности транзисторов и рассчитан на более высокопроизводительные чипы.

Однако десктопные и мобильные процессоры Intel этот техпроцесс обойдет стороной. Уделом Intel 3 станут новые серверные процессоры под названием Xeon 6. Их будет две разновидности — на основе производительных (Granite Rapids) и энергоэффективных (Sierra Forest) ядер.

Выпуск Granite Rapids состоится уже во втором квартале 2024 года, а Sierra Forest — в его второй половине. Благодаря новому техпроцессу в этих чипах уместится до 288 энергоэффективных ядер.

Intel 20A

Техпроцесс Intel 20A для рядового пользователя более интересен. Ведь именно на нем будут построены процессоры 15-го поколения Core под кодовым названием Arrow Lake. Как и мобильные Meteor Lake, эти процессоры получат «Core Ultra» в названии и плиточную компоновку Foveros — впервые для десктопа.

Intel 20A, по словам компании, открывает «эру Ангстрема». Это и отражено в названии техпроцесса: 20A — 20 ангстрем, то есть 2 нм. Конечно, маркетинговые нанометры давно перестали отражать реальные размеры транзисторов, но именно этот техпроцесс должен обеспечить наиболее большой технологический скачок. В том числе, благодаря двум заметным технологическим улучшениям.

Первое их них — новые транзисторы RibbonFET Gate-All-Around (GAA). Они оснащены затвором с четырьмя каналами, который полностью их окружает. Это первое улучшение с 2012 года, когда были внедрены так называемые 3D-транзисторы FinFET, окруженные затвором с трех сторон.

В отличие от них, транзисторы GAA занимают меньше места, благодаря чему заметно возрастает их плотность. К тому же и переключаются они при сравнимом токе быстрее.

Второе новшество — вывод сигнальных линий и линий питания с разных сторон подложки чипа. В более ранних техпроцессах оба вида линий находятся с ее фронтальной стороны. Новое решение под названием PowerVia заключается в переносе линий питания на обратную сторону подложки. Так как линии питания больше не мешают сигнальным, для последних можно упростить разводку и уменьшить длину соединений. А за счет отсутствия прямых наводок от питания и помех для сигналов становится меньше.

Проводники питания можно сделать большего сечения для использования повышенных токов, а плотность размещения транзисторов — увеличить. Благодаря такому сочетанию новые процессоры наверняка смогут достигать более высоких частот. Производительность на ватт по сравнению с техпроцессом Intel 3 возрастет до 15 %.

Intel 18A

Следующее поколение техпроцесса представляет собой усовершенствованную версию Intel 20A. В него перекочуют все новшества предшественника. Intel 18A — техпроцесс, соответствующие условным 18 ангстрем, или 1.8 нм. По сравнению с Intel 20A, он позволит увеличить показатель производительности на ватт на величину до 10 %.

Как признался глава Intel, именно на этот техпроцесс он сделал наибольшую ставку. Intel 18A должен вернуть компании лидерство в передовых технологиях производства, а также стать наиболее массово использующимся техпроцессом. На Intel 20A компания намерена обкатать технологии RibbonFET и PowerVia, поэтому он будет использоваться только в процессорах Core. А на базе 18A будут выпускаться и серверные Xeon нового поколения, и чипы, разработанные сторонними компаниями-заказчиками — к примеру, мобильные решения на архитектуре ARM.

Среди продукции компании первой на вооружение этот техпроцесс возьмут новые процессоры Xeon под кодовым названием Clearwater Forest. Это второе поколение разновидности Xeon на базе энергоэффективных ядер. В нем впервые будет применена технология Foveros Direct, которая позволит связывать кристаллы-плитки с помощью соединений гораздо меньшего размера, чем ранее.

Следом за Xeon технология производства найдет приют в процессорах Core под кодовым названием Lunar Lake. Это произойдет в конце 2024 или начале 2025 года. Как и Meteor Lake, эта линейка процессоров предназначена исключительно для ноутбуков. В десктопы новый техпроцесс попадет только в середине 2025 года с приходом процессоров Core под кодовым названием Panther Lake.

Intel 14A

В 2027 году в массовое производство будет запущен Intel 14A. Ключевое отличие от предшественников в том, что он станет первым техпроцессом, при производстве которого будет использоваться литография в сверхжестком ультрафиолете с высокой числовой апертурой (High-NA EUV). Это потребует нового оборудования для производства, поэтому на первых порах ждать бюджетных продуктов на базе 14A не стоит.

Как и в предшественниках, в Intel 14A будут использоваться транзисторы RibbonFET, а технология PowerVia второго поколения сможет обеспечить лучшие параметры питания. Intel планирует две разновидности этого техпроцесса: стандартную 14A и улучшенную 14A-E, которая увидит свет позже. Таким образом компания хочет продлить жизненный цикл технологии без перехода на новый процесс производства. Доработанные версии получат также Intel 18A и Intel 3.

Компания пока не называет предполагаемое преимущество в производительности на ватт или плотности транзисторов, так как не хочет заранее информировать конкурентов. Поэтому более подробные технические детали 14A станут известны ближе к дате запуска его тестового производства, которое начнется в 2026 году.

Intel 10A

Последний техпроцесс Intel, который упоминался ее представителями — Intel 10A. Информации о нем пока немного. Известно, что тестовое производство стартует в конце 2027 года, а готовые продукты появятся не раньше 2028-го.

Аналогично Intel 14A, этот техпроцесс будет использовать литографию High-NA EUV. К тому моменту она станет более зрелой и дешевой в производстве, поэтому стоит ожидать использование 10A и в массовой недорогой продукции.

Показать полностью 8
Компьютерное железо Технологии Инженер Компьютер IT Процессор Микроконтроллеры Чип Транзистор Электроника История развития Изобретения Производство Intel Длиннопост
0
166
TechSavvyZone
TechSavvyZone

Технологии: "Оперативная память" Устройство и принципы работы⁠⁠

9 месяцев назад

Оперативная память является неотъемлемым компонентом любой вычислительной системы. Как она устроена внутри, и как работает?

Немного истории

Началось всё очень давно, ещё в ХIХ веке. Именно в 1834 году Чарльз Беббидж разработал конструкцию аналитической машины. В те годы самому Чарльзу не удалось воплотить свою конструкцию в реальную жизнь из-за проблем с финансированием и отсутствием необходимых для постройки технологий.

Упрощённо, данный компьютер состоял из 4-х элементов – арифметико-логического устройства (АЛУ), устройства ввода-вывода, шины передачи данных и оперативной памяти. Как же работала оперативная память в 19 веке? Работала она за счёт сложного массива валов и шестерёнок, положение которых и «записывало» то или иное значение информационной единицы. И после этого изобретения давайте сделаем скачок на более чем 100 лет вперёд, в 40-50-ые годы ХХ века, когда начинались выпускаться электронно-вычислительные машины (ЭВМ) первого поколения.

Так как технология только зарождалась, инженеры экспериментировали с конструкциями и принципами работы ОЗУ. Таким образом, на первых порах использовалась оперативная память, работающая на электромеханических реле, на электромагнитных переключателях, на электростатических трубках и на электро-лучевых трубках. Но спустя пару лет все сошлись на одном варианте, другом – магнитные диски и магнитные барабаны.

По своей структуре магнитные барабаны похожи на современные жёсткие диски. Ключевое отличие – на барабане считывающие головки неподвижны и время доступа полностью определяется скоростью их вращения, в то время как у жёсткого диска это определяется как скоростью вращения, так и скоростью перемещения головок по цилиндрам диска. Следующим этапом развития оперативной памяти стали массивы на ферромагнитных сердечниках, или, как её проще называли, ферритовая память. Такой вид памяти обеспечивал очень высокую скорость доступа по сравнению с магнитными барабанами, но и потреблял он больше электроэнергии.

А самой главной проблемой что магнитных барабанов, что ферритовой памяти были габариты. Именно над исправлением этого недостатка исследователи работали на протяжении более десяти лет. И главный толчок в развитии оперативной памяти дало создание больших интегральных схем БИС), или же микросхем, и уже на них появились всеми нами известные и используемые до сих пор DRAM и SRAM, которые стали постепенно сменять ферритовую память, начиная с 70-ых годов. Какая разница между DRAM и SRAM? Если вкратце, то DRAM хранит бит данных в виде заряда конденсатора, а SRAM хранит бит в виде состояния триггера. DRAM является более экономичным видом памяти с меньшим энергопотреблением, а SRAM может похвастаться меньшим временем доступа за большую стоимость и энергопотребление. В нынешний момент SRAM используется как кэш-память процессора, так что мы подробнее перейдём к DRAM, ведь именно такую память используют при создании оперативной памяти.

Кому будет интересно почитать и освежить память, или подчерпнуть для себя что то новое, есть замечательная статья на просторах ПИКАБУ автора BootSect "История оперативной памяти".

Но давайте вернемся и все таки рассмотрим -

Что такое оперативная память

Любая вычислительная система состоит из нескольких компонентов. При этом неважно, где эта система используется — в компьютере, ноутбуке, смартфоне, планшете или даже смарт-часах. Основной принцип работы везде один: данные считываются с медленного накопителя и попадают в более быструю оперативную память. Оттуда их получает очень быстрая кеш-память центрального процессора, которая передает данные на вычислительную часть ЦП.

В компьютерах с этим проще: память для них распространяется в виде модулей формата DIMM, на которых распаяны микросхемы памяти. В ноутбуках можно встретить как более компактные модули SO-DIMM, так и распаянную ОЗУ.

Устройство чипов памяти

Внутри микросхем памяти находится несколько слоев, соединенных друг с другом. Каждый из них разделен на кластеры, в которых находятся ячейки памяти, хранящие информацию.

Ячейка памяти состоит из конденсатора и полевого транзистора. Конденсатор может хранить электрический заряд (логическая единица) или находиться в состоянии без заряда (логический ноль). Таким образом каждая ячейка хранит один бит информации.

Транзистор выступает в роли своеобразной двери. Когда «дверь» закрыта, она удерживает заряд конденсатора. При считывании и записи информации эта «дверь» открывается. Помимо конденсатора, транзистор подключен к двум линиям — линии слов («Word Line», строка) и линии битов («Bit Line», столбец).

Ячейки памяти расположены подобно клеткам шахматной доски. Те, которые находятся на одной линии слов, образуют страницу памяти. Операции чтения и записи производятся не с одной ячейкой, а с целой страницей памяти сразу, так как все транзисторы ячеек на одной линии слов открываются одновременно. Для операции чтения на одну линию слов подается управляющее напряжение, которое открывает все транзисторы ячеек на ней. На концах линий битов находятся усилители чувствительности (Sense Amplifier). Они распознают наличие или отсутствие заряда в конденсаторах ячеек памяти, таким образом считывая логическую единицу или логический ноль.

Конденсаторы ячеек имеют маленькие размеры и очень быстро теряют заряд. Поэтому независимо от того, нужно ли сохранять в памяти текущую информацию или записать новую, ячейки периодически перезаписываются.

Для этого, как и при чтении, управляющее напряжение подается на «двери» транзисторов ячеек по линии слов. А вот по линии битов вместо считывания производится процесс записи. Он осуществляется с помощью подачи напряжения для заряда конденсаторов нужных ячеек — то есть только тех, где должна быть логическая единица.

Передача данных и тайминги

Работа линий координируется декодером адресов строк и мультиплексором столбцов. Информация для записи в ОЗУ поступает в общий буфер данных. Оттуда она попадает в мультиплексор и в его собственный буфер, а затем — в управляющую логику, которая координирует работу ячеек памяти с учетом латентности памяти.

Данные из логики поступают в буфер декодера адресов строк, а оттуда и на сам декодер, позволяя своевременно открывать страницы памяти для операций чтения и записи. При чтении данные вновь проходят через мультиплексор и общий буфер данных, который передает их системе.

Операции декодера адреса строки и мультиплексора столбцов требуют определенных периодов времени — стробов. Строб адресов строк обозначается как RAS, адресов столбцов — как CAS. Данными характеристиками и их соотношениями определяется латентность памяти, или тайминги. Тайминги — это временные задержки между выполнением команд чтения и записи. Чем они ниже, тем быстрее работает память при прочих равных.

Тайминги выражаются не в абсолютном, а в относительном числовом значении. Оно показывает количество тактовых циклов, которое требуется памяти на выполнение операций. Или, если простым языком, во сколько раз медленнее производится та или иная операция относительно задержки передачи данных. Именно поэтому одни и те же модули ОЗУ имеют разные тайминги на разных частотах.

Для простого примера возьмем распространенную ОЗУ DDR4 с частотой 3200 МГц. Время передачи одного бита информации у нее составляет 1/3 200 000 долю секунды, или 0.3125 нс. Так как память типа DDR передает данные дважды за такт, длительность одного цикла передачи данных занимает в два раза больше времени — 0.625 нс. При тайминге, равном 16, определенная операция будет происходить за время, которое в 16 раз больше этого значения: 0.625 x 16 = 10 нс.

Основные виды таймингов — это:

  • СL (CAS Latency)

Количество тактов между получением команды чтения/записи и ее выполнением.

  • tRCD (RAS to CAS delay)

Количество тактов между открытием строки и началом выполнения операции чтения/записи по столбцу.

  • tRP (RAS Precharge Time)

Количество тактов между получением команды закрытия одной строки и открытием следующей.

  • tRAS (RAS Active Time)

Количество тактов, в течение которых строка памяти может быть доступна для чтения/записи.

  • CMD (Command Rate)

Количество тактов с момента активации чипа памяти до готовности принять команду.

Тайминги — качество

Работа памяти, вопреки стереотипу, измеряется не только герцами. Быстроту памяти принято измерять в наносекундах. Все элементы памяти работают в наносекундах. Чем чаще они разряжаются и заряжаются, тем быстрее пользователь получает информацию. Время, за которое банки должны отрабатывать задачи назвали одним словом — тайминг (timing — расчет времени, сроки). Чем меньше тактов (секунд) в тайминге, тем быстрее работают банки.

Такты. Если нам необходимо забраться на вершину по лестнице со 100 ступеньками, мы совершим 100 шагов. Если нам нужно забраться на вершину быстрее, можно идти через ступеньку. Это уже в два раза быстрее. А можно через две ступеньки. Это будет в три раза быстрее. Для каждого человека есть свой предел скорости. Как и для чипов — какие-то позволяют снизить тайминги, какие-то нет.

Частота — количество

Теперь, что касается частоты памяти. В работе ОЗУ частота влияет не на время, а на количество информации, которую контроллер может утащить за один подход. Например, в кафе снова приходит клиент и требует томатный сок, а еще виски со льдом и молочный коктейль. Бармен может принести сначала один напиток, потом второй, третий. Клиент ждать не хочет. Тогда бармену придется нести все сразу за один подход. Если у него нет проблем с координацией, он поставит все три напитка на поднос и выполнит требование капризного клиента.

Аналогично работает частота памяти: увеличивает ширину канала для данных и позволяет принимать или отдавать больший объем информации за один подход.

Тайминги плюс частота — скорость

Соответственно, частота и тайминги связаны между собой и задают общую скорость работы оперативной памяти. Чтобы не путаться в сложных формулах, представим работу тандема частота/тайминги в виде графического примера:

Разберем схему. В торговом центре есть два отдела с техникой. Один продает видеокарты, другой — игровые приставки. Дефицит игровой техники довел клиентов до сумасшествия, и они готовы купить видеокарту или приставку, только чтобы поиграть в новый Assassin’s Creed. Условия торговли такие: зона ожидания в отделе первого продавца позволяет обслуживать только одного клиента за раз, а второй может разместить сразу двух. Но у первого склад с видеокартами находится в два раза ближе, чем у второго с приставками. Поэтому он приносит товар быстрее, чем второй. Однако, второй продавец будет обслуживать сразу двух клиентов, хотя ему и придется ходить за товаром в два раза дальше. В таком случае, скорость работы обоих будет одинакова. А теперь представим, что склад с приставками находится на том же расстоянии, что и у первого с видеокартами. Теперь продавец консолей начнет работать в два раза быстрее первого и заберет себе большую часть прибыли. И, чем ближе склад и больше клиентов в отделе, тем быстрее он зарабатывает деньги.

Так, мы понимаем, как взаимодействует частота с таймингами в скорости работы памяти.

  • Очередь — это пользователь, который запрашивает информацию из оперативной памяти.

  • Продавец — это контроллер памяти (который доставляет информацию).

  • Техника со склада — это информация для пользователя. Прилавок — это пропускная способность памяти в герцах (частота).

  • Расстояние до склада — тайминги (время, за которое контроллер найдет информацию по запросу).

Соответственно, чем меньше метров проходит контроллер до банок с электрическим зарядом, тем быстрее пользователь получает информацию. Если частота памяти позволяет доставить больше информации при том же расстоянии, то скорость памяти возрастает. Если частота памяти тянет за собой увеличение расстояния до банок (высокие тайминги), то общая скорость работы памяти упадет.

Сравнить скорость разных модулей ОЗУ в наносекундах можно с помощью формулы: тайминг*2000/частоту памяти. Так, ОЗУ с частотой 3600 и таймингами CL14 будет работать со скоростью 14*2000/3600 = 7,8 нс. А 4000 на CL16 покажет ровно 8 нс. Выходит, что оба варианта примерно одинаковы по скорости, но второй предпочтительнее из-за большей пропускной способности. В то же время, если взять память с частотой 4000 при CL14, то это будет уже 7 нс. При этом пропускная способность станет еще выше, а время доставки информации снизится на 1 нс.

Вот, как выглядят тайминги на самом деле:

Строение чипа памяти и тайминги

В теории, оперативная память имеет скорость в наносекундах и мегабайтах в секунду. Однако, на практике существует не один десяток таймингов, и каждый задает время на определенную работу в микросхеме.

Они делятся на первичные, вторичные и третичные. В основном, для маркетинговых целей используется группа первичных таймингов. Их можно встретить в характеристиках модулей. Их намного больше и каждый за что-то отвечает. Здесь бармен с томатным соком не поможет, но попробуем разобраться в таймингах максимально просто.

Схематика чипов

Микросхемы памяти можно представить в виде поля для игры в морской бой или так:

В самом упрощенном виде иерархия чипа это: Rank — Bank — Row — Column. В ранках (рангах) хранятся банки. Банки состоят из строк (row) и столбцов (column). Чтобы найти информацию, контроллеру необходимо иметь координаты точки на пересечении строк и столбцов. По запросу, он активирует нужные строки и находит информацию. Скорость такой работы зависит от таймингов.

Первичные

CAS Latency (tCL) — главный тайминг в работе памяти. Указывает время между командой на чтение/запись информации и началом ее выполнения.

RAS to CAS Delay (tRCD) — время активации строки.

Row Precharge Time (tRP) — прежде чем перейти к следующей строке в этом же банке, предыдущую необходимо зарядить и закрыть. Тайминг обозначает время, за которое контроллер должен это сделать.

Row Active Time (tRAS) — минимальное время, которое дается контроллеру для работы со строкой (время, в течение которого она может быть открыта для чтения или записи), после чего она закроется.

Command Rate (CR) — время до активации новой строки.

Вторичные

Второстепенные тайминги не так сильно влияют на производительность, за исключением пары штук. Однако, их неправильная настройка может влиять на стабильность памяти.

Write Recovery (tWR) — время, необходимое для окончания записи данных и подачи команды на перезарядку строки.

Refresh Cycle (tRFC) — период времени, когда банки памяти активно перезаряжаются после работы. Чем ниже тайминг, тем быстрее память перезарядится.

Row Activation to Row Activation delay (tRRD) — время между активацией разных строк банков в пределах одного чипа памяти.

Write to Read delay (tWTR) — минимальное время для перехода от чтения к записи.

Read to Precharge (tRTP) — минимальное время между чтением данных и перезарядкой.

Four bank Activation Window (tFAW) — минимальное время между первой и пятой командой на активацию строки, выполненных подряд.

Write Latency (tCWL) — время между командой на запись и самой записью.

Refresh Interval (tREFI) — чтобы банки памяти работали без ошибок, их необходимо перезаряжать после каждого обращения. Но, можно заставить их работать дольше без отдыха, а перезарядку отложить на потом. Этот тайминг определяет количество времени, которое банки памяти могут работать без перезарядки. За ним следует tRFC — время, которое необходимо памяти, чтобы зарядиться.

Третичные

Эти тайминги отвечают за пропускную способность памяти в МБ/с, как это делает частота в герцах.

Отвечают за скорость чтения:

  • tRDRD_sg

  • tRDRD_dg

  • tRDRD_dr — используется на модулях с двусторонней компоновкой чипов

  • tRDRD_dd — для систем, где все 4 разъема заняты модулями ОЗУ

Отвечают за скорость копирования в памяти (tWTR):

  • tRDWR_sg

  • tRDWR_dg

  • tRDWR_dr — используется на модулях с двусторонней компоновкой чипов

  • tRDWR_dd — для систем, где все 4 разъема заняты модулями ОЗУ

Влияют на скорость чтения после записи (tRTP):

  • tWRRD_sg

  • tWRRD_dg

  • tWRRD_dr — используется на модулях с двусторонней компоновкой чипов

  • tWRRD_dd — для систем, где все 4 разъема заняты модулями ОЗУ

А эти влияют на скорость записи:

  • tWRWR_sg

  • tWRWR_dg

  • tWRWR_dr — используется на модулях с двусторонней компоновкой чипов

  • tWRWR_dd — для систем, где все 4 разъема заняты модулями ОЗУ

Скорость памяти во времени

Итак, мы разобрались, что задача хорошей подсистемы памяти не только в хранении и копировании данных, но и в быстрой доставке этих данных процессору (пользователю). Будь у компьютера хоть тысяча гигабайт оперативной памяти, но с очень высокими таймингами и низкой частотой работы, по скорости получится уровень неплохого SSD-накопителя. Но это в теории. На самом деле, любая доступная память на рынке как минимум соответствует требованиям JEDEC. А это организация, которая знает, как должна работать память, и делает это стандартом для всех. Аналогично ГОСТу для колбасы или сгущенки.

Стандарты JEDEC демократичны и современные игровые системы редко работают на таких низких настройках. Производители оставляют запас прочности для чипов памяти, чтобы компании, которые выпускают готовые планки оперативной памяти могли немного «раздушить» железо с помощью разгона. Так, появились заводские профили разгона XMP для Intel и DOHCP для AMD. Это «официальный» разгон, который даже покрывается гарантией производителя.

Профили разгона включают в себя информацию о максимальной частоте и минимальных для нее таймингах. Так, в характеристиках часто пишут именно возможности работы памяти в XMP режимах. Например, частоте 3600 МГц и CL16. Чаще всего указывают самый первый тайминг как главный.

Чем выше частота и ниже тайминги, тем круче память и выше производительность всей системы.

Ранги памяти

Модули ОЗУ имеют на борту несколько микросхем памяти. Внешняя ширина шины модуля определенного вида ОЗУ — величина постоянная, но внутреннее устройство зависит от поколения памяти и рангов.

Чипы памяти на обычном одноранговом модуле образуют один блок данных. Доступ к нему осуществляется по каналу определенной ширины. Если у модуля два ранга, то доступ к чипам памяти осуществляется через два таких канала. При четырех рангах — через четыре, при восьми рангах — через восемь. В модулях памяти для обычных компьютеров встречается одно- или двухранговая организация. Количество рангов более двух характерно для серверной ОЗУ.

Внешняя ширина шины модуля во всех случаях остается равной ширине канала доступа к одному рангу. Поэтому центральный процессор системы может обращаться только к одному рангу единовременно. Но пока один ранг модуля передает данные, другие могут подготавливать данные для следующей передачи. Поэтому многоранговая память при прочих равных быстрее, хоть и ненамного.

Ширина внешней шины модуля и одного ранга зависит от поколения и типа оперативной памяти.

  • Обычная ОЗУ DDR4 (и более старых поколений DDR) имеет ширину в 64 бита. Все биты используются для передачи данных.

  • Серверная ОЗУ DDR4 (и более старых поколений DDR) имеет ширину в 72 бита. 64 бита используются для передачи данных, 8 бит — для коррекции ошибок.

  • ОЗУ DDR5 имеет ширину в 80 бит, поделенных на два канала по 40 бит. В каждом канале 32 бита используются для передачи данных, а 8 бит — для коррекции ошибок.

В виду ограничения фотоматериалов

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 20
Технологии Компьютерное железо IT Компьютер Производство Оперативная память Чип Инженер Изобретения История развития Электроника Микроконтроллеры Транзистор Длиннопост
14
15
TechSavvyZone
TechSavvyZone

Технологии: Транзисторы "Planar, FinFET и GAAFET" история развития. Часть Вторая⁠⁠

9 месяцев назад

Нано FET

Новая архитектура транзисторов должна обеспечить дальнейший рост производительности интегральных схем и возможность перейти на более тонкие техпроцессы — вплоть до 1–2 нм.

В 2020 году компания TSMC объявила об активной разработке транзисторов нового поколения — GAAFET (Gate-All-Around Field-Effect Transistor). Поскольку «плавники» уже были неэффективны, инженеры решили порезать их на части. Так получились каналы, окруженные затвором со всех четырех сторон. Интересно, что впервые GAA-транзистор представили в 1988 году, однако до массового производства дело дойдет только в ближайшие годы.

Кольцевые затворы позволили реализовать каналы, сформированные из нескольких горизонтальных кремниевых «нанотрубок». Благодаря этому возможно преодолеть порог в 3 нм, а также существенно повысить эффективность управления транзисторами. С повышением плотности размещения удастся добиться прироста производительности и энергоэффективности.

Аналогично в 2020 году компания Samsung заявила о работе над GAAFET-транзисторами и взятии барьера в 3 нм на прототипах. Помимо этого фирма представила собственную вариацию — MBCFET. Разница в том, что используются не нанотрубки, а нанолисты. Последние предлагают лучший контроль токов, поскольку нанотрубки слишком тонкие.

У Intel эта разновидность получила название RibbonFET. Инженеры заявили, что предложат несколько вариаций с числом нанолистов от 2 до 5.

Samsung запустила в производство MBCFET (3GAE) в середине 2022 года и заявила о готовности поставок. Предполагалось, что Snapdragon 8 Gen 2 должен стать первым процессором с применением MBCFET 3нм. Однако в Qualcomm отдали предпочтение компании TSMC, выбрав 4 nm FinFET. В планах также выпуск процессора Exynos 2300 с использованием техпроцесса 3 нм и MBCFET транзисторов. Однако новостей от Samsung пока не последовало.

Таким образом, пока не выпущено ни одного массового продукта на базе GAAFET транзисторов. TSMC и Intel все еще масштабируют FinFET, но уже готовятся запускать производство новой технологии. К проблеме внедрения Gate-All-Around относится и большая стоимость создания из-за специфической структуры. Разработчики SoC пока не спешат отказываться от FinFET, с учетом того, что те предлагают вполне конкурирующую производительность и техпроцесс до 4 нм.

А что дальше?

Открыв для себя 3D-структуры, разработчики начали экспериментировать и предлагать куда более сложные архитектуры.

Например, Intel рассказал о комплементарном полевом транзисторе (CFET), предназначенном для 2,5 нм. В CFET идея состоит в том, чтобы наложить nFET и pFET структуры друг на друга. Такое «складывание» уменьшает площадь активной области ячейки и обеспечивает еще большую плотность.

Другая альтернатива — Forksheet FET, нацеленная на 2 нм. В этом исполнении структуры располагаются рядом и разделены диэлектрической стенкой. Преимущества все те же — возможность добиться куда большей плотности размещения транзисторов. Однако насколько эффективны предложенные архитектуры, предстоит только проверить.

Также IBM и Samsung работали над VTFET (Vertical Transport Field Effect Transistors). Это еще более сложная структура с вертикальным расположением транзисторов. Предполагается двойной прирост производительности или на 85 % меньшее потребление энергии, в сравнении с FinFET.

Конструкция CFET-транзистора предполагает расположение рядом друг с другом полупроводниковых элементов n-типа (pFET) и p-типа (pFET). В настоящий момент рассматривается два варианта CFET-транзисторов — монолитные (monolithic) и последовательные (sequential). Второй вариант отличается более высокой и широкой конструкцией. В правой части изображения ниже представлены четыре варианта конструкции CFET-транзисторов. Какой из них в конечном итоге выберет Intel — неизвестно. И узнаем мы это нескоро, поскольку Imec считает, что CFET-транзисторы появятся на рынке не ранее момента, когда техпроцесс производства чипов не сократится до уровня 5 ангстрем, что в свою очередь ожидается не ранее 2032 года.

Конечно, никто не исключает, что Intel не будет следовать этим временным рамкам и придёт к выпуску новых транзисторов гораздо раньше. Примечательно, что на продемонстрированном компанией изображении переход к CFET-транзисторам идёт после нанолистовых GAA-транзисторов RibbonFET, минуя разветвлённые GAA-транзисторы (forksheet GAAFET), которые рассматриваются отраслью в качестве переходного звена от нанолистов к CFET.

Однако не факт, что дойдет до практической реализации. Масштабирование ИС становится непомерно дорогим, поэтому производители все чаще прибегают к другим решениям. Например, все большую популярность набирают технологии компоновки чипов. Вместо того чтобы помещать все функции на один кристалл, предполагается разбивать устройства на более мелкие кристаллы и интегрировать их в корпус.

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 8
Технологии Компьютер IT Производство Процессор Транзистор Электроника История развития Инженер Изобретения Микроконтроллеры Чип Инновации Компьютерное железо Длиннопост
2
62
TechSavvyZone
TechSavvyZone

Технологии: Транзисторы "Planar, FinFET и GAAFET" история развития⁠⁠

9 месяцев назад

Насколько производительными будут будущие процессоры и видеокарты? Во многом это зависит от ключевого элемента всех сложных вычислительных блоков — транзистора. Уменьшение размеров транзистора лишь одна из тенденций, изменяется и структура. История развития и современность. Что такое Planar, FinFET и GAAFET-транзисторы?

Немного истории

Днем рождения транзистора считается 23 декабря 1947 года. Тогда Уолтер Браттейн и Джон Бардин продемонстрировали первый в мире транзистор с точечным контактом. Оба физика были членами исследовательской группы Bell Labs, искавшей новое средство усиления электрических сигналов.

В первой половине XX века для решения этой задачи инженеры-электрики полагались на вакуумные лампы, но устройства были громоздкими, хрупкими и потребляли много энергии. Руководитель Бардина и Браттейна — Уильям Шокли — предположил, что можно разработать более совершенный усилитель, используя ранее не изученные электрические свойства полупроводников.

Прошлое: вакуумные лампы и транзисторы Лилиэнфельда

Напомним, что транзистор в электронном устройстве играет роль своего рода переключателя и усилителя. Простыми словами, его основная задача — контролировать поток электрического тока и управлять им. По сути он работает как кран, контролирующий поток воды.

До появления транзисторов в электронных устройствах в качестве таких «кранов» использовались вакуумные лампы и механические реле. Они имели существенные недостатки с точки зрения размеров, энергопотребления и надежности.

Самыми распространенными типами вакуумных ламп в те времена были триоды, тетроды и пентоды.

Предок вакуумных ламп — диод — был изобретен в 1904 году Джоном Амброузом Флемингом. Затем в 1906 году доктор Ли де Форест изобрел «аудион», название которого было составлено из слов «audio» и «ion». Он обнаружил, что сетка из тонкой проволоки, помещенная между нитью накала и металлической пластиной в вакуумной лампе, может управлять потоком электронов, идущих между нитью накала и пластиной.

слева диод Флеминга, справа аудион де Фореста

слева диод Флеминга, справа аудион де Фореста

Название «аудион» намекало на то, что устройство обнаруживало радиосигналы, служило выпрямителем (устройством, преобразующим переменный ток в постоянный) и было первым исключительно электронным компонентом, позволяющим усиливать электромагнитные сигналы. Именно способность усиливать сигналы отличала изобретение де Фореста от диода Флеминга.

Созданная в 1911 году и официально ставшая дочерней компанией AT&T в 1925 году, Bell Labs добилась первого крупного успеха в 1912 году, усовершенствовав вакуумные лампы, первоначально изобретенные Ли де Форестом в 1906 году.

Тетроды и пентоды, разработанные позднее, содержали дополнительные элементы для устранения недостатков триодов (аудионов). Тетроды имели четыре электрода, а пентоды — пять, что повышало их эффективность в различных приложениях.

Вакуумные лампы использовались в первых телефонных усилителях и позволили провести первую телефонную линию между Нью-Йорком и Сан-Франциско. В 1915 году в Арлингтоне, штат Вирджиния, инженеры-телефонисты соединили 500 вакуумных ламп, чтобы сгенерировать достаточную мощность для передачи человеческого голоса через Атлантику.

Лампы использовались для создания телевизоров, радаров, радио и рентгеновских аппаратов.

В самолете Б-29 вакуумные лампы отвечали за полет самолета, его курс и использовались в компьютерной системе наведения. От ламп зависело все электрооборудование, они выступали в качестве выключателей и усилителей для обогревателей, инструментов, радиоаппаратуры и двигателей.

При этом вакуумные лампы были непрочными, потребляли энергию, выделяли тепло и быстро перегорали, требуя серьезного обслуживания. Все это могло привести к поломке того устройства, где они использовались. Также для разогрева вакуумных ламп требовалось много времени, что было критично, если лампы служили, например, усилителями в судовом оборудовании для предупреждения торпедного удара. Неудивительно, что активно велись поиски более надежной и быстродействующей альтернативы вакуумным лампам.

Заменой вакуумной лампе могло стать нечто твердое и прочное.

Несмотря на то, что авторство транзистров закреплено за Бардином, Браттейном и Шокли из Bell Telephone Laboratories, идея впервые была высказана еще в 1920-х годах физиком австро-венгерского происхождения Юлиусом Эдгаром Лилиенфельдом.

Хотя Лилиенфельд и запатентовал эту концепцию, практическая реализация при его жизни не состоялась. Его изобретение, известное как транзистор Лилиенфельда, использовало принцип полевого эффекта для управления протеканием тока между двумя электродами. Однако из-за технологических ограничений того времени транзисторы Лилиенфельда так и не были созданы в виде функциональных устройств — до производства высококачественных полупроводниковых материалов оставалось еще несколько десятилетий.

В первых патентных заявках от 1925 и 1926 годов Лилиенфельд заявлял, что его твердотельный усилитель «относится к методу и устройству для управления протеканием электрического тока между двумя клеммами электропроводящего твердого тела путем установления третьего потенциала между этими клеммами».

В новой заявке 1928 года он уже более четко сформулировал свои цели: «создание простого, компактного и надежного устройства, которое при этом должно быть недорогим в изготовлении». Лилиенфельд утверждал, что его новое устройство «[может] работать в условиях гораздо более низкого напряжения, чем раньше».

Но как было сказано, технологии его эпохи еще не были готовы реализовать весь потенциал новаторских идей, и патенты прошли незамеченными. Однако идеи Лилиенфельда воплотили в себе принципы работы современного полевого транзистора (FET).

Уже потом, в 1988 году, Джон Бардин, выступая в Американском институте физики, признает заслугу Лилиенфельда в его работах по созданию полупроводникового усилителя. По словам самого Бардина, «у Лилиенфельда была базовая концепция управления током в полупроводнике для создания усилительного устройства. Потребовалось много лет, чтобы воплотить его мечту в реальность».

Попытки создать твердотельный усилитель предпринимались и в СССР. В 1922 году Олег Лосев приблизился к изобретению транзистора — он разработал первый двухтерминальный полупроводниковый прибор. Однако дальнейших исследований это изобретение не повлекло — устройство было нестабильно, а сама физика явления не до конца понятна.

Исследования в Bell Labs

За несколько лет до Второй мировой войны в Bell Labs начали проводить исследования полупроводников. Ученые изучали поведение кристаллов германия в попытках найти замену вакуумным лампам.

Исходя из этого, директор по исследованиям Мервин Келли определил приоритетное направление для исследований: изучение потенциала полупроводников. При этом физика полупроводников в то время была зарождающейся областью. Несмотря на то, что полупроводники уже использовались в некоторых электронных устройствах — радио и радарах — их было трудно производить, а теоретические знания об их внутреннем функционировании были ограничены. Квантовая физика же позволяла понять поведение полупроводников, но на очень ограниченном типе — оксиде меди.

В 1936 году Келли решил нанять докторов физики, в частности будущего нобелевского лауреата Уильяма Шокли. В Bell Labs был организован семинар, на котором рассказывалось о квантовой физике. Среди ученых был и Уолтер Браттейн.

Группа исследователей провела первую серию экспериментов, в которых пыталась воссоздать структуру вакуумных ламп в полупроводнике. Первая попытка с оксидом меди в 1939 году оказалась неудачной.

При этом в 1939 году было сделано одно из самых важных открытий — что типом проводимости полупроводника можно управлять с помощью легирования, то есть добавления небольшого количества примесей. Именно тогда полупроводники из разряда «грязи и бардака», как назвал их Паули в 1931 году, перешли в разряд божественных электронных материалов.

Тем временем началась Вторая мировая война, и исследования были отложены до лучших времен. Однако Bell Labs оказалась вовлечена в проект, который окажет огромное влияние на область полупроводников: RADAR. Для радаров было нецелесообразно использовать вакуумные лампы из-за их размера и хрупкости, поэтому их заменяли на полупроводники — германиевые и кремниевые. Для этого в Bell Labs были разработаны новые полупроводниковые диоды для выпрямления входящих коротковолновых сигналов радара.

После войны исследования в области физики твердого тела продолжились. В апреле 1945 года вернувшиеся с военной службы Шокли и Браттейн снова экспериментируют с новой конструкцией, основанной на так называемом «эффекте поля». Эксперименты с треском проваливаются.

Мервин Келли тем временем решает создать междисциплинарную группу для изучения физики твердого тела, основываясь на опыте проекта RADAR. В группу под руководством Шокли вошли исследователи, теоретики, химики, электронщики и т. д. Цель была простой: разработать усилитель на полупроводниках для применения в телефонной сети AT&T. Исследования были сосредоточены на германии и кремнии, которые показали свой потенциал во время войны.

В октябре 1945 года к команде присоединился Джон Бардин, только что защитивший докторскую диссертацию по квантовой физике. Шокли попросил его проверить правильность своих расчетов, чтобы понять неудачу апрельских экспериментов с Браттейном.

Бардин подтвердил расчеты и предположил, что неудача может быть вызвана эффектом «поверхностных состояний», который «задерживает» электрон на поверхности материала.

В ноябре 1947 года Бардин и Браттейн подтверждают эффект поверхностных состояний и показывают, как преодолеть его с помощью электролита. Это, по мнению Шокли, знаменует начало «волшебного месяца», который и приведет в конечном итоге к изобретению транзистора.

Транзистор с точечным контактом Бардина и Браттейна, 1947 г.

Транзистор с точечным контактом Бардина и Браттейна, 1947 г.

В декабре после очередной серии экспериментов Бардин предлагает перейти от кремния к так называемому «германию с высоким обратным напряжением». Бардин и Браттейн продолжают свои испытания с различными конфигурациями вплоть до декабря 1947 года, когда им наконец удалось получить значительное усиление.

Так появился первый транзистор, названный «транзистором с точечным контактом».

Но разумеется, дело на этом не закончилось — устройство было лишь прототипом, далеким от рабочего транзистора. Далее работа пошла в двух направлениях.

Была создана группа «фундаментальных разработок» под руководством Джека Мортона для создания рабочего устройства на основе декабрьского эксперимента Бардина и Браттейна.

Шокли же, раздосадованный тем, что не стал одним из изобретателей нового устройства, решил продолжить исследования усиления в полупроводниках на базе другой конструкции.

В январе 1948 года он предлагает новую конструкцию: транзистор с n-p-n структурой. Это был первый действующий биполярный транзистор.

Исследуя работу транзистора с точечным контактом, Джон Шайв, член группы полупроводников, решил испытать конструкцию, в которой два контакта располагались бы не рядом друг с другом, а по обе стороны от полупроводника. К его большому удивлению, это сработало.

Это подтвердило идею Шокли о возможности создания транзистора с переходом, которую он до сих пор держал в секрете от остальных членов команды. Позже Шокли признался, что работа команды представляла собой «смесь сотрудничества и конкуренции». Он также признал, что скрывал некоторые свои наработки, пока эксперименты Шайва не вынудили его открыться.

Интересно, что когда Bell Labs подавало заявку на патент, то выяснилось, что патент 1930 года Джулиуса Лилиенфельда, о котором шла речь выше, практически полностью совпадал с оригинальной идеей Шокли. А вот транзистор Бардина и Браттейна имел другую конструкцию. По этой причине Bell Labs подали заявку именно на транзистор Бардина и Браттейна. Шокли был раздосадован, поскольку хотел, чтобы в качестве изобретателя транзистора указали только его. Все это усилило напряжение и в без того холодных отношениях Шокли с его коллегами.

Fairchild Semiconductor

В 1953 году Шокли покинул Bell Labs, поскольку чувствовал себя обделенным в вопросах продвижения по службе и признания. Он вернулся в Калифорнию, устроился в Калтех, заключил сделку с профессором Калтеха и предпринимателем в сфере высоких технологий Арнольдом Бекманом и в 1955 году основал собственную фирму — Shockley Transistor Laboratory.

Поначалу Шокли думал, что ему удастся переманить инженеров из Bell Labs, однако никто из его бывших коллег не захотел с ним работать. В итоге ему все же удалось собрать отличную команду молодых ученых и инженеров, заманив их солнечной калифорнийской погодой. Шокли пообещал новым сотрудникам, что они будут разрабатывать «Святой Грааль» — кремниевый транзистор.

Роберт Нойс, один из изобретателей интегральной схемы и будущий основатель Intel, вспоминал про Шокли: «Я думал, что разговариваю с Богом».

Транзистор с точечным контактом имел весьма ограниченное применение, в основном в военной сфере. А вот биполярный транзистор Шокли, напротив, становится основой электронной революции.

В декабре 1956 года Шокли получил Нобелевскую премию по физике за изобретение транзистора. А тем временем недовольство сотрудников его стилем руководства росло — Шокли считали авторитарным и параноидальным.

Кроме того, ключевые сотрудники считали, что компании следует заняться более насущными возможностями производства кремниевых транзисторов, а не сложным четырехслойным p-n-p-n диодом, который Шокли придумал еще в Bell Labs для применения в телефонной коммутации.

По своим каналам в Bell Labs Шокли узнал, что Western Electric, производственное подразделение Bell System, предварительно планировало использовать подобные диоды для коммутации, и это могло стать первым большим рынком для полупроводников.

8 декабря 1956 года группа сотрудников Шокли написала Бекману письмо с описанием невыносимых условий труда: «Пожалуйста, срочно помогите нам!». Письмо было подписано старшими членами технического персонала. Через два дня Бекман встретился с командой — их предложение заключалось в следующем:

  • сосредоточить разработки только на биполярном кремниевом транзисторе;

  • назначить нового руководителя;

  • Шокли должен занять должность в Стэнфорде, быть техническим консультантом компании, но больше не руководить ею.

Однако после обсуждений с Шокли Бекман решил ничего не менять — авторитет Нобелевского лауреата, возглавляющего компанию, был слишком велик.

В результате восемь ключевых сотрудников STL, ставшие затем известными как «Вероломная восьмерка», обратились к Шерману Фэйрчайлду, который руководил Fairchild Camera and Instrument. Его компания занималась исследованиями в области камер и спутников и тесно сотрудничала с военными и Министерством обороны США.

19 сентября 1957 года «Восьмерка» подписала соглашение о создании корпорации Fairchild Semiconductor (FSC) по адресу 844 South Charleston Road. Можно сказать, что в этот день родилась Кремниевая долина.

Вскоре в Fairchild Semiconductor перешли и другие сотрудники Шокли — от техников до докторов наук. В течение следующего десятилетия Fairchild превратилась в одну из самых важных и инновационных компаний в полупроводниковой промышленности, заложив технологические и культурные основы Кремниевой долины и выделив десятки новых высокотехнологичных стартапов, включая Advanced Micro Devices (AMD) и Intel.

Шокли тем временем продолжил работу над своим четырехслойным диодом, и хотя его фирма в итоге не стала прибыльной, он навсегда вошел в историю как человек, который «принес кремний в Долину».

Его компания SSL стала отличным стартом для будущих лидеров полупроводниковой промышленности — Fairchild Semiconductor.

В 1960 году Бекман продал SSL корпорации Clevite. Шокли стал профессором электротехники и прикладных наук в Стэнфордском университете.

Европа изобретает транзистор

Важно отметить, что транзистор, как и многие другие изобретения — это результат работы множества людей и продукт своей эпохи. Новаторские открытия многих поколений ученых привели в конечном счете к производству полупроводникового материала, а затем и транзистора.

В Bell Labs изобретению транзистора способствовали новые методы управления исследованиями, разработанные в рамках крупных проектов Второй мировой войны. И во многом это заслуга Мервина Келли, который создал междисциплинарную исследовательскую группы по полупроводникам под руководством Шокли.

Сам Шокли вспоминал:

«Ключевой стимул, побудивший меня задуматься о транзисторах, исходил от доктора Келли, который в то время был директором по исследованиям в BL. Эту должность он занимал до того, как стал президентом несколько лет спустя.

Доктор Келли посетил меня, чтобы подчеркнуть свою цель — внедрить электронную коммутацию в телефонную систему. Он сказал, что с нетерпением ждет, когда металлические контакты, которые использовались на телефонных станциях для установления соединений при наборе номеров, будут заменены электронными устройствами.

Его интерес к поставленным целям был очень велик. Он так ярко подчеркнул их важность, что это произвело на меня неизгладимое впечатление».

Основной теоретический вклад в квантовую механику и физику твердого тела, без которого транзистор не состоялся бы, был сделан в Европе. Кроме того, в начале Второй мировой войны британская секретная радарная программа была более продвинутой, чем американская, пока обе страны не начали сотрудничать. Но важной причиной изобретения транзистора именно в США в 1947 году было то, что Европа была разрушена войной.

При этом в Европе тоже заявляли на авторство транзистора.

В 1948 два физика из немецкой радарной программы, Герберт Матаре и Генрих Велькер, утверждали, что, работая в лаборатории французской компании F&S Westinghouse, расположенной в окрестностях Парижа, изобрели поразительно похожее полупроводниковое устройство, которое назвали транзистроном.

Поскольку французские инженеры не обладали знаниями в области физики твердого тела и радарных технологий, компания наняла двух немецких ученых, известных своим опытом работы в военное время.

Матаре и Велькер проводили эксперименты около трех лет. В 1946 году Westinghouse подписала контракт с Министерством почт, телеграфов и телефонов. Правительство намеревалось модернизировать свою телекоммуникационную систему и хотело получить национальные поставки полупроводниковых ретрансляторов, которые могли бы заменить вакуумные ламповые реле в телефонии. Военные нуждались в полупроводниковых диодах для использования в качестве выпрямителей в радарах.

В 1947 году Матаре начал исследовать странное явление под названием «интерференция», которое во время войны наблюдал в германиевых выпрямителях. Если два точечных контакта находились на достаточно близком расстоянии, в пределах 100 микрометров друг от друга, потенциал на одном из них мог влиять на ток, протекающий через другой. Похожую ситуацию наблюдали Бардин и Браттейн.

В 1948 году в результате дальнейших экспериментов Матаре добился спорадического усиления электрических сигналов. К июню этого года вместе с Велькером он получил устойчивые, воспроизводимые результаты, используя более чистые образцы германия. Но месяц спустя исследователи узнали удивительную новость — Bell Labs только что изобрела аналогичный полупроводниковый усилитель. Тогда компания Westinghouse поспешила запустить в производство свое устройство под названием «транзистрон», чтобы отличать его от американского аналога.

К середине 1949 года были выпущены тысячи таких устройств. Они использовались в качестве усилителей во французской телефонной системе. Спустя время громоздкие устройства с точечным контактом были вытеснены транзистором с переходом.

Матаре вернулся в Германию и в 1952 году стал одним из основателей компании Intermetall по производству диодов и транзисторов. Велькер перешел на работу в Siemens, став в итоге директором по исследованиям.

Матаре вспоминал, что в 1950 году его парижскую лабораторию посетил Уильям Шокли и увидел использование транзистрона. Был сделан телефонный звонок, в ходе которого транзисторные ретрансляторы по сети передали голосовой сигнал в Алжир.

«Я не хочу ничего отнимать у Bell Labs. Я был поражен их работой. Нобелевские лауреаты из Bell Labs — Джон Бардин, Уолтер Браттейн и Уильям Шокли — они были великолепны!» — признавал Матаре.

Эволюция производства и уменьшение размера

А что было дальше?

Первые транзисторы были длиной в сантиметр, а уже к концу 1950-х годов их размеры измерялись миллиметрами.

Изобретение интегральной схемы в 1958 году позволило уменьшить размер транзисторов до субмикронного уровня: менее миллионной доли метра.

Соучредитель компании Fairchild Роберт Нойс придумал использовать металлический алюминий, нанесенный поверх слоя Эрни, для избирательного соединения транзисторов, резисторов и других компонентов на кремниевой подложке — так была создана интегральная электронная схема (ИС). В марте 1961 года Fairchild представила свою первую ИС, или микрочип, — цифровую логическую функцию, состоящую всего из четырех транзисторов и пяти резисторов.

Компания также изобрела ряд дополнительных транзисторов, в том числе MOSFET или MOS-транзистор.

В середине 1950-х годов последовало несколько знаковых открытий и продуктов:

  • 26 января 1954 года Bell Labs разработала первый рабочий кремниевый транзистор.

  • В конце 1954 года компания Texas Instruments создала первый коммерческий кремниевый транзистор.

  • В октябре 1954 года был выпущен первый транзисторный радиоприемник Regency TR-1.

  • В 1957 году был выпущен первый массовый транзисторный радиоприемник Sony TR-63. Он разошелся тиражом семь миллионов экземпляров, что привело к массовому распространению транзисторных радиоприемников на рынке в конце 1950-х и начале 1960-х годов.

К 1960-м годам транзисторная технология стала доминирующей технологической силой. Устаревшие вакуумные лампы были вытеснены.

В 1965 году Гордон Мур предсказал, что количество транзисторов в микрочипах будет удваиваться каждые два года. Закон Мура определяет линейную зависимость плотности транзисторов от времени. В 1970 году в микросхемах было около 2000 транзисторов. С 1971 года плотность транзисторов в логических схемах увеличилась более чем в 600 000 раз.

Венцом всех этих усилий стала возможность интегрировать миллионы и даже миллиарды транзисторов в одну из самых сложных систем на планете: процессоры.

Например, в процессорах современных смартфонов используется в среднем 10 миллиардов транзисторов — число, которое было бы немыслимо для Бардина, Браттейна и Шокли.

Интегральные схемы, разработанные в 1960-х годах, использовали традиционную планарную структуру для создания базовых цифровых схем

Интегральные схемы, разработанные в 1960-х годах, использовали традиционную планарную структуру для создания базовых цифровых схем

Однако в последующие десятилетия промышленность начала переходить на новую архитектуру: в 2011 году появились транзисторы FinFET (fin field effect), а с 2017 года началась разработка GAA (gate-all-around).

GAA — очень важная технология, поскольку позволяет транзисторам проводить больший ток при сохранении относительно небольшого размера: так, производительность повысится на 25%, а энергопотребление снизится на 50%. В случае с finFET оба показателя находятся в диапазоне от 15 до 20%.

Стремление уменьшить транзисторы связано с одним простым правилом — чем их больше, тем выше производительность микросхемы. В современных процессорах насчитывается больше 10 миллиардов транзисторов и это число постепенно увеличивается.

Planar FET

Планарный транзистор долгое время был основой — приблизительно до 2012 года. Структура достаточно простая — вокруг истока и стока находится область n-проводимости, сформированная внесением в кремний соответствующих примесей. Подложка изначально имеет p-проводимость. Затвор — это управляющий элемент. Подавая на него определенный потенциал, вы можете контролировать ток, протекающий от истока к стоку.

Представьте себе водопроводную трубу. Затвор — это своеобразный вентиль, которым вы можете регулировать ширину канала. По мере совершенствования оборудования транзисторы Planar FET уменьшались в размерах без каких-либо проблем. Однако дойдя до 22 нм, инженеры столкнулась с несколькими сложностями.

Уменьшение длины затвора приводило к тому, что канал становился слишком тонким. Как итог — самопроизвольное туннелирование электронов от истока к стоку. Проще говоря, даже при закрытом кране у вас все равно была утечка. Дополнительно из-за уменьшения площади затвора падала и эффективность управления каналом. Транзистор переставал быть контролируемым.

Фактически, известный закон Мура должен был умереть — уменьшать размеры дальше было просто невозможно. Обойти это ограничение сумели изменением архитектуры самого транзистора.

FinFET

Решение нашлось в переходе от 2D к 3D структуре. Проблемой планарных транзисторов был затвор, который неэффективно нависал над каналом. Инженеры решили вытянуть канал в своеобразный плавник («fin») и получить полноценную 3D структуру. Это позволило перейти на техпроцесс 22 нм и меньше. Компания Intel была первой, кто использовал технологию FinFET в 2012 на процессорах Ivy Bridge.

Что же дали на практике такие плавники? Во-первых, затвор теперь обтекает канал с трех сторон. После подачи напряжения на затвор, электроны вытягиваются из глубины к вершинам гребней, где и формируется канал. Вся активная зона располагается в верхушке плавников, поэтому утечка токов подложки минимальна.

Во-вторых, существенно повысилась эффективность управления, поскольку затвор «обволакивает» канал с трех сторон, а не с одной как это было у планарной технологии. Производители часто используют конструкции с 2–3 гребнями, что позволяет увеличить ток транзистора. Разрешение фотолитографического оборудования влияет непосредственно на шаг между гребнями.

Технология FinFET является преобладающей, первыми ее освоили три крупнейших игрока на рынке — Intel, Samsung и тайваньская TSMC. Позже — и китайская компания SMIC. Почти вся высокопроизводительная электроника использует процессоры с транзисторами FinFET.

Однако и это решение постепенно исчерпывает свой ресурс. Проблема в том, что с уменьшением затвора располагать плавники все ближе друг к другу становится проблематичным. Дополнительно приходится каждый раз все больше вытягивать гребни в высоту. Пока это удавалось делать, но технология уже исчерпывает себя на техпроцессах в 5–3 нм.

Именно поэтому ведущие игроки вроде TSMC и Samsung не только ведут исследования по масштабированию FinFET, но и работают над новой перспективной архитектурой.

В виду ограничения фотоматериалов

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 22
Компьютерное железо Технологии Компьютер IT Процессор Транзистор Электроника Ученые Изобретения Инженер История развития Производство Микроконтроллеры Чип Длиннопост
4
7
TechSavvyZone
TechSavvyZone

Сердце ПК: Кремниевый двигатель "Эльбрус" процессоры-кентавры России⁠⁠

10 месяцев назад

Многие знают, что в России производятся процессоры «Эльбрус» и, исходя из мнений «диванных экспертов» делают ошибочные выводы о полной их непригодности. А между тем у «Эльбрусов» есть важнейшие критерии, по которым они превосходят процессоры AMD и Intel. В России есть компания МЦСТ (Московский Центр Спарк Технологий), которая занимается разработкой отечественных процессоров «Эльбрус». Их архитектура и система команд является полностью отечественной разработкой.

Многие в кавычках технические эксперты, с просторов интернета преподносят нам информацию о полной никчемности и бесполезности этих процессоров. Подходят к этому вопросу однобоко, оценивают только их производительность, и совершенно не рассматривают другие важные критерии. Ссылаясь на проведенные сравнительные тесты с устаревшими процессорами, например с одним из таких как Intel Core i7 2600, в которых «Эльбрусы» в несколько раз уступают ему по производительности, ставят крест на «Эльбрусах».

При этом абсолютно не задумываясь, что у них совершенно другое назначение, и разрабатывались они не для игры в World of Tanks. Или аргументируют свои выводы тем, что даже Сбербанк отказался от использования серверов на базе «Эльбрусов» по причине их недостаточной производительности.

И да, бесспорно, производительность у «Эльбрусов» крайне низкая, даже по сравнению с устаревшим Intel Core i7 2600. Так в чем же «Эльбрусы», учитывая, что они направлены на государственный и оборонный сектор, могут превосходить подобных монстров, как AMD и Intel?

Чтобы ответить на этот вопрос, нужно вспомнить, какое главное требование предъявляется к вычислительным системам, которые обслуживают государственный и оборонный сектор. Этим требованием будет информационная безопасность.

Дыры в безопасности процессоров AMD и Intel

А какая может быть информационная безопасность у вычислительных систем на процессорах AMD и Intel? Правильно, никакая. Если на этапе их проектирования и производства, компании могут беспрепятственно вносить в них аппаратные закладки любого назначения. А после распространения этих процессоров по всему миру, скрытно собирать необходимые данные. Закладка – это скрытно встроенный в процессор аппаратный инструмент, при помощи которого заинтересованные лица могут получить доступ к конфиденциальным данным или к дистанционному управлению компьютером.

Кроме того у процессоров AMD и Intel имеется еще и большое количество аппаратных уязвимостей внесенных непреднамеренно, они в этом плане дырявые как решето.

Компания AMD и Intel признают наличие в своих процессорах непреднамеренных уязвимостей, и постоянно публикуют об этом отчеты. А ведь это серверный сегмент, где безопасность информации святая святых. А насколько безопасно их можно использовать в оборонной сфере? А ведь это безопасность нашего государства.

Преимущества процессоров Эльбрус

В процессорах «Эльбрус», несмотря на то, что они производятся на производственных мощностях другого государства, Тайваньской компанией TSMC, вероятность внедрения «закладок» стремится к нулю. Поскольку компании TSMC не предоставляется вся документация на процессор, предоставляется только на фотошаблон. А определить по фотошаблону и по документации на него, как взаимодействуют миллиарды транзисторов между собой невозможно. А без понимания этого, не удастся разработать и внедрить в процессор какую-либо закладку. Кроме того в «Эльбрусах» используется технология «безопасных вычислений» позволяющая выявлять ошибки в ПО, которые могут использоваться как уязвимости. Аппаратная защита процессора обнаруживает подобные ошибки и блокирует возможность их исполнения. Так же высокую информационную безопасность обеспечивает и используемая для работы с «Эльбрусами» защищенная отечественная операционная система «Альт 8СП» и архитектура процессоров E2K, корни которой идут еще из СССР.

Основным отличием архитектуры E2K от других, является то, что распараллеливание потоков в ней осуществляется программным компилятором, который делает это значительно эффективнее, чем аппаратные компиляторы других архитектур. Поддерживает эта архитектура и ОС Windows, правда только в режиме эмуляции, преобразовывая коды «на лету» и теряя при этом до 30% производительности.

Таким образом, вычислительные системы, построенные на процессорах «Эльбрус» имеют все законные основания стать самыми надежными системами по обеспечению безопасности информации. И решение о выборе систем на «Эльбрусах» или на AMD и Intel, должно зависеть от того, какие критерии у пользователя в приоритете, общая производительность или информационная безопасность.

Многие скажут, что и в технологическом плане они значительно уступают другим процессорам.

Да, в некотором роде это так, техпроцесс, по которому будет производиться перспективный процессор «Эльбрус-16С» составит только 16 нм, а техпроцесс предыдущей версии «Эльбрус-8С» составляет 28 нм, что как в первом, так и во втором случае далеко до 7 нм процессоров AMD Ryzen. Но и этот недостаток, при некоторых обстоятельствах, например как при работе процессора в условиях ионизирующего излучения, вполне свойственного для оборонной сферы, оказывается преимуществом. Дело в том, что чем меньше физические размеры транзисторов процессора, тем меньше в них атомов вещества, и тем быстрее происходит разрушение их атомарной решетки под воздействием радиации. И напротив, более крупные транзисторы будут разрушаться медленнее, и работа процессора в целом под воздействием радиации будет более длительной.

Выводы

Таким образом, результатом всего вышесказанного является вывод, что процессоры «Эльбрус» предназначены для потребителя, у которого главным приоритетом является безопасность информации. К этой категории потребителей в первую очередь можно отнести государственный и оборонный сектор. И не корректно сравнивать «Эльбрусы» с процессорами AMD, Intel и другими. Это равносильно сравнению скоростей экскаватора и легковой машины, движущихся по дороге, и то и другое движется, но решаемые задачи абсолютно разные.

Показать полностью 4
Технологии Компьютерное железо IT Компьютер Процессор Российское производство Инженер Импортозамещение История развития Промышленность Производство Микроконтроллеры Электроника Изобретения Длиннопост
47
476
TechSavvyZone
TechSavvyZone
Сделано у нас

Сердце ПК: Кремниевый двигатель "Комдив" процессоры-кентавры России⁠⁠

10 месяцев назад

Про российские процессоры «Эльбрус» знают почти все, про «Байкал» знают многие, а про процессоры «КОМДИВ» знает мало кто. А между тем процессоры «КОМДИВ» уже давно используется в космической отрасли и оборонной сфере. Где они успешно заменяют процессоры AMD, Intel и другие зарубежные аналоги.

Линейка российских процессоров «КОМДИВ» - это семейство 32 и 64-разрядных процессоров, разработанных в НИИСИ (научно-исследовательском институте системных исследований) Российской Академии наук. Они используют набор команд MIPS и собственную MIPS-совместимую оригинальную архитектуру «Комдив». Имеют встроенные системный и периферийный контроллеры, кэш-память и другие необходимые функциональные узлы. И способны за один такт выполнять одновременно несколько инструкций, то есть являются суперскалярными.

Производство 32-разрядных процессоров «КОМДИВ-32» берет свое начало еще с 1999 года. Первые процессоры производились по 500 нм техпроцессу и работали на частотах 33-50 МГц, а начиная с 2016 года, перешли на 250 нм с тактовой частотой до 125 МГц.

С 2005 года началось производство 64-разрядных процессоров «КОМДИВ-64, первые из них производились по техпроцессу 350 нм и работали на частоте 120 МГц. А начиная с 2016 года, перешли на 65 нм и увеличили частоту до 1 ГГц. Максимальное количество их ядер соответствует двум.

В 2019 году был выпущен уже 28 нм двух ядерный процессор под обозначением (1890ВМ118) работающий на частоте 1,3 ГГц и имеющий на своем «борту» встроенное 3D-видеоядро.

Процессоры «КОМДИВ» с технормами ниже 250 нм производятся, как и в случае с процессорами «Эльбрус» на производственных мощностях Тайваньской компании TSMC.

Данные процессоры являются узкоспециализированными, и в первую очередь предназначены для использования в космической отрасли и оборонной сфере. А также они решают важнейшую задачу по замещению зарубежных процессоров в этих стратегически важных сферах, требующих надежной, гарантированной безопасности информации. Естественно, что использование зарубежных процессоров создает серьезную предпосылку к утечке важной государственной информации. Поэтому замещение их на отечественные процессоры является важной государственной задачей.

Одним из основных преимуществ процессоров «КОМДИВ» является способность работать в очень широком диапазоне температур, от -60 до +125 °С. Чем не может похвастаться ни один зарубежный аналог, а уж тем более таких рабочих температур не могут предложить ни процессоры AMD, ни Intel. Такой широкий диапазон температур позволяет строить на процессорах «КОМДИВ» защищенные вычислительные системы для эксплуатации в экстремальных условиях, например, в арктическом климате. Примером такой вычислительной системы является система «Восход», в которой используется модель процессора (1809ВМ8Я).

Вычислительная система "ВОСХОД" 

Вычислительная система "ВОСХОД" 

Отличительной особенностью вычислительной системы «Восход», да и вообще архитектуры процессоров «КОМДИВ» является способность объединять их в кластеры с общим числом ядер более тысячи. Это позволяет создавать сверхмощные системы для решения ресурсоёмких задач.

Процессоры «КОМДИВ» имеют довольно короткую длину конвейера, которая составляет 7 стадий, такой короткий конвейер обеспечивает высокое быстродействие процессоров. Дело в том, что во многих современных процессорах длина конвейера достигает 14 стадий. При прерываниях конвейер «разрушается», быстродействие процессоров при этом падает, и чем длиннее конвейер, тем сильнее падает быстродействие. Поэтому в процессорах «КОМДИВ» применяется минимально возможная длина конвейера.

Многие модели процессоров «КОМДИВ» имеют радиационную стойкость, то есть имеют высокую устойчивость к повреждениям и сбоям в работе под воздействием высоких уровней ионизирующего излучения.

Радиационно стойкий процессор 1900ВМ2Т «КОМДИВ-32»

Радиационно стойкий процессор 1900ВМ2Т «КОМДИВ-32»

Их радиационная стойкость не меньше, чем 200 крад, чего и не снилось процессорам AMD и Intel, и другим зарубежным аналогам. Используются радстойкие модели процессоров в космической отрасли, например, в бортовых компьютерах спутников «ГЛОНАСС-М».

Модель процессора «КОМДИВ-64» (1890ВМ5Ф) применяется в БЦВМ (бортовая цифровая вычислительная машина) информационно – управляющих систем современных российских истребителей Су-34 и Су-35.

Бортовая цифровая вычислительная машина (БЦВМ) на процессоре 1809ВМ5Ф

Бортовая цифровая вычислительная машина (БЦВМ) на процессоре 1809ВМ5Ф

И это лишь только некоторые примеры. А многие говорят, что в России нет своей микроэлектроники.

Работают процессоры «КОМДИВ» под управлением специализированной операционной системы «БАГЕТ» (операционная система реального времени), разработанной все тем же НИИСИ Российской Академии наук. Отличительной ее особенностью от других операционных систем, например таких, как Windows и Linux, является способность мгновенно реагировать на внешние события, а не на действия пользователя. То есть, основная область ее применения – это автоматизированные системы, которые используются и на космических спутниках, и в современных самолетах.

А для тех, кому интересно что обозначает аббревиатура «КОМДИВ», сообщаем – это «КОМпьютер Для Интенсивных Вычислений» и ничего общего с должностью командира дивизии она не имеет.

Показать полностью 5
Компьютерное железо Технологии Компьютер IT Процессор Российское производство Микроконтроллеры Электроника Инженер Инновации Импортозамещение Промышленность Техника История развития Длиннопост
187
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии