Еще несколько лет назад в характеристиках видеокарты производители указывали скорость работы видеопамяти частотой — в МГц. Но в последние годы вместо частоты скорость указывается в Гбит/c или ГТ/с. В чем отличие этих характеристик, почему стали использоваться новые значения и как сравнить между собой эти величины?
В компьютерных системах еще с начала 90-х годов используется оперативная память типа Dynamic Random Access Memory (DRAM), которая к настоящему времени сменила несколько поколений. Физический принцип работы такого типа памяти прост: данные хранятся в ячейках, представляющих собой микроконденсаторы. Каждая ячейка хранит в себе 1 бит данных. В заряженном виде он читается как 1, в разряжённом — как 0.
В середине 90-х получает распространение память Synchronous Dynamic Random Access Memory (SDRAM). В отличие от ранних предшественников, память впервые стала синхронной, обзаведясь тактовым генератором. Данные в этом типе памяти передаются один раз за такт. То есть, частота генератора равна результирующей частоте работы самой памяти.
Как формируется частота памяти DDR
В начале 21 века на рынок был выведен новый тип памяти — Double Data Rate SDRAM (DDR). Как следует из названия, DDR представляет собой SDRAM с удвоенной скоростью передачи данных. Этого удалось достичь с помощью передачи данных дважды за такт, на фронте и спаде тактового сигнала.
Чтобы отправить информацию дважды за такт, сначала нужно было подготовить ее к такому выводу, что стало возможно благодаря технологии предвыборки под названием 2n-prefetch. Информация из двух выборок попадает в буфер ввода-вывода, через который потом происходит обмен данными с системой. Буфер и шина памяти у DDR имеют частоту, аналогичную частоте ядра памяти. Таким образом DDR, работающая на частоте в 200 МГц, имеет эффективную частоту в 400 МГц. По такому же принципу работает память для видеокартGDDR первого и второго поколения.
Именно с момента появления первой DDR появились понятия «реальная» и «эффективная частота передачи данных». Хотя еще в то время в спецификации JEDEC появилось замечание, что использовать термин «МГц» для памяти типа DDR некорректно, правильнее указывать «миллионов передач в секунду через один вывод данных». Один миллион передач называется мегатрансфером, а количество таких передач в секунду обозначается МТ/c. Память типа DDR2 использует следующее поколение 4n-prefetch, где используются четыре выборки. И если в DDR частота буфера и шины была равна частоте ядра памяти, то в DDR2 она вдвое превышает последнюю. С этого поколения реальную частоту памяти можно считать по частоте работы шины. Эффективная частота все так же в два раза выше. Например, в памяти DDR2 с частотой 800 МГц шина памяти и буфер вывода работают на 400 МГц, а сама память — на 200 МГц. На базе DDR2 была разработана графическая память GDDR3, обладающая схожим принципом работы.
В оперативной памяти DDR3 и DDR4 используется выборка 8n-prefetch. Соответственно, шина и буфер работают на частоте, которая в четыре раза превышает частоту самой памяти. Реальная скорость передачи данных выше частоты шины все так же в два раза. Так работает и графическая GDDR4.
Современные виды видеопамяти GDDR и их отличия
Современные виды графической памяти открывает устаревшая, но до сих пор применяющаяся в начальном сегменте GDDR5. Как и GDDR4, она использует 8n-prefetch, но пятое поколение видеопамяти стало способно передавать данные четыре раза за такт против двух у предшественников. Это стало возможным благодаря отделению частоты передачи адресов и команд (CK) от частоты передачи данных, которая вдвое выше (WCK). Теперь передается одновременно два импульса, в каждом из которых, как и раньше, два бита данных — на фронте и на спаде. Таким образом, эффективная частота памяти у GDDR5 в четыре раза превышает частоту шины.
Память типа GDDR5X отличается от предшественника выборкой 16n-prefetch. Благодаря более широкой выборке частоту шины памяти теперь можно было снизить, при этом получив прирост пропускной способности на четверть.
Аналогичную выборку использует и современная GDDR6. Основная разница в том, что в этом типе видеопамяти каждый 32-битный канал данных разделен на два 16-битных. Это позволяет отправлять к памяти больше запросов одновременно, но непосредственно на пропускную способность не влияет. Последняя возросла до полутора раз по сравнению с GDDR5X благодаря повышенным частотам.
В новейшей GDDR6X увеличение скорости работы памяти по сравнению с предшественником в очередной раз достигло полуторакратной планки. В этом ей помогла новая технология кодирования 4 Pulse Amplitude Modulation (PAM4), суть которой в использовании четырехуровневой модуляции сигнала против двухуровневой у прошлых поколений памяти.
Куда подевались мегагерцы?
Как вы уже поняли, с развитием памяти DDR увеличение количества выборок и новые виды модуляции все дальше и дальше отдаляли «эффективную» частоту памяти от «реальной», под которой подразумевается частота шины. А уж от частоты работы самих микросхем памяти и подавно. Именно поэтому несколько лет назад производители видеокарт решили наконец вспомнить про рекомендации JEDEC двадцатилетней давности и указывать скорость работы памяти либо в трансферах в секунду, либо в пропускной способности на один контакт.
Например, современный флагман NVIDIA RTX 3090 Ti имеет скорость работы памяти 21000 МТ/c, или 21 ГТ/c. Это же значение указывается как 21 Гбит/c — в этом случае имеется ввиду пропускная способность на один вывод памяти, то есть на один бит шины. Это может запутать неподготовленного пользователя, ведь в случае видеокарты имеет смысл не один вывод, а общая пропускная способность шины. Которая, к тому же, измеряется не в Гбит/с, а в Гбайт/c.
Как узнать реальную пропускную способность памяти видеокарты, у которой вместо частоты указаны МТ/c, ГТ/c или Гбит/c? Все очень просто. Указанные величины соответствуют эффективной частоте памяти. 21000 МТ/c, 21 ГТ/c, и 21 Гбит/c — все это равно эффективной частоте памяти в 21 ГГц. А зная частоту, можно вычислить пропускную способность установленной видеопамяти по формуле:
Частота (ГГц) х ширина шины памяти (бит) : 8 (бит в байте)
В случае RTX 3090 Ti мы получаем пропускную способность 21 ГГц × 384 бит ÷ 8 = 1008 Гбайт/c, что соответствует официальному значению, указанному компанией NVIDIA.
Откуда же берутся такие высокие результирующие частоты памяти? Чтобы понять принцип их формирования, предлагаем взглянуть на таблицу ниже.
Разберем на примере все той же RTX 3090 Ti с памятью GDDR6X. Эффективная частота в 21000 МГц в этом случае имеет соотношение к частоте шины 16:1. То есть для вычисления последней 21000 нужно разделить на 16. Результат будет равен 1312,5 МГц, что и наблюдается в округленном виде в программе GPU-Z.
Соотношение эффективной частоты к истинной частоте работы микросхем памяти составляет 64:1. Благодаря нехитрым расчетам можно узнать, что внутри топовой GDDR6X работают микросхемы с частотой около 328 МГц.
Итоги
Как видите, путаница обозначений возникла из-за использования разных характеристик скорости памяти производителями в разные годы. Если бы компании изначально придерживались рекомендаций JEDEC еще со времен выпуска первой DDR, то такого бы не было.
Любая память типа DDR имеет три разные частоты: частоту ядра памяти, частоту шины/буфера и эффективную частоту. Впрочем, для простого пользователя достаточно знать лишь последнюю — с ее помощью можно вычислить пропускную способность и сравнить видеокарту по скорости работы памяти с другими. А как она обозначается — Гбит/c, ГТ/c или ГГц — неважно. Важно помнить, что все эти значения в данном конкретном случае взаимозаменяемы.
В феврале 2024 года компания Intel представила свою обновленную дорожную карту. Этим она немного приоткрыла завесу тайны, огласив некоторые интересные особенности процессоров следующих поколений и технологий их производства.
Многие наверняка помнят, что основной для продуктов Intel долгое время являлась технология производства 14 нм. С 2015 по 2021 год именно по этому техпроцессу выпускались все десктопные процессоры Intel Core. И лишь в конце 2021 года вместе с Core 12-го поколения компания вывела на рынок новый техпроцесс Intel 7, который на самом деле является разновидностью 10 нм норм.
С этого момента в истории производства Intel началась новая глава. Десктопные модели Core 13-го и 14-го поколений продолжили использовать техпроцесс Intel 7, но в мобильных процессорах Core Ultra, представленных в конце 2023 года, компания начала использовать следующий процесс под названием Intel 4 (7 нм). В обновленном роадмапе за ним следуют будущие техпроцессы — Intel 3, Intel 20A, Intel 18A, Intel 14A и Intel 10A. Расскажем о каждом поподробнее.
Intel 3
Дальнейшее развитие идей Intel 4 найдет воплощение в техпроцессе Intel 3. Как и в прямом предшественнике, в нем используется литография в сверхжестком ультрафиолете (EUV), без которой не обойтись в таких тонких процессах.
Intel 3 уже прошел полное тестирование и готов к применению. Относительно Intel 4 показатель производительности на ватт вырастет на 18 %, что довольно неплохо при схожем процессе производства. К тому же, по сравнению с предшественником, он позволит достичь более высокой плотности транзисторов и рассчитан на более высокопроизводительные чипы.
Однако десктопные и мобильные процессоры Intel этот техпроцесс обойдет стороной. Уделом Intel 3 станут новые серверные процессоры под названием Xeon 6. Их будет две разновидности — на основе производительных (Granite Rapids) и энергоэффективных (Sierra Forest) ядер.
Выпуск Granite Rapids состоится уже во втором квартале 2024 года, а Sierra Forest — в его второй половине. Благодаря новому техпроцессу в этих чипах уместится до 288 энергоэффективных ядер.
Intel 20A
Техпроцесс Intel 20A для рядового пользователя более интересен. Ведь именно на нем будут построены процессоры 15-го поколения Core под кодовым названием Arrow Lake. Как и мобильные Meteor Lake, эти процессоры получат «Core Ultra» в названии и плиточную компоновку Foveros — впервые для десктопа.
Intel 20A, по словам компании, открывает «эру Ангстрема». Это и отражено в названии техпроцесса: 20A — 20 ангстрем, то есть 2 нм. Конечно, маркетинговые нанометры давно перестали отражать реальные размеры транзисторов, но именно этот техпроцесс должен обеспечить наиболее большой технологический скачок. В том числе, благодаря двум заметным технологическим улучшениям.
Первое их них — новые транзисторы RibbonFET Gate-All-Around (GAA). Они оснащены затвором с четырьмя каналами, который полностью их окружает. Это первое улучшение с 2012 года, когда были внедрены так называемые 3D-транзисторы FinFET, окруженные затвором с трех сторон.
В отличие от них, транзисторы GAA занимают меньше места, благодаря чему заметно возрастает их плотность. К тому же и переключаются они при сравнимом токе быстрее.
Второе новшество — вывод сигнальных линий и линий питания с разных сторон подложки чипа. В более ранних техпроцессах оба вида линий находятся с ее фронтальной стороны. Новое решение под названием PowerVia заключается в переносе линий питания на обратную сторону подложки. Так как линии питания больше не мешают сигнальным, для последних можно упростить разводку и уменьшить длину соединений. А за счет отсутствия прямых наводок от питания и помех для сигналов становится меньше.
Проводники питания можно сделать большего сечения для использования повышенных токов, а плотность размещения транзисторов — увеличить. Благодаря такому сочетанию новые процессоры наверняка смогут достигать более высоких частот. Производительность на ватт по сравнению с техпроцессом Intel 3 возрастет до 15 %.
Intel 18A
Следующее поколение техпроцесса представляет собой усовершенствованную версию Intel 20A. В него перекочуют все новшества предшественника. Intel 18A — техпроцесс, соответствующие условным 18 ангстрем, или 1.8 нм. По сравнению с Intel 20A, он позволит увеличить показатель производительности на ватт на величину до 10 %.
Как признался глава Intel, именно на этот техпроцесс он сделал наибольшую ставку. Intel 18A должен вернуть компании лидерство в передовых технологиях производства, а также стать наиболее массово использующимся техпроцессом. На Intel 20A компания намерена обкатать технологии RibbonFET и PowerVia, поэтому он будет использоваться только в процессорах Core. А на базе 18A будут выпускаться и серверные Xeon нового поколения, и чипы, разработанные сторонними компаниями-заказчиками — к примеру, мобильные решения на архитектуре ARM.
Среди продукции компании первой на вооружение этот техпроцесс возьмут новые процессоры Xeon под кодовым названием Clearwater Forest. Это второе поколение разновидности Xeon на базе энергоэффективных ядер. В нем впервые будет применена технология Foveros Direct, которая позволит связывать кристаллы-плитки с помощью соединений гораздо меньшего размера, чем ранее.
Следом за Xeon технология производства найдет приют в процессорах Core под кодовым названием Lunar Lake. Это произойдет в конце 2024 или начале 2025 года. Как и Meteor Lake, эта линейка процессоров предназначена исключительно для ноутбуков. В десктопы новый техпроцесс попадет только в середине 2025 года с приходом процессоров Core под кодовым названием Panther Lake.
Intel 14A
В 2027 году в массовое производство будет запущен Intel 14A. Ключевое отличие от предшественников в том, что он станет первым техпроцессом, при производстве которого будет использоваться литография в сверхжестком ультрафиолете с высокой числовой апертурой (High-NA EUV). Это потребует нового оборудования для производства, поэтому на первых порах ждать бюджетных продуктов на базе 14A не стоит.
Как и в предшественниках, в Intel 14A будут использоваться транзисторы RibbonFET, а технология PowerVia второго поколения сможет обеспечить лучшие параметры питания. Intel планирует две разновидности этого техпроцесса: стандартную 14A и улучшенную 14A-E, которая увидит свет позже. Таким образом компания хочет продлить жизненный цикл технологии без перехода на новый процесс производства. Доработанные версии получат также Intel 18A и Intel 3.
Компания пока не называет предполагаемое преимущество в производительности на ватт или плотности транзисторов, так как не хочет заранее информировать конкурентов. Поэтому более подробные технические детали 14A станут известны ближе к дате запуска его тестового производства, которое начнется в 2026 году.
Intel 10A
Последний техпроцесс Intel, который упоминался ее представителями — Intel 10A. Информации о нем пока немного. Известно, что тестовое производство стартует в конце 2027 года, а готовые продукты появятся не раньше 2028-го.
Аналогично Intel 14A, этот техпроцесс будет использовать литографию High-NA EUV. К тому моменту она станет более зрелой и дешевой в производстве, поэтому стоит ожидать использование 10A и в массовой недорогой продукции.
Оперативная память является неотъемлемым компонентом любой вычислительной системы. Как она устроена внутри, и как работает?
Немного истории
Началось всё очень давно, ещё в ХIХ веке. Именно в 1834 году Чарльз Беббидж разработал конструкцию аналитической машины. В те годы самому Чарльзу не удалось воплотить свою конструкцию в реальную жизнь из-за проблем с финансированием и отсутствием необходимых для постройки технологий.
Упрощённо, данный компьютер состоял из 4-х элементов – арифметико-логического устройства (АЛУ), устройства ввода-вывода, шины передачи данных и оперативной памяти. Как же работала оперативная память в 19 веке? Работала она за счёт сложного массива валов и шестерёнок, положение которых и «записывало» то или иное значение информационной единицы. И после этого изобретения давайте сделаем скачок на более чем 100 лет вперёд, в 40-50-ые годы ХХ века, когда начинались выпускаться электронно-вычислительные машины (ЭВМ) первого поколения.
Так как технология только зарождалась, инженеры экспериментировали с конструкциями и принципами работы ОЗУ. Таким образом, на первых порах использовалась оперативная память, работающая на электромеханических реле, на электромагнитных переключателях, на электростатических трубках и на электро-лучевых трубках. Но спустя пару лет все сошлись на одном варианте, другом – магнитные диски и магнитные барабаны.
По своей структуре магнитные барабаны похожи на современные жёсткие диски. Ключевое отличие – на барабане считывающие головки неподвижны и время доступа полностью определяется скоростью их вращения, в то время как у жёсткого диска это определяется как скоростью вращения, так и скоростью перемещения головок по цилиндрам диска. Следующим этапом развития оперативной памяти стали массивы на ферромагнитных сердечниках, или, как её проще называли, ферритовая память. Такой вид памяти обеспечивал очень высокую скорость доступа по сравнению с магнитными барабанами, но и потреблял он больше электроэнергии.
А самой главной проблемой что магнитных барабанов, что ферритовой памяти были габариты. Именно над исправлением этого недостатка исследователи работали на протяжении более десяти лет. И главный толчок в развитии оперативной памяти дало создание больших интегральных схем БИС), или же микросхем, и уже на них появились всеми нами известные и используемые до сих пор DRAM и SRAM, которые стали постепенно сменять ферритовую память, начиная с 70-ых годов. Какая разница между DRAM и SRAM? Если вкратце, то DRAM хранит бит данных в виде заряда конденсатора, а SRAM хранит бит в виде состояния триггера. DRAM является более экономичным видом памяти с меньшим энергопотреблением, а SRAM может похвастаться меньшим временем доступа за большую стоимость и энергопотребление. В нынешний момент SRAM используется как кэш-память процессора, так что мы подробнее перейдём к DRAM, ведь именно такую память используют при создании оперативной памяти.
Кому будет интересно почитать и освежить память, или подчерпнуть для себя что то новое, есть замечательная статья на просторах ПИКАБУ автора BootSect "История оперативной памяти".
Но давайте вернемся и все таки рассмотрим -
Что такое оперативная память
Любая вычислительная система состоит из нескольких компонентов. При этом неважно, где эта система используется — в компьютере, ноутбуке, смартфоне, планшете или даже смарт-часах. Основной принцип работы везде один: данные считываются с медленного накопителя и попадают в более быструю оперативную память. Оттуда их получает очень быстрая кеш-память центрального процессора, которая передает данные на вычислительную часть ЦП.
В компьютерах с этим проще: память для них распространяется в виде модулей формата DIMM, на которых распаяны микросхемы памяти. В ноутбуках можно встретить как более компактные модули SO-DIMM, так и распаянную ОЗУ.
Устройство чипов памяти
Внутри микросхем памяти находится несколько слоев, соединенных друг с другом. Каждый из них разделен на кластеры, в которых находятся ячейки памяти, хранящие информацию.
Ячейка памяти состоит из конденсатора и полевого транзистора. Конденсатор может хранить электрический заряд (логическая единица) или находиться в состоянии без заряда (логический ноль). Таким образом каждая ячейка хранит один бит информации.
Транзистор выступает в роли своеобразной двери. Когда «дверь» закрыта, она удерживает заряд конденсатора. При считывании и записи информации эта «дверь» открывается. Помимо конденсатора, транзистор подключен к двум линиям — линии слов («Word Line», строка) и линии битов («Bit Line», столбец).
Ячейки памяти расположены подобно клеткам шахматной доски. Те, которые находятся на одной линии слов, образуют страницу памяти. Операции чтения и записи производятся не с одной ячейкой, а с целой страницей памяти сразу, так как все транзисторы ячеек на одной линии слов открываются одновременно. Для операции чтения на одну линию слов подается управляющее напряжение, которое открывает все транзисторы ячеек на ней. На концах линий битов находятся усилители чувствительности (Sense Amplifier). Они распознают наличие или отсутствие заряда в конденсаторах ячеек памяти, таким образом считывая логическую единицу или логический ноль.
Конденсаторы ячеек имеют маленькие размеры и очень быстро теряют заряд. Поэтому независимо от того, нужно ли сохранять в памяти текущую информацию или записать новую, ячейки периодически перезаписываются.
Для этого, как и при чтении, управляющее напряжение подается на «двери» транзисторов ячеек по линии слов. А вот по линии битов вместо считывания производится процесс записи. Он осуществляется с помощью подачи напряжения для заряда конденсаторов нужных ячеек — то есть только тех, где должна быть логическая единица.
Передача данных и тайминги
Работа линий координируется декодером адресов строк и мультиплексором столбцов. Информация для записи в ОЗУ поступает в общий буфер данных. Оттуда она попадает в мультиплексор и в его собственный буфер, а затем — в управляющую логику, которая координирует работу ячеек памяти с учетом латентности памяти.
Данные из логики поступают в буфер декодера адресов строк, а оттуда и на сам декодер, позволяя своевременно открывать страницы памяти для операций чтения и записи. При чтении данные вновь проходят через мультиплексор и общий буфер данных, который передает их системе.
Операции декодера адреса строки и мультиплексора столбцов требуют определенных периодов времени — стробов. Строб адресов строк обозначается как RAS, адресов столбцов — как CAS. Данными характеристиками и их соотношениями определяется латентность памяти, или тайминги. Тайминги — это временные задержки между выполнением команд чтения и записи. Чем они ниже, тем быстрее работает память при прочих равных.
Тайминги выражаются не в абсолютном, а в относительном числовом значении. Оно показывает количество тактовых циклов, которое требуется памяти на выполнение операций. Или, если простым языком, во сколько раз медленнее производится та или иная операция относительно задержки передачи данных. Именно поэтому одни и те же модули ОЗУ имеют разные тайминги на разных частотах.
Для простого примера возьмем распространенную ОЗУ DDR4 с частотой 3200 МГц. Время передачи одного бита информации у нее составляет 1/3 200 000 долю секунды, или 0.3125 нс. Так как память типа DDR передает данные дважды за такт, длительность одного цикла передачи данных занимает в два раза больше времени — 0.625 нс. При тайминге, равном 16, определенная операция будет происходить за время, которое в 16 раз больше этого значения: 0.625 x 16 = 10 нс.
Основные виды таймингов — это:
СL (CAS Latency)
Количество тактов между получением команды чтения/записи и ее выполнением.
tRCD (RAS to CAS delay)
Количество тактов между открытием строки и началом выполнения операции чтения/записи по столбцу.
tRP (RAS Precharge Time)
Количество тактов между получением команды закрытия одной строки и открытием следующей.
tRAS (RAS Active Time)
Количество тактов, в течение которых строка памяти может быть доступна для чтения/записи.
CMD (Command Rate)
Количество тактов с момента активации чипа памяти до готовности принять команду.
Тайминги — качество
Работа памяти, вопреки стереотипу, измеряется не только герцами. Быстроту памяти принято измерять в наносекундах. Все элементы памяти работают в наносекундах. Чем чаще они разряжаются и заряжаются, тем быстрее пользователь получает информацию. Время, за которое банки должны отрабатывать задачи назвали одним словом — тайминг (timing — расчет времени, сроки). Чем меньше тактов (секунд) в тайминге, тем быстрее работают банки.
Такты. Если нам необходимо забраться на вершину по лестнице со 100 ступеньками, мы совершим 100 шагов. Если нам нужно забраться на вершину быстрее, можно идти через ступеньку. Это уже в два раза быстрее. А можно через две ступеньки. Это будет в три раза быстрее. Для каждого человека есть свой предел скорости. Как и для чипов — какие-то позволяют снизить тайминги, какие-то нет.
Частота — количество
Теперь, что касается частоты памяти. В работе ОЗУ частота влияет не на время, а на количество информации, которую контроллер может утащить за один подход. Например, в кафе снова приходит клиент и требует томатный сок, а еще виски со льдом и молочный коктейль. Бармен может принести сначала один напиток, потом второй, третий. Клиент ждать не хочет. Тогда бармену придется нести все сразу за один подход. Если у него нет проблем с координацией, он поставит все три напитка на поднос и выполнит требование капризного клиента.
Аналогично работает частота памяти: увеличивает ширину канала для данных и позволяет принимать или отдавать больший объем информации за один подход.
Тайминги плюс частота — скорость
Соответственно, частота и тайминги связаны между собой и задают общую скорость работы оперативной памяти. Чтобы не путаться в сложных формулах, представим работу тандема частота/тайминги в виде графического примера:
Разберем схему. В торговом центре есть два отдела с техникой. Один продает видеокарты, другой — игровые приставки. Дефицит игровой техники довел клиентов до сумасшествия, и они готовы купить видеокарту или приставку, только чтобы поиграть в новый Assassin’s Creed. Условия торговли такие: зона ожидания в отделе первого продавца позволяет обслуживать только одного клиента за раз, а второй может разместить сразу двух. Но у первого склад с видеокартами находится в два раза ближе, чем у второго с приставками. Поэтому он приносит товар быстрее, чем второй. Однако, второй продавец будет обслуживать сразу двух клиентов, хотя ему и придется ходить за товаром в два раза дальше. В таком случае, скорость работы обоих будет одинакова. А теперь представим, что склад с приставками находится на том же расстоянии, что и у первого с видеокартами. Теперь продавец консолей начнет работать в два раза быстрее первого и заберет себе большую часть прибыли. И, чем ближе склад и больше клиентов в отделе, тем быстрее он зарабатывает деньги.
Так, мы понимаем, как взаимодействует частота с таймингами в скорости работы памяти.
Очередь — это пользователь, который запрашивает информацию из оперативной памяти.
Продавец — это контроллер памяти (который доставляет информацию).
Техника со склада — это информация для пользователя. Прилавок — это пропускная способность памяти в герцах (частота).
Расстояние до склада — тайминги (время, за которое контроллер найдет информацию по запросу).
Соответственно, чем меньше метров проходит контроллер до банок с электрическим зарядом, тем быстрее пользователь получает информацию. Если частота памяти позволяет доставить больше информации при том же расстоянии, то скорость памяти возрастает. Если частота памяти тянет за собой увеличение расстояния до банок (высокие тайминги), то общая скорость работы памяти упадет.
Сравнить скорость разных модулей ОЗУ в наносекундах можно с помощью формулы: тайминг*2000/частоту памяти. Так, ОЗУ с частотой 3600 и таймингами CL14 будет работать со скоростью 14*2000/3600 = 7,8 нс. А 4000 на CL16 покажет ровно 8 нс. Выходит, что оба варианта примерно одинаковы по скорости, но второй предпочтительнее из-за большей пропускной способности. В то же время, если взять память с частотой 4000 при CL14, то это будет уже 7 нс. При этом пропускная способность станет еще выше, а время доставки информации снизится на 1 нс.
Вот, как выглядят тайминги на самом деле:
Строение чипа памяти и тайминги
В теории, оперативная память имеет скорость в наносекундах и мегабайтах в секунду. Однако, на практике существует не один десяток таймингов, и каждый задает время на определенную работу в микросхеме.
Они делятся на первичные, вторичные и третичные. В основном, для маркетинговых целей используется группа первичных таймингов. Их можно встретить в характеристиках модулей. Их намного больше и каждый за что-то отвечает. Здесь бармен с томатным соком не поможет, но попробуем разобраться в таймингах максимально просто.
Схематика чипов
Микросхемы памяти можно представить в виде поля для игры в морской бой или так:
В самом упрощенном виде иерархия чипа это: Rank — Bank — Row — Column. В ранках (рангах) хранятся банки. Банки состоят из строк (row) и столбцов (column). Чтобы найти информацию, контроллеру необходимо иметь координаты точки на пересечении строк и столбцов. По запросу, он активирует нужные строки и находит информацию. Скорость такой работы зависит от таймингов.
Первичные
CAS Latency (tCL) — главный тайминг в работе памяти. Указывает время между командой на чтение/запись информации и началом ее выполнения.
RAS to CAS Delay (tRCD) — время активации строки.
Row Precharge Time (tRP) — прежде чем перейти к следующей строке в этом же банке, предыдущую необходимо зарядить и закрыть. Тайминг обозначает время, за которое контроллер должен это сделать.
Row Active Time (tRAS) — минимальное время, которое дается контроллеру для работы со строкой (время, в течение которого она может быть открыта для чтения или записи), после чего она закроется.
Command Rate (CR) — время до активации новой строки.
Вторичные
Второстепенные тайминги не так сильно влияют на производительность, за исключением пары штук. Однако, их неправильная настройка может влиять на стабильность памяти.
Write Recovery (tWR) — время, необходимое для окончания записи данных и подачи команды на перезарядку строки.
Refresh Cycle (tRFC) — период времени, когда банки памяти активно перезаряжаются после работы. Чем ниже тайминг, тем быстрее память перезарядится.
Row Activation to Row Activation delay (tRRD) — время между активацией разных строк банков в пределах одного чипа памяти.
Write to Read delay (tWTR) — минимальное время для перехода от чтения к записи.
Read to Precharge (tRTP) — минимальное время между чтением данных и перезарядкой.
Four bank Activation Window (tFAW) — минимальное время между первой и пятой командой на активацию строки, выполненных подряд.
Write Latency (tCWL) — время между командой на запись и самой записью.
Refresh Interval (tREFI) — чтобы банки памяти работали без ошибок, их необходимо перезаряжать после каждого обращения. Но, можно заставить их работать дольше без отдыха, а перезарядку отложить на потом. Этот тайминг определяет количество времени, которое банки памяти могут работать без перезарядки. За ним следует tRFC — время, которое необходимо памяти, чтобы зарядиться.
Третичные
Эти тайминги отвечают за пропускную способность памяти в МБ/с, как это делает частота в герцах.
Отвечают за скорость чтения:
tRDRD_sg
tRDRD_dg
tRDRD_dr — используется на модулях с двусторонней компоновкой чипов
tRDRD_dd — для систем, где все 4 разъема заняты модулями ОЗУ
Отвечают за скорость копирования в памяти (tWTR):
tRDWR_sg
tRDWR_dg
tRDWR_dr — используется на модулях с двусторонней компоновкой чипов
tRDWR_dd — для систем, где все 4 разъема заняты модулями ОЗУ
Влияют на скорость чтения после записи (tRTP):
tWRRD_sg
tWRRD_dg
tWRRD_dr — используется на модулях с двусторонней компоновкой чипов
tWRRD_dd — для систем, где все 4 разъема заняты модулями ОЗУ
А эти влияют на скорость записи:
tWRWR_sg
tWRWR_dg
tWRWR_dr — используется на модулях с двусторонней компоновкой чипов
tWRWR_dd — для систем, где все 4 разъема заняты модулями ОЗУ
Скорость памяти во времени
Итак, мы разобрались, что задача хорошей подсистемы памяти не только в хранении и копировании данных, но и в быстрой доставке этих данных процессору (пользователю). Будь у компьютера хоть тысяча гигабайт оперативной памяти, но с очень высокими таймингами и низкой частотой работы, по скорости получится уровень неплохого SSD-накопителя. Но это в теории. На самом деле, любая доступная память на рынке как минимум соответствует требованиям JEDEC. А это организация, которая знает, как должна работать память, и делает это стандартом для всех. Аналогично ГОСТу для колбасы или сгущенки.
Стандарты JEDEC демократичны и современные игровые системы редко работают на таких низких настройках. Производители оставляют запас прочности для чипов памяти, чтобы компании, которые выпускают готовые планки оперативной памяти могли немного «раздушить» железо с помощью разгона. Так, появились заводские профили разгона XMP для Intel и DOHCP для AMD. Это «официальный» разгон, который даже покрывается гарантией производителя.
Профили разгона включают в себя информацию о максимальной частоте и минимальных для нее таймингах. Так, в характеристиках часто пишут именно возможности работы памяти в XMP режимах. Например, частоте 3600 МГц и CL16. Чаще всего указывают самый первый тайминг как главный.
Чем выше частота и ниже тайминги, тем круче память и выше производительность всей системы.
Ранги памяти
Модули ОЗУ имеют на борту несколько микросхем памяти. Внешняя ширина шины модуля определенного вида ОЗУ — величина постоянная, но внутреннее устройство зависит от поколения памяти и рангов.
Чипы памяти на обычном одноранговом модуле образуют один блок данных. Доступ к нему осуществляется по каналу определенной ширины. Если у модуля два ранга, то доступ к чипам памяти осуществляется через два таких канала. При четырех рангах — через четыре, при восьми рангах — через восемь. В модулях памяти для обычных компьютеров встречается одно- или двухранговая организация. Количество рангов более двух характерно для серверной ОЗУ.
Внешняя ширина шины модуля во всех случаях остается равной ширине канала доступа к одному рангу. Поэтому центральный процессор системы может обращаться только к одному рангу единовременно. Но пока один ранг модуля передает данные, другие могут подготавливать данные для следующей передачи. Поэтому многоранговая память при прочих равных быстрее, хоть и ненамного.
Ширина внешней шины модуля и одного ранга зависит от поколения и типа оперативной памяти.
Обычная ОЗУ DDR4 (и более старых поколений DDR) имеет ширину в 64 бита. Все биты используются для передачи данных.
Серверная ОЗУ DDR4 (и более старых поколений DDR) имеет ширину в 72 бита. 64 бита используются для передачи данных, 8 бит — для коррекции ошибок.
ОЗУ DDR5 имеет ширину в 80 бит, поделенных на два канала по 40 бит. В каждом канале 32 бита используются для передачи данных, а 8 бит — для коррекции ошибок.
Одна из главных характеристик процессоров и других микрочипов — техпроцесс. Что означает этот термин и насколько он влияет на производительность?
Что такое техпроцесс
Ключевым элементом практически каждой вычислительной схемы является транзистор. Это полупроводниковый элемент, который служит для управления токами. Из транзисторов собираются основные логические элементы, а на их основе создаются различные комбинационные схемы и уже непосредственно процессоры.
Чем больше транзисторов в процессоре — тем выше его производительность, ведь можно поместить на кристалл большее количество логических элементов для выполнения разных операций.
В 1971 году вышел первый микропроцессор — Intel 4004. В нем было всего 2250 транзисторов. В 1978 мир увидел Intel 8086 и в нем помещались целых 29 000 транзисторов. Легендарный Pentium 4 уже включал 42 миллиона. Сегодня эти числа дошли до миллиардов, например, в AMD Epyc Rome поместилось 39,54 миллиарда транзисторов.
Много это или мало? По информации на 2020 год на нашей планете приблизительно 7,8 миллиардов человек. Если представить, что каждый из них это один транзистор, то полтора населения планеты с легкостью поместилась бы в процессоре Apple A14 Bionic.
В 1975 году Гордон Мур, основатель Intel, вывел скорректированный закон, согласно которому число транзисторов на схеме удваивается каждые 24 месяца.
Нетрудно посчитать, что с момента выхода первого процессора до сего дня, а это всего-то 50 лет, число транзисторов увеличилось в 10 000 000 раз!
Казалось бы, поскольку транзисторов так много, то и схемы должны вырасти в размерах на несколько порядков. Площадь кристалла у первого процессора Intel 4004 —12 мм², а у современных процессоров AMD Epyc — 717 мм² (33,5 млрд. транзисторов). Получается, по площади кристалла процессоры выросли всего в 60 раз.
Как же инженерам удается втискивать такое огромное количество транзисторов в столь маленькие площади? Ответ очевиден — размер транзисторов также уменьшается. Так и появился термин, который дал обозначение размеру используемых полупроводниковых элементов.
Упрощенно говоря, техпроцесс — это толщина транзисторного слоя, который применяется в процессорах.
Чем мельче транзисторы, тем меньше они потребляют энергии, но при этом сохраняют текущую производительность. Именно поэтому новые процессоры имеют большую вычислительную мощность, но при этом практически не увеличиваются в размерах и не потребляют киловатты энергии.
Какие существуют техпроцессы: вчера и сегодня
Первые микросхемы до 1990-х выпускались по технологическому процессу 3,5 микрометра. Эти показатели означали непосредственно линейное разрешение литографического оборудования. Если вам трудно представить, насколько небольшая величина в 3 микрометра, то давайте узнаем, сколько транзисторов может поместиться в ширине человечного волоса.
Уже тогда транзисторы были настолько маленькими, что пару десятков с легкостью помещались в толщине человеческого волоса. Сейчас техпроцесс принято соотносить с длиной затвора транзисторов, которые используются в микросхеме. Нынешние транзисторы вышли на размеры в несколько нанометров.
Для Intel актуальный техпроцесс — 14 нм. Насколько это мало? Посмотрите в сравнении с вирусом:
Однако по факту текущие числа — это частично коммерческие наименования. Это означает, что в продуктах по техпроцессу 5 нм на самом деле размер транзисторов не ровно столько, а лишь приближенно. Например, в недавнем исследовании эксперты сравнили транзисторы от Intel по усовершенствованному техпроцессу 14 нм и транзисторы от компании TSMC на 7 нм. Оказалось, что фактические размеры на самом деле отличаются не на много, поэтому величины на самом деле относительные.
Рекордсменом сегодня является компания Samsung, которая уже освоила техпроцесс 5 нм. По нему производятся чипы Apple A14 для мобильной техники. Одним из является Apple M1 — ARM процессор, который установлен в ноутбуках от Apple.
Насколько маленьким может быть техпроцесс
Уменьшение размеров транзисторов позволяет делать более энергоэффективные и мощные процессоры, но какой предел? На самом деле ответа никто не знает.
Проблема кроется в самой конструкции транзистора. Уменьшение прослойки между эмиттером и коллектором приводит к тому, что электроны начинают самостоятельно просачиваться, а это делает транзистор неуправляемым. Ток утечки становится слишком большим, что также повышает потребление энергии.
Не стоит забывать, что каждый транзистор выделяет тепло. Уже сейчас процессоры Intel Core i9-10ХХХ нагреваются до 95 градусов Цельсия, и это вполне нормальный показатель. Однако при увеличении плотности транзисторов температуры дойдут до таких пределов, когда даже водяное охлаждение окажется полностью бесполезным.
Самые смелые предсказания — это техпроцесс в 1,4 нм к 2029 году. Разработка еще меньших транзисторов, по словам ученых, будет нерентабельной, поэтому инженерам придется искать другие способы решения проблемы. Среди альтернатив — использование передовых материалов вместо кремния, например, графена.
Практически все технологии, хотя и имеют свойство развиваться, в конце концов устаревают. Не обошла данная закономерность и кремниевую электронику. Легко заметить, что в последнее время ее прогресс существенно замедлился и вообще изменил направление своего развития.
Количество транзисторов в микросхемах уже не удваивается каждые два года, как это было раньше. И сегодня производительность компьютеров наращивается отнюдь не за счет повышения их рабочей частоты, а благодаря увеличению количества ядер в процессоре, то есть путем расширения возможностей для параллельно выполняемых операций.
Ни для кого не секрет, что любой современный компьютер построен из миллиардов маленьких транзисторов, представляющих собой полупроводниковые устройства, проводящие электрический ток при подаче управляющего сигнала.
Но чем меньше размером транзистор — тем выраженнее паразитные эффекты и утечки, мешающие его нормальной работе, и представляющие собой препятствие для создания еще более компактных и более быстрых в работе устройств.
Данные факторы определяют принципиальный предел на пути миниатюризации размера транзистора, поэтому кремниевый транзистор в принципе не может иметь толщину более пяти нанометров.
Физическая причина кроется в том, что движущиеся через полупроводник электроны растрачивают свою энергию просто потому, что данные заряженные частицы обладают массой. И чем выше делается частота прибора — тем большими становятся потери энергии в нем.
С уменьшением размера элемента, потери энергии в форме тепла хотя и удается уменьшить, но предотвратить влияние атомарной структуры не удается. На практике атомарная структура сама начинает становиться помехой, поскольку достигнутый на сегодня размер элемента в 10 нанометров по порядку величин сопоставим всего с сотней атомов кремния.
На смену электронам — фотоны
Но что если попробовать использовать не ток, а свет? Ведь фотоны, в отличие от электронов, не обладают ни зарядом, ни массой покоя, при этом являются самыми быстрыми частицами. К тому же их потоки при разных длинах волн не будут мешать друг другу при синхронной работе.
Таким образом, с переходом на оптические технологии в сфере управления информацией можно было бы получить множество преимуществ перед полупроводниками (с движущимися через них тяжелыми заряженными частицами).
Информация, посылаемая посредством светового луча могла бы обрабатываться прямо в процессе ее передачи, а расходы энергии не были бы столь существенными, как при передаче посредством движущегося электрического заряда. А проводить параллельные вычисления позволили бы применяемые волны разной длины, причем для оптической системы были бы принципиально нестрашны никакие электромагнитные наводки.
Явные преимущества оптической концепции перед электрической давно притягивают внимание ученых. Но сегодня вычислительная оптика остается по большому счету гибридной, то есть сочетающей в себе электронный и оптический подходы.
Кстати, первый прототип оптоэлектронной ЭВМ был создан еще в 1990 году компанией Bell Labs, а 2003 году компания Lenslet анонсировала первый коммерческий оптический процессор EnLight256, способный производить до 8000000000000 операций над 8-битными целыми в секунду (8 тераоп). Но несмотря на уже сделанные шаги в этом направлении, в области оптической электроники до сих пор оставались вопросы.
Один из таких вопросов заключался в следующем. Логические схемы подразумевают ответ «1» или «0» в зависимости от того, произошли ли два события - Б и А. Но фотоны не замечают друг друга, а ведь ответ схемы должен зависеть от двух световых пучков.
Транзисторная логика, оперирующая токами, легко проделывает подобное. И похожих вопросов масса. Поэтому коммерчески привлекательных оптических устройств на базе оптической логики до сих пор не было, хотя имелись некоторые наработки. Так, в 2015 году ученые из лаборатории нанофотоники и метаматериалов Университета ИТМО продемонстрировали в эксперименте возможность изготовления сверхбыстрого оптического транзистора, состоящего всего из одной кремниевой наночастицы.
По сей день инженеры и ученые многих учреждений трудятся над проблемой замены кремния на альтернативы: пробуют графен, дисульфид молибдена, задумываются об использовании спинов частиц и конечно - о свете, как о принципиально новом способе передачи и хранения информации.
Световой аналог транзистора — принципиальнейшая концепция, заключающаяся в том, что необходим прибор, способный избирательно пропускать или не пропускать фотоны. Кроме того желателен расщепитель, могущий разбивать луч на части и убирать из него определенные световые компоненты.
Прототипы уже есть, но они имеют проблему — размеры их гигантские, они больше похожи на транзисторы из середины прошлого столетия, когда компьютерный век только начинался. Уменьшение размеров таких транзисторов и расщепителей — непростая задача.
Фундаментальное препятствие преодолено
А между тем ученым из лаборатории гибридной фотоники "Сколтеха", совместно с коллегами из компании IBM, в начале 2019 года все же удалось построить первый оптический транзистор, способный работать на частоте в 2 ТГц и при этом совсем не нуждающийся в охлаждении до абсолютного нуля.
Результат получен при помощи сложнейшей оптической системы, которая создавалась долгим кропотливым трудом коллектива. И теперь можно сказать, что фотонные процессоры, выполняющие операции со скоростью света — в принципе реальны, так же реальны как оптоволоконная связь.
Первый шаг сделан! Миниатюрный оптический транзистор, не требующий охлаждения и способный работать тысячекратно быстрее своего электронного полупроводникового предка - создан.
Как было отмечено выше, одной из фундаментальных проблем на пути создания элементов для «световых» компьютеров было то, что фотоны друг с другом не взаимодействуют, да и движением частиц света крайне сложно управлять. Однако ученые выяснили, что с проблемой можно справиться прибегнув к так называемым поляритонам.
Поляритон — одна из недавно созданных виртуальных частиц, подобных фотону, и способных проявлять свойства волн и частиц. Поляритон включает в себя три компонента: оптический резонатор, состоящий из пары зеркал-отражателей, между которыми заточена световая волна, а также квантовый колодец. Квантовый колодец представлен атомом с вращающимся вокруг него электроном, способным испускать или поглощать квант света.
Квазичастица поляритон уже в первых экспериментах проявила себя во всей красе, показав, что ее можно применить для создания транзисторов и прочих логических элементов световых компьютеров, но оставался один серьезный минус — работа была возможной лишь при сверхнизких температурах вблизи абсолютного нуля.
Но ученые решили эту проблему. Они научились создавать поляритоны не в полупроводниках, а в органических аналогах полупроводников, которые сохраняли все необходимые свойства даже при комнатной температуре.
На роль такого вещества подошел полипарафенилен — недавно открытый полимер, аналогичный тем, что применяются в производстве кевлара и разнообразных красителей.
Благодаря особому устройству, молекулы полипарафенилена способны даже при высоких температурах порождать внутри себя особые зоны, могущие выполнять функцию квантового колодца классического поляритона.
Заключив пленку из полипарафенилена между слоями неорганических материалов, ученые нашли способ как при помощи воздействия лазерами двух разных типов управлять состоянием квантового колодца и заставлять его испускать фотоны.
Экспериментальный прототип транзистора продемонстрировал способности к рекордно быстрому переключению и усилению светового сигнала при минимальных затратах энергии.
Три таких транзистора уже позволили исследователям собрать первые логические световые приборы, воспроизводящие операции «И» и «ИЛИ». Результат эксперимента дает основание полагать, что дорога к созданию световых компьютеров, - экономичных, быстрых и компактных, - наконец открыта.
Новая архитектура транзисторов должна обеспечить дальнейший рост производительности интегральных схем и возможность перейти на более тонкие техпроцессы — вплоть до 1–2 нм.
В 2020 году компания TSMC объявила об активной разработке транзисторов нового поколения — GAAFET (Gate-All-Around Field-Effect Transistor). Поскольку «плавники» уже были неэффективны, инженеры решили порезать их на части. Так получились каналы, окруженные затвором со всех четырех сторон. Интересно, что впервые GAA-транзистор представили в 1988 году, однако до массового производства дело дойдет только в ближайшие годы.
Кольцевые затворы позволили реализовать каналы, сформированные из нескольких горизонтальных кремниевых «нанотрубок». Благодаря этому возможно преодолеть порог в 3 нм, а также существенно повысить эффективность управления транзисторами. С повышением плотности размещения удастся добиться прироста производительности и энергоэффективности.
Аналогично в 2020 году компания Samsung заявила о работе над GAAFET-транзисторами и взятии барьера в 3 нм на прототипах. Помимо этого фирма представила собственную вариацию — MBCFET. Разница в том, что используются не нанотрубки, а нанолисты. Последние предлагают лучший контроль токов, поскольку нанотрубки слишком тонкие.
У Intel эта разновидность получила название RibbonFET. Инженеры заявили, что предложат несколько вариаций с числом нанолистов от 2 до 5.
Samsung запустила в производство MBCFET (3GAE) в середине 2022 года и заявила о готовности поставок. Предполагалось, что Snapdragon 8 Gen 2 должен стать первым процессором с применением MBCFET 3нм. Однако в Qualcomm отдали предпочтение компании TSMC, выбрав 4 nm FinFET. В планах также выпуск процессора Exynos 2300 с использованием техпроцесса 3 нм и MBCFET транзисторов. Однако новостей от Samsung пока не последовало.
Таким образом, пока не выпущено ни одного массового продукта на базе GAAFET транзисторов. TSMC и Intel все еще масштабируют FinFET, но уже готовятся запускать производство новой технологии. К проблеме внедрения Gate-All-Around относится и большая стоимость создания из-за специфической структуры. Разработчики SoC пока не спешат отказываться от FinFET, с учетом того, что те предлагают вполне конкурирующую производительность и техпроцесс до 4 нм.
А что дальше?
Открыв для себя 3D-структуры, разработчики начали экспериментировать и предлагать куда более сложные архитектуры.
Например, Intel рассказал о комплементарном полевом транзисторе (CFET), предназначенном для 2,5 нм. В CFET идея состоит в том, чтобы наложить nFET и pFET структуры друг на друга. Такое «складывание» уменьшает площадь активной области ячейки и обеспечивает еще большую плотность.
Другая альтернатива — Forksheet FET, нацеленная на 2 нм. В этом исполнении структуры располагаются рядом и разделены диэлектрической стенкой. Преимущества все те же — возможность добиться куда большей плотности размещения транзисторов. Однако насколько эффективны предложенные архитектуры, предстоит только проверить.
Также IBM и Samsung работали над VTFET (Vertical Transport Field Effect Transistors). Это еще более сложная структура с вертикальным расположением транзисторов. Предполагается двойной прирост производительности или на 85 % меньшее потребление энергии, в сравнении с FinFET.
Конструкция CFET-транзистора предполагает расположение рядом друг с другом полупроводниковых элементов n-типа (pFET) и p-типа (pFET). В настоящий момент рассматривается два варианта CFET-транзисторов — монолитные (monolithic) и последовательные (sequential). Второй вариант отличается более высокой и широкой конструкцией. В правой части изображения ниже представлены четыре варианта конструкции CFET-транзисторов. Какой из них в конечном итоге выберет Intel — неизвестно. И узнаем мы это нескоро, поскольку Imec считает, что CFET-транзисторы появятся на рынке не ранее момента, когда техпроцесс производства чипов не сократится до уровня 5 ангстрем, что в свою очередь ожидается не ранее 2032 года.
Конечно, никто не исключает, что Intel не будет следовать этим временным рамкам и придёт к выпуску новых транзисторов гораздо раньше. Примечательно, что на продемонстрированном компанией изображении переход к CFET-транзисторам идёт после нанолистовых GAA-транзисторов RibbonFET, минуя разветвлённые GAA-транзисторы (forksheet GAAFET), которые рассматриваются отраслью в качестве переходного звена от нанолистов к CFET.
Однако не факт, что дойдет до практической реализации. Масштабирование ИС становится непомерно дорогим, поэтому производители все чаще прибегают к другим решениям. Например, все большую популярность набирают технологии компоновки чипов. Вместо того чтобы помещать все функции на один кристалл, предполагается разбивать устройства на более мелкие кристаллы и интегрировать их в корпус.
Насколько производительными будут будущие процессоры и видеокарты? Во многом это зависит от ключевого элемента всех сложных вычислительных блоков — транзистора. Уменьшение размеров транзистора лишь одна из тенденций, изменяется и структура. История развития и современность. Что такое Planar, FinFET и GAAFET-транзисторы?
Немного истории
Днем рождения транзистора считается 23 декабря 1947 года. Тогда Уолтер Браттейн и Джон Бардин продемонстрировали первый в мире транзистор с точечным контактом. Оба физика были членами исследовательской группы Bell Labs, искавшей новое средство усиления электрических сигналов.
В первой половине XX века для решения этой задачи инженеры-электрики полагались на вакуумные лампы, но устройства были громоздкими, хрупкими и потребляли много энергии. Руководитель Бардина и Браттейна — Уильям Шокли — предположил, что можно разработать более совершенный усилитель, используя ранее не изученные электрические свойства полупроводников.
Прошлое: вакуумные лампы и транзисторы Лилиэнфельда
Напомним, что транзистор в электронном устройстве играет роль своего рода переключателя и усилителя. Простыми словами, его основная задача — контролировать поток электрического тока и управлять им. По сути он работает как кран, контролирующий поток воды.
До появления транзисторов в электронных устройствах в качестве таких «кранов» использовались вакуумные лампы и механические реле. Они имели существенные недостатки с точки зрения размеров, энергопотребления и надежности.
Самыми распространенными типами вакуумных ламп в те времена были триоды, тетроды и пентоды.
Предок вакуумных ламп — диод — был изобретен в 1904 году Джоном Амброузом Флемингом. Затем в 1906 году доктор Ли де Форест изобрел «аудион», название которого было составлено из слов «audio» и «ion». Он обнаружил, что сетка из тонкой проволоки, помещенная между нитью накала и металлической пластиной в вакуумной лампе, может управлять потоком электронов, идущих между нитью накала и пластиной.
слева диод Флеминга, справа аудион де Фореста
Название «аудион» намекало на то, что устройство обнаруживало радиосигналы, служило выпрямителем (устройством, преобразующим переменный ток в постоянный) и было первым исключительно электронным компонентом, позволяющим усиливать электромагнитные сигналы. Именно способность усиливать сигналы отличала изобретение де Фореста от диода Флеминга.
Созданная в 1911 году и официально ставшая дочерней компанией AT&T в 1925 году, Bell Labs добилась первого крупного успеха в 1912 году, усовершенствовав вакуумные лампы, первоначально изобретенные Ли де Форестом в 1906 году.
Тетроды и пентоды, разработанные позднее, содержали дополнительные элементы для устранения недостатков триодов (аудионов). Тетроды имели четыре электрода, а пентоды — пять, что повышало их эффективность в различных приложениях.
Вакуумные лампы использовались в первых телефонных усилителях и позволили провести первую телефонную линию между Нью-Йорком и Сан-Франциско. В 1915 году в Арлингтоне, штат Вирджиния, инженеры-телефонисты соединили 500 вакуумных ламп, чтобы сгенерировать достаточную мощность для передачи человеческого голоса через Атлантику.
Лампы использовались для создания телевизоров, радаров, радио и рентгеновских аппаратов.
В самолете Б-29 вакуумные лампы отвечали за полет самолета, его курс и использовались в компьютерной системе наведения. От ламп зависело все электрооборудование, они выступали в качестве выключателей и усилителей для обогревателей, инструментов, радиоаппаратуры и двигателей.
При этом вакуумные лампы были непрочными, потребляли энергию, выделяли тепло и быстро перегорали, требуя серьезного обслуживания. Все это могло привести к поломке того устройства, где они использовались. Также для разогрева вакуумных ламп требовалось много времени, что было критично, если лампы служили, например, усилителями в судовом оборудовании для предупреждения торпедного удара. Неудивительно, что активно велись поиски более надежной и быстродействующей альтернативы вакуумным лампам.
Заменой вакуумной лампе могло стать нечто твердое и прочное.
Несмотря на то, что авторство транзистров закреплено за Бардином, Браттейном и Шокли из Bell Telephone Laboratories, идея впервые была высказана еще в 1920-х годах физиком австро-венгерского происхождения Юлиусом Эдгаром Лилиенфельдом.
Хотя Лилиенфельд и запатентовал эту концепцию, практическая реализация при его жизни не состоялась. Его изобретение, известное как транзистор Лилиенфельда, использовало принцип полевого эффекта для управления протеканием тока между двумя электродами. Однако из-за технологических ограничений того времени транзисторы Лилиенфельда так и не были созданы в виде функциональных устройств — до производства высококачественных полупроводниковых материалов оставалось еще несколько десятилетий.
В первых патентных заявках от 1925 и 1926 годов Лилиенфельд заявлял, что его твердотельный усилитель «относится к методу и устройству для управления протеканием электрического тока между двумя клеммами электропроводящего твердого тела путем установления третьего потенциала между этими клеммами».
В новой заявке 1928 года он уже более четко сформулировал свои цели: «создание простого, компактного и надежного устройства, которое при этом должно быть недорогим в изготовлении». Лилиенфельд утверждал, что его новое устройство «[может] работать в условиях гораздо более низкого напряжения, чем раньше».
Но как было сказано, технологии его эпохи еще не были готовы реализовать весь потенциал новаторских идей, и патенты прошли незамеченными. Однако идеи Лилиенфельда воплотили в себе принципы работы современного полевого транзистора (FET).
Уже потом, в 1988 году, Джон Бардин, выступая в Американском институте физики, признает заслугу Лилиенфельда в его работах по созданию полупроводникового усилителя. По словам самого Бардина, «у Лилиенфельда была базовая концепция управления током в полупроводнике для создания усилительного устройства. Потребовалось много лет, чтобы воплотить его мечту в реальность».
Попытки создать твердотельный усилитель предпринимались и в СССР. В 1922 году Олег Лосев приблизился к изобретению транзистора — он разработал первый двухтерминальный полупроводниковый прибор. Однако дальнейших исследований это изобретение не повлекло — устройство было нестабильно, а сама физика явления не до конца понятна.
Исследования в Bell Labs
За несколько лет до Второй мировой войны в Bell Labs начали проводить исследования полупроводников. Ученые изучали поведение кристаллов германия в попытках найти замену вакуумным лампам.
Исходя из этого, директор по исследованиям Мервин Келли определил приоритетное направление для исследований: изучение потенциала полупроводников. При этом физика полупроводников в то время была зарождающейся областью. Несмотря на то, что полупроводники уже использовались в некоторых электронных устройствах — радио и радарах — их было трудно производить, а теоретические знания об их внутреннем функционировании были ограничены. Квантовая физика же позволяла понять поведение полупроводников, но на очень ограниченном типе — оксиде меди.
В 1936 году Келли решил нанять докторов физики, в частности будущего нобелевского лауреата Уильяма Шокли. В Bell Labs был организован семинар, на котором рассказывалось о квантовой физике. Среди ученых был и Уолтер Браттейн.
Группа исследователей провела первую серию экспериментов, в которых пыталась воссоздать структуру вакуумных ламп в полупроводнике. Первая попытка с оксидом меди в 1939 году оказалась неудачной.
При этом в 1939 году было сделано одно из самых важных открытий — что типом проводимости полупроводника можно управлять с помощью легирования, то есть добавления небольшого количества примесей. Именно тогда полупроводники из разряда «грязи и бардака», как назвал их Паули в 1931 году, перешли в разряд божественных электронных материалов.
Тем временем началась Вторая мировая война, и исследования были отложены до лучших времен. Однако Bell Labs оказалась вовлечена в проект, который окажет огромное влияние на область полупроводников: RADAR. Для радаров было нецелесообразно использовать вакуумные лампы из-за их размера и хрупкости, поэтому их заменяли на полупроводники — германиевые и кремниевые. Для этого в Bell Labs были разработаны новые полупроводниковые диоды для выпрямления входящих коротковолновых сигналов радара.
После войны исследования в области физики твердого тела продолжились. В апреле 1945 года вернувшиеся с военной службы Шокли и Браттейн снова экспериментируют с новой конструкцией, основанной на так называемом «эффекте поля». Эксперименты с треском проваливаются.
Мервин Келли тем временем решает создать междисциплинарную группу для изучения физики твердого тела, основываясь на опыте проекта RADAR. В группу под руководством Шокли вошли исследователи, теоретики, химики, электронщики и т. д. Цель была простой: разработать усилитель на полупроводниках для применения в телефонной сети AT&T. Исследования были сосредоточены на германии и кремнии, которые показали свой потенциал во время войны.
В октябре 1945 года к команде присоединился Джон Бардин, только что защитивший докторскую диссертацию по квантовой физике. Шокли попросил его проверить правильность своих расчетов, чтобы понять неудачу апрельских экспериментов с Браттейном.
Бардин подтвердил расчеты и предположил, что неудача может быть вызвана эффектом «поверхностных состояний», который «задерживает» электрон на поверхности материала.
В ноябре 1947 года Бардин и Браттейн подтверждают эффект поверхностных состояний и показывают, как преодолеть его с помощью электролита. Это, по мнению Шокли, знаменует начало «волшебного месяца», который и приведет в конечном итоге к изобретению транзистора.
Транзистор с точечным контактом Бардина и Браттейна, 1947 г.
В декабре после очередной серии экспериментов Бардин предлагает перейти от кремния к так называемому «германию с высоким обратным напряжением». Бардин и Браттейн продолжают свои испытания с различными конфигурациями вплоть до декабря 1947 года, когда им наконец удалось получить значительное усиление.
Так появился первый транзистор, названный «транзистором с точечным контактом».
Но разумеется, дело на этом не закончилось — устройство было лишь прототипом, далеким от рабочего транзистора. Далее работа пошла в двух направлениях.
Была создана группа «фундаментальных разработок» под руководством Джека Мортона для создания рабочего устройства на основе декабрьского эксперимента Бардина и Браттейна.
Шокли же, раздосадованный тем, что не стал одним из изобретателей нового устройства, решил продолжить исследования усиления в полупроводниках на базе другой конструкции.
В январе 1948 года он предлагает новую конструкцию: транзистор с n-p-n структурой. Это был первый действующий биполярный транзистор.
Исследуя работу транзистора с точечным контактом, Джон Шайв, член группы полупроводников, решил испытать конструкцию, в которой два контакта располагались бы не рядом друг с другом, а по обе стороны от полупроводника. К его большому удивлению, это сработало.
Это подтвердило идею Шокли о возможности создания транзистора с переходом, которую он до сих пор держал в секрете от остальных членов команды. Позже Шокли признался, что работа команды представляла собой «смесь сотрудничества и конкуренции». Он также признал, что скрывал некоторые свои наработки, пока эксперименты Шайва не вынудили его открыться.
Интересно, что когда Bell Labs подавало заявку на патент, то выяснилось, что патент 1930 года Джулиуса Лилиенфельда, о котором шла речь выше, практически полностью совпадал с оригинальной идеей Шокли. А вот транзистор Бардина и Браттейна имел другую конструкцию. По этой причине Bell Labs подали заявку именно на транзистор Бардина и Браттейна. Шокли был раздосадован, поскольку хотел, чтобы в качестве изобретателя транзистора указали только его. Все это усилило напряжение и в без того холодных отношениях Шокли с его коллегами.
Fairchild Semiconductor
В 1953 году Шокли покинул Bell Labs, поскольку чувствовал себя обделенным в вопросах продвижения по службе и признания. Он вернулся в Калифорнию, устроился в Калтех, заключил сделку с профессором Калтеха и предпринимателем в сфере высоких технологий Арнольдом Бекманом и в 1955 году основал собственную фирму — Shockley Transistor Laboratory.
Поначалу Шокли думал, что ему удастся переманить инженеров из Bell Labs, однако никто из его бывших коллег не захотел с ним работать. В итоге ему все же удалось собрать отличную команду молодых ученых и инженеров, заманив их солнечной калифорнийской погодой. Шокли пообещал новым сотрудникам, что они будут разрабатывать «Святой Грааль» — кремниевый транзистор.
Роберт Нойс, один из изобретателей интегральной схемы и будущий основатель Intel, вспоминал про Шокли: «Я думал, что разговариваю с Богом».
Транзистор с точечным контактом имел весьма ограниченное применение, в основном в военной сфере. А вот биполярный транзистор Шокли, напротив, становится основой электронной революции.
В декабре 1956 года Шокли получил Нобелевскую премию по физике за изобретение транзистора. А тем временем недовольство сотрудников его стилем руководства росло — Шокли считали авторитарным и параноидальным.
Кроме того, ключевые сотрудники считали, что компании следует заняться более насущными возможностями производства кремниевых транзисторов, а не сложным четырехслойным p-n-p-n диодом, который Шокли придумал еще в Bell Labs для применения в телефонной коммутации.
По своим каналам в Bell Labs Шокли узнал, что Western Electric, производственное подразделение Bell System, предварительно планировало использовать подобные диоды для коммутации, и это могло стать первым большим рынком для полупроводников.
8 декабря 1956 года группа сотрудников Шокли написала Бекману письмо с описанием невыносимых условий труда: «Пожалуйста, срочно помогите нам!». Письмо было подписано старшими членами технического персонала. Через два дня Бекман встретился с командой — их предложение заключалось в следующем:
сосредоточить разработки только на биполярном кремниевом транзисторе;
назначить нового руководителя;
Шокли должен занять должность в Стэнфорде, быть техническим консультантом компании, но больше не руководить ею.
Однако после обсуждений с Шокли Бекман решил ничего не менять — авторитет Нобелевского лауреата, возглавляющего компанию, был слишком велик.
В результате восемь ключевых сотрудников STL, ставшие затем известными как «Вероломная восьмерка», обратились к Шерману Фэйрчайлду, который руководил Fairchild Camera and Instrument. Его компания занималась исследованиями в области камер и спутников и тесно сотрудничала с военными и Министерством обороны США.
19 сентября 1957 года «Восьмерка» подписала соглашение о создании корпорации Fairchild Semiconductor (FSC) по адресу 844 South Charleston Road. Можно сказать, что в этот день родилась Кремниевая долина.
Вскоре в Fairchild Semiconductor перешли и другие сотрудники Шокли — от техников до докторов наук. В течение следующего десятилетия Fairchild превратилась в одну из самых важных и инновационных компаний в полупроводниковой промышленности, заложив технологические и культурные основы Кремниевой долины и выделив десятки новых высокотехнологичных стартапов, включая Advanced Micro Devices (AMD) и Intel.
Шокли тем временем продолжил работу над своим четырехслойным диодом, и хотя его фирма в итоге не стала прибыльной, он навсегда вошел в историю как человек, который «принес кремний в Долину».
Его компания SSL стала отличным стартом для будущих лидеров полупроводниковой промышленности — Fairchild Semiconductor.
В 1960 году Бекман продал SSL корпорации Clevite. Шокли стал профессором электротехники и прикладных наук в Стэнфордском университете.
Европа изобретает транзистор
Важно отметить, что транзистор, как и многие другие изобретения — это результат работы множества людей и продукт своей эпохи. Новаторские открытия многих поколений ученых привели в конечном счете к производству полупроводникового материала, а затем и транзистора.
В Bell Labs изобретению транзистора способствовали новые методы управления исследованиями, разработанные в рамках крупных проектов Второй мировой войны. И во многом это заслуга Мервина Келли, который создал междисциплинарную исследовательскую группы по полупроводникам под руководством Шокли.
Сам Шокли вспоминал:
«Ключевой стимул, побудивший меня задуматься о транзисторах, исходил от доктора Келли, который в то время был директором по исследованиям в BL. Эту должность он занимал до того, как стал президентом несколько лет спустя.
Доктор Келли посетил меня, чтобы подчеркнуть свою цель — внедрить электронную коммутацию в телефонную систему. Он сказал, что с нетерпением ждет, когда металлические контакты, которые использовались на телефонных станциях для установления соединений при наборе номеров, будут заменены электронными устройствами.
Его интерес к поставленным целям был очень велик. Он так ярко подчеркнул их важность, что это произвело на меня неизгладимое впечатление».
Основной теоретический вклад в квантовую механику и физику твердого тела, без которого транзистор не состоялся бы, был сделан в Европе. Кроме того, в начале Второй мировой войны британская секретная радарная программа была более продвинутой, чем американская, пока обе страны не начали сотрудничать. Но важной причиной изобретения транзистора именно в США в 1947 году было то, что Европа была разрушена войной.
При этом в Европе тоже заявляли на авторство транзистора.
В 1948 два физика из немецкой радарной программы, Герберт Матаре и Генрих Велькер, утверждали, что, работая в лаборатории французской компании F&S Westinghouse, расположенной в окрестностях Парижа, изобрели поразительно похожее полупроводниковое устройство, которое назвали транзистроном.
Поскольку французские инженеры не обладали знаниями в области физики твердого тела и радарных технологий, компания наняла двух немецких ученых, известных своим опытом работы в военное время.
Матаре и Велькер проводили эксперименты около трех лет. В 1946 году Westinghouse подписала контракт с Министерством почт, телеграфов и телефонов. Правительство намеревалось модернизировать свою телекоммуникационную систему и хотело получить национальные поставки полупроводниковых ретрансляторов, которые могли бы заменить вакуумные ламповые реле в телефонии. Военные нуждались в полупроводниковых диодах для использования в качестве выпрямителей в радарах.
В 1947 году Матаре начал исследовать странное явление под названием «интерференция», которое во время войны наблюдал в германиевых выпрямителях. Если два точечных контакта находились на достаточно близком расстоянии, в пределах 100 микрометров друг от друга, потенциал на одном из них мог влиять на ток, протекающий через другой. Похожую ситуацию наблюдали Бардин и Браттейн.
В 1948 году в результате дальнейших экспериментов Матаре добился спорадического усиления электрических сигналов. К июню этого года вместе с Велькером он получил устойчивые, воспроизводимые результаты, используя более чистые образцы германия. Но месяц спустя исследователи узнали удивительную новость — Bell Labs только что изобрела аналогичный полупроводниковый усилитель. Тогда компания Westinghouse поспешила запустить в производство свое устройство под названием «транзистрон», чтобы отличать его от американского аналога.
К середине 1949 года были выпущены тысячи таких устройств. Они использовались в качестве усилителей во французской телефонной системе. Спустя время громоздкие устройства с точечным контактом были вытеснены транзистором с переходом.
Матаре вернулся в Германию и в 1952 году стал одним из основателей компании Intermetall по производству диодов и транзисторов. Велькер перешел на работу в Siemens, став в итоге директором по исследованиям.
Матаре вспоминал, что в 1950 году его парижскую лабораторию посетил Уильям Шокли и увидел использование транзистрона. Был сделан телефонный звонок, в ходе которого транзисторные ретрансляторы по сети передали голосовой сигнал в Алжир.
«Я не хочу ничего отнимать у Bell Labs. Я был поражен их работой. Нобелевские лауреаты из Bell Labs — Джон Бардин, Уолтер Браттейн и Уильям Шокли — они были великолепны!» — признавал Матаре.
Эволюция производства и уменьшение размера
А что было дальше?
Первые транзисторы были длиной в сантиметр, а уже к концу 1950-х годов их размеры измерялись миллиметрами.
Изобретение интегральной схемы в 1958 году позволило уменьшить размер транзисторов до субмикронного уровня: менее миллионной доли метра.
Соучредитель компании Fairchild Роберт Нойс придумал использовать металлический алюминий, нанесенный поверх слоя Эрни, для избирательного соединения транзисторов, резисторов и других компонентов на кремниевой подложке — так была создана интегральная электронная схема (ИС). В марте 1961 года Fairchild представила свою первую ИС, или микрочип, — цифровую логическую функцию, состоящую всего из четырех транзисторов и пяти резисторов.
Компания также изобрела ряд дополнительных транзисторов, в том числе MOSFET или MOS-транзистор.
В середине 1950-х годов последовало несколько знаковых открытий и продуктов:
26 января 1954 года Bell Labs разработала первый рабочий кремниевый транзистор.
В конце 1954 года компания Texas Instruments создала первый коммерческий кремниевый транзистор.
В октябре 1954 года был выпущен первый транзисторный радиоприемник Regency TR-1.
В 1957 году был выпущен первый массовый транзисторный радиоприемник Sony TR-63. Он разошелся тиражом семь миллионов экземпляров, что привело к массовому распространению транзисторных радиоприемников на рынке в конце 1950-х и начале 1960-х годов.
К 1960-м годам транзисторная технология стала доминирующей технологической силой. Устаревшие вакуумные лампы были вытеснены.
В 1965 году Гордон Мур предсказал, что количество транзисторов в микрочипах будет удваиваться каждые два года. Закон Мура определяет линейную зависимость плотности транзисторов от времени. В 1970 году в микросхемах было около 2000 транзисторов. С 1971 года плотность транзисторов в логических схемах увеличилась более чем в 600 000 раз.
Венцом всех этих усилий стала возможность интегрировать миллионы и даже миллиарды транзисторов в одну из самых сложных систем на планете: процессоры.
Например, в процессорах современных смартфонов используется в среднем 10 миллиардов транзисторов — число, которое было бы немыслимо для Бардина, Браттейна и Шокли.
Интегральные схемы, разработанные в 1960-х годах, использовали традиционную планарную структуру для создания базовых цифровых схем
Однако в последующие десятилетия промышленность начала переходить на новую архитектуру: в 2011 году появились транзисторы FinFET (fin field effect), а с 2017 года началась разработка GAA (gate-all-around).
GAA — очень важная технология, поскольку позволяет транзисторам проводить больший ток при сохранении относительно небольшого размера: так, производительность повысится на 25%, а энергопотребление снизится на 50%. В случае с finFET оба показателя находятся в диапазоне от 15 до 20%.
Стремление уменьшить транзисторы связано с одним простым правилом — чем их больше, тем выше производительность микросхемы. В современных процессорах насчитывается больше 10 миллиардов транзисторов и это число постепенно увеличивается.
Planar FET
Планарный транзистор долгое время был основой — приблизительно до 2012 года. Структура достаточно простая — вокруг истока и стока находится область n-проводимости, сформированная внесением в кремний соответствующих примесей. Подложка изначально имеет p-проводимость. Затвор — это управляющий элемент. Подавая на него определенный потенциал, вы можете контролировать ток, протекающий от истока к стоку.
Представьте себе водопроводную трубу. Затвор — это своеобразный вентиль, которым вы можете регулировать ширину канала. По мере совершенствования оборудования транзисторы Planar FET уменьшались в размерах без каких-либо проблем. Однако дойдя до 22 нм, инженеры столкнулась с несколькими сложностями.
Уменьшение длины затвора приводило к тому, что канал становился слишком тонким. Как итог — самопроизвольное туннелирование электронов от истока к стоку. Проще говоря, даже при закрытом кране у вас все равно была утечка. Дополнительно из-за уменьшения площади затвора падала и эффективность управления каналом. Транзистор переставал быть контролируемым.
Фактически, известный закон Мура должен был умереть — уменьшать размеры дальше было просто невозможно. Обойти это ограничение сумели изменением архитектуры самого транзистора.
FinFET
Решение нашлось в переходе от 2D к 3D структуре. Проблемой планарных транзисторов был затвор, который неэффективно нависал над каналом. Инженеры решили вытянуть канал в своеобразный плавник («fin») и получить полноценную 3D структуру. Это позволило перейти на техпроцесс 22 нм и меньше. Компания Intel была первой, кто использовал технологию FinFET в 2012 на процессорах Ivy Bridge.
Что же дали на практике такие плавники? Во-первых, затвор теперь обтекает канал с трех сторон. После подачи напряжения на затвор, электроны вытягиваются из глубины к вершинам гребней, где и формируется канал. Вся активная зона располагается в верхушке плавников, поэтому утечка токов подложки минимальна.
Во-вторых, существенно повысилась эффективность управления, поскольку затвор «обволакивает» канал с трех сторон, а не с одной как это было у планарной технологии. Производители часто используют конструкции с 2–3 гребнями, что позволяет увеличить ток транзистора. Разрешение фотолитографического оборудования влияет непосредственно на шаг между гребнями.
Технология FinFET является преобладающей, первыми ее освоили три крупнейших игрока на рынке — Intel, Samsung и тайваньская TSMC. Позже — и китайская компания SMIC. Почти вся высокопроизводительная электроника использует процессоры с транзисторами FinFET.
Однако и это решение постепенно исчерпывает свой ресурс. Проблема в том, что с уменьшением затвора располагать плавники все ближе друг к другу становится проблематичным. Дополнительно приходится каждый раз все больше вытягивать гребни в высоту. Пока это удавалось делать, но технология уже исчерпывает себя на техпроцессах в 5–3 нм.
Именно поэтому ведущие игроки вроде TSMC и Samsung не только ведут исследования по масштабированию FinFET, но и работают над новой перспективной архитектурой.
Продукция компании Intel наверняка знакома каждому, кто хоть раз пользовался персональным компьютером. В первую очередь это о процессорах: кремниевыми сердцами более чем двух третей компьютеров по всему миру являются именно ЦП Intel. В цикле больших материалов вспоминаем путь большого гиганта с самого начала: как развивались процессоры Intel и какие взлеты и падения ожидали их на протяжении более 50 лет. Часть первая, начало: с первых процессоров до легендарной архитектуры Core.
Хронология появления "ЦП Intel"
4-бит: 4004 и 4040
8-бит: 8008, 8080 и 8085
16-бит: 8086, 80186 и 80286
32-бит: 80386 и 80486
Pentium I-II-III: P5 и P6
Pentium 4: NetBurst
Core, начало: Core Duo и Core 2 Duo/Quad
4-бит: 4004 и 4040
В 1969 году с заказом к Intel обратился японский производитель калькуляторов Busicom. Для новой модели ему потребовалось 12 микросхем, каждая из которых должна была предназначаться для выполнения узкоспециализированных задач. В те годы такое было нормой — почти для каждой новой модели калькулятора разрабатывались собственные чипы. Универсальность отсутствовала, и это было крайне непрактично.
Один из сотрудников Intel предложил использовать вместо множества микросхем для расчетов центральный процессор, который самостоятельно будет выполнять все арифметико-логические функции. Идея была одобрена, и в проекте новой компоновки общее число микросхем сократили до четырех — это были центральный процессор, оперативная память, блок постоянной памяти и микросхема ввода-вывода. Разработка чипов по проекту началась в апреле 1970 года.
15 ноября 1971 микропроцессор Intel под кодовым названием 4004 вышел в свет. Помимо статуса первенца для компании, этот чип считается первым в мире коммерчески доступным однокристальным процессором. Четырехбитный ЦП производился по технологическим нормам 10 мкм. Чип мог работать на частоте до 740 кГц и состоял из 2300 транзисторов. Он имел 16 регистров и поддерживал 46 инструкций. Адресуемая память составляла 640 байт, а память для команд — 4 КБ.
Компания Intel предугадала роль микропроцессоров в развитии и минитюаризации будущих компьютеров, и выкупила авторские права на 4004 у Busicom. Несмотря на то, что 4004 не сыскал особой популярности и не бил рекорды продаж, именно с него начинается история современных однокристальных процессоров.
Год спустя компания выпускает улучшенного преемника 4004 под названием Intel 4040. Набор инструкций был расширен до 60, количество регистров — до 24, память команд — до 8 КБ. За счет большего числа контактов процессор получил поддержку прерываний. При всем этом 4040 был программно совместим с предшественником, неизменными остались техпроцесс и тактовые частоты. Процессор нашел применение в игровых устройствах и различных микроконтроллерах.
8-бит: 8008, 8080 и 8085
История появления первого 8-битного процессора компании под названием Intel 8008 в чем-то схожа с четырехбитным первенцем 4004. Изначально его разработку заказала компания Computer Terminal Corporation (CTC) для применения в своем новом терминале. Как и в случае с 4004, планировалось разместить компоненты на нескольких микросхемах, но история с предложением объединить их на одном чипе повторилась. Когда процессор был уже почти готов, CTC отказывается от проекта, ссылаясь на временную задержку и неудовлетворенность рабочими характеристиками. Договор между компаниями был разорван, и теперь Intel имела полное право продавать чип другим компаниям. После некоторых доработок изначального проекта, 1 апреля 1972 года был анонсирован микропроцессор Intel 8008, положивший начало 8-битной эре продуктов компании.
Помимо 8-битных регистров, процессор поддерживал 14-битную адресацию памяти, за счет чего мог использовать до 16 КБ ОЗУ. Как и предшественники, производился он по техпроцессу 10 мкм. Практически аналогичны четырехбитному собрату и тактовые частоты — до 800 кГц. Процессор нашел применение в калькуляторах, терминалах, автоматах по продаже напитков и таких миникомпьютерах, как Mark-8 и Scelbi-8N.
Ровно спустя два года, 1 апреля 1974 года, был представлен следующий процессор серии — Intel 8080. Адресация памяти была расширена до 16-битной, что позволило увеличить максимальное количество ОЗУ до 64 КБ. Система команд подверглась переработке: новый чип стал поддерживать до 80 различных инструкций. Однако он, как и предшественники, все также не умел выполнять операции умножения и деления — их приходилось реализовывать с помощью подпрограмм или применять внешние сопроцессоры-чипы Intel 8231 и 8232.
У 8080 значительно выросла тактовая частота — уже в первых экземплярах она составляла 2 МГц, а в более поздних доходила до 4 МГц. Это было заслугой нового 6 мкм техпроцесса. По утверждению компании, процессор был производительнее предшественника до 10 раз. Чип применялся в персональных компьютерах, одним из которых являлся Altair 8800, а также в устройствах управления уличным освещением, светофорах и прочем оборудовании.
Спустя еще два года Intel выпустила микропроцессор 8085, усовершенствованную модель на базе 8080. Был устранен главный недостаток предшественника — теперь чип требовал только одного источника питания +5В, тогда как предшественник нуждался в целых трех напряжениях: +5В, -5В и +12В. Процессор производился по более тонкой технологии 3 мкм, что дало возможность поднять тактовую частоту до 6 МГц в поздних реализациях. Вдобавок была немного расширена поддержка инструкций. Помимо персональных компьютеров, чип использовался во многих бортовых компьютерах космических аппаратов NASA.
16-бит: 8086, 80186 и 80286
8 июня 1978 года компания выпускает первый 16-битный процессор Intel 8086. Архитектура команд, реализованная в процессоре, стала основой современной архитектуры x86 — той самой, которая и сегодня стоит в основе практически любого процессора, используемого в персональном компьютере или ноутбуке.
Помимо удвоенной шины данных, 8086 получил 20-битную адресацию памяти. Это позволяло использовать до 1 МБ ОЗУ, которые делились на 640 КБ основной и 384 КБ расширенной. Первые процессоры серии работали на 4 МГц, но со временем появились варианты, способные работать на частотах вплоть до 16 МГц. Как и 8085, чип производился по 3 мкм технологии.
Изначально 8086 использовался в промышленных системах. В компьютерах он был редким гостем, так как был очень дорог. Intel предвидела это, и еще на этапе разработки спроектировала упрощенный вариант чипа. Им стал 8088, вышедший годом позже и сохранивший основные преимущества старшего брата, но получивший урезанную с 16 до 8 бит внешнюю шину. Новая модель с прочими необходимыми микросхемами обходилась гораздо дешевле, поэтому быстро стала популярна в качестве основы для множества персональных компьютеров, самыми известными из которых являются IBM PC и IBM PC/XT.
Процессоры Intel 8086 и 8088 поддерживают 98 различных инструкций. Но для выполнения операций с плавающей запятой им требуется сопроцессор, как и прежде. В этом поколении компания впервые объединила арифметический процессор и процессор операций с плавающей точкой в одну микросхему Intel 8087. Ее выпустили ее в 1980 году. Специально для 8087 было разработано 60 новых инструкций, позже ставших основой для стандарта IEEE 754. В честь сопроцессора был назван набор инструкций для работы с математическими вычислениями x87.
Следующий процессор серии увидел свет в начале 1982 года. 80186 стал усовершенствованным вариантом модели 8086 и включал в себя два контроллера прямого доступа к памяти. В чип интегрировали множество различных вспомогательных микросхем, которые ранее распаивались отдельно. К набору команд прибавилось 17 новых.
Благодаря улучшенному 3 мкм техпроцессу удалось значительно снизить энергопотребление, что позволило создать как экономичные разновидности процессора, так и производительные с гораздо более высокой частотой до 25 МГц. Помимо настольных компьютеров, экономичные версии 80186 нашли применение в КПК. Как и 8086, 80186 получил и упрощенную разновидность с 8-битной внешней шиной — ею стал Intel 80188.
Разработка модели 80286 велась параллельно с 80186. Но, если 80186 является лишь усовершенствованным и более интегрированным решением, чем предшественник 8086, то изменения в 80286 куда глубже. Самым главным нововведением стал защищенный режим, который за счет изменения механизма адресации памяти позволяет адресовать до 16 МБ физической ОЗУ и до 1 ГБ виртуальной. Это позволило снять ограничения реального режима исполнения и избавиться от проблемы недостатка ОЗУ для сложных задач, но требовало изменений в программном обеспечении. Старое ПО все также могло использовать реальный режим, где адресовался максимум 1 МБ ОЗУ.
В связи с реализацией нового режима к 14 регистрам, передавшимся по наследству от 8086, добавили еще 11 новых. Набор инструкций также был расширен на 16 новых команд, многие из которых предназначались для управления памятью. Для нее 80286 получил 24-битную адресацию.
Intel продавала лицензии на производство чипа, благодаря чему другие компании выпускали многочисленные клоны 80286, что поспособствовало его популярности. Техпроцесс 1.5 мкм позволил увеличить частоту с начальных 3 МГц до 25 МГц в поздних реализациях. Помимо всех преимуществ, которые давал расширенный режим, процессор превосходил 8086 в чистой производительности от трех до шести раз. Чип стал сердцем большого количества разнообразных компьютеров, одним из которых стал IBM PC AT.
32-бит: 80386 и 80486
Intel торопилась создать 32-битный процессор, ведя разработку параллельно с 8- и 16-битными моделями. Анонс первой 32-битной модели состоялся уже в 1981 году. Чип iAPX 432 разрабатывался на новой архитектуре Intel Advanced Performance, которая должна была стать заменой x86. Система команд процессора отличалась от предшествующей и была намного сложнее.
Компания называла новый ЦП «микромейнфреймом», который предназначался для программирования на языках высокого уровня с аппаратной поддержкой многозадачности и управления памятью. Каждая команда для него может содержать внутри себя несколько команд и операндов. К сожалению, сложная архитектура и низкая производительность в ряде задач были «палками в колесах» нового чипа. Было невозможно создать эффективную реализацию, используя полупроводниковые технологии того времени. Тестовые образцы состояли из двух чипов, при этом процессор получился очень дорогим и медленным, вследствие чего так и не попал в массовое производство.
Первым массовым 32-битным процессором компании в 1985 году стал Intel 80386. При совместимости с программным обеспечением для предшественников, внутреннее устройство архитектуры x86 было серьезно доработано. Стали использоваться 32-битные регистры, шина данных с аналогичной шириной и такая же адресация физической памяти. Благодаря этому стало возможным избавиться от сегментации памяти, которая была ограничением еще со времен 8086.
Модель получила новый способ управления памятью — страничное преобразование. Максимальный объем поддерживаемой физической памяти достиг 4 ГБ, а виртуальной, благодаря 46-битной адресации, целых 64 ТБ. Помимо этого, была улучшена поддержка многозадачности и добавился виртуальный режим, предназначенный для выполнения старых программ реального режима под операционной системой, использующей защищенный режим. Набор команд был расширен в основном новыми 32-битными вариантами существующих 16-битных инструкций — их общее количество теперь составляло 150.
В серию 80386 вошли несколько моделей процессоров с частотой от 12 до 40 МГц. Изначально был выпущен полноценный 386DX, и только через несколько лет его упрощенные версии — 386SX (1988), 386SL (1990) и 386EX (1994). Они довольствовались внешней 16-битной шиной и ограниченной адресацией памяти: 24 или 26 бит. При производстве различных моделей применялись технологии 1.5 и 1 мкм.
Разновидности Intel 80386 были довольно популярны на протяжении нескольких лет, и лишь в 1989 году компания представила его последователей — процессоры серии 80486. В чипы был впервые интегрирован математический сопроцессор FPU и кеш-память первого уровня L1 объемом 8 или 16 КБ, а также были добавлены новые инструкции для работы с ней. Ранее располагавшаяся на материнской плате микросхема кеш-памяти тоже осталась, но теперь выполняла функции кеша второго уровня L2.
Самым главным нововведением стало использование множителей. Теперь частота процессора не была равна частоте его шины, а определялась коэффициентом умножения. Это позволило значительно увеличить производительность за счет роста тактовой частоты, которая в поздних моделях могла достигать планки в 100 МГц. Помимо отличающихся частот, модели серии делились на полноценные DX и урезанные SX. У последних встроенный FPU был отключен в кристалле или полностью отсутствовал.
В этом поколении процессоры обзавелись сокетным исполнением PGA, распаивались на плате теперь в основном вариации ЦП для встроенных систем. Изначально использовался Socket 1 со 169 контактом, позже стали доступны варианты для Socket 2 и его усовершенствованной версии Socket 3 с 237/238 контактами. Первые чипы серии производились по технологии 1 мкм, более поздние перешли на усовершенствованный 0.6 мкм техпроцесс.
Pentium I-II-III: P5 и P6
Изначально Intel собиралась назвать пятое поколение процессоров 586, но не смогла зарегистрировать цифры в качестве торговой марки, чтобы обезопасить себя от появления различных клонов ЦП. Поэтому в качестве названия было выбрано «Pentium», происходящее от древнегреческого πέντε, что значит «пять».
Pentium первого поколения были представлены 22 марта 1993 года. Главным новшеством семейства процессоров стала суперскалярная архитектура P5. Процессоры обзавелись двумя конвейерами, за счет чего могли выполнять две инструкции за такт одновременно — правда, для этого старым программам требовалась перекомпиляция. Для более эффективной работы суперскалярности был внедрен механизм предсказания адресов ветвления.
Не менее важным нововведением стала 64-битная шина данных, которая позволила в два раза ускорить обмен информацией с ОЗУ. Другим новшеством в подсистеме памяти стало разделение кеша L1 на две одинаковые части: для данных и для инструкций. Его общий объем при этом составил 16 КБ. Математический сопроцессор FPU получил ряд улучшений, которые значительно ускорили исполнение некоторых инструкций.
В 1997 году на смену изначальной модели пришел Pentium MMX — усовершенствованная версия процессора с поддержкой 64-битных мультимедийных инструкций MultiMedia eXtension. Благодаря ей обновленные ЦП стали значительно быстрее в мультимедийных приложениях: при должной оптимизации ПО ускорение могло превышать полуторакратное. Набор MMX добавлял 57 новых инструкций, и для более эффективного их исполнения кеш L1 был увеличен до 32 КБ.
Первые Pentium использовали в качестве напряжения питания 5 В, но уже с выходом второй волны моделей оно было понижено до 3.3 В. У моделей с MMX напряжение снизили до 2.8 В. В связи с этим менялся и процессорный разъем. У первых моделей использовался Socket 4 с 273 контактами, у более поздних — Socket 5 и Socket 7 с 320/321 контактами. Помимо этого, выпускались специальные модели Pentium Overdrive с 32-битной шиной и встроенным преобразователем напряжения для модернизации старых систем на Socket 2 и Socket 3.
Изначально представленные модели работали на частоте 60 и 66 МГц, более поздние могли похвастаться частотой до 233 МГц. В процессе эволюции различные модели производились по разным техпроцессам: 800, 600, 350 и 280 нм. Pentium стали первыми массовыми процессорами с довольно большим тепловыделением TDP — до 16 Вт. Из-за этого им стало требоваться активное охлаждение с помощью вентилятора.
Параллельно с Pentium компания занималась разработкой другой процессорной архитектуры P6, впервые ставшей основой процессоров Pentium Pro, а позже и их последователей — Pentium II и III. Pentium Pro были анонсированы в конце 1995 года как процессоры для серверов и рабочих станций. Они официально поддерживали многопроцессорную конфигурацию — до четырех ЦП в одной системе. Специально для процессоров был разработан новый Socket 8, содержавший 387 контактов.
Архитектура P6 значительно отличается от более ранней P5. Сердцем Pentium Pro является RISC-ядро, исполняющее сложные инструкции не напрямую, а предварительно декодировав их в более простые операции. Конвейер архитектуры имеет глубину в 12 стадий. В отличие от предшественников, ядро может изменять порядок выполнения инструкций благодаря новой технологии динамического исполнения. При этом количество исполняемых за такт инструкций возросло до трех. Данные улучшения значительно увеличивают скорость вычислений в оптимизированном 32-битном программном обеспечении, несмотря на аналогичные обычному Pentium тактовые частоты — от 150 до 200 МГц.
В процессор был впервые интегрирован огромный по меркам того времени кеш L2, который выполнялся в виде отдельного кристалла объемом 256 или 512 КБ. Позже были выпущены модели с двумя кристаллами кеша общим объемом 1024 КБ. Новинкой стала двойная независимая шина: FSB отвечает за связь ЦП с чипсетом, BSB — за связь ЦП с кешем L2, что позволило увеличить пропускную способность и избавиться от «узких» мест. Из-за многокристальной компоновки тепловыделение процессора значительно повысилось, и, несмотря на техпроцесс 500 нм (а позже и 350 нм), составляло от 30 до 47 Вт.
Pentium Pro сложно назвать массовым процессором. Он был очень дорог, имел проблемы с производительностью в 16-битных приложениях и не поддерживал технологию MMX, все больше набирающую обороты в мультимедийном ПО. Эти проблемы Intel решила в 1997 году запуском следующего процессора серии — Pentium II.
В основе Pentium II лежит доработанное ядро Pentium Pro. Производительность 16-битного кода была повышена, кеш L1 увеличен с 16 до 32 КБ. Процессор отказался от сокетного исполнения и заключался в специальный картридж с собственной платой. Помимо самого ЦП на ней распаивались микросхемы кеш-памяти L2. Это удешевляло конструкцию по сравнению с интеграцией второго кристалла рядом с ядром, как в Pentium Pro. Разъем получил название Slot 1 и содержал 242 контакта. Для модернизации систем на Pentium Pro были выпущены процессоры Pentium II Overdrive, предназначенные для установки в Socket 8.
Тактовые частоты различных моделей Pentium II составляли от 233 до 450 МГц. Первые десктопные процессоры серии, производимые по 350 нм техпроцессу, использовали напряжение питания 2.8 В, достигая TDP в 43 Вт. Для поздних версий на обновленном ядре стал использоваться более тонкий 250 нм техпроцесс. Напряжение снизили до 2 В, вместе с ним упала и мощность до 27 Вт. В этом поколении впервые появились мобильные разновидности чипов, предназначенные для ноутбуков. У них напряжение питания было понижено до 1.5-1.6 В.
Для конкуренции в бюджетном сегменте Intel представила процессоры Celeron, имеющие то же ядро, что и Pentium II, только без кеша L2 в картридже. Однако новинку ждал провал: без кеша во многих задачах она умудрялась уступать даже устаревшему Pentium MMX. Компания поняла ошибку и следующим шагом выпустила обновленные версии процессоров с кешем L2 в 128 КБ. Благодаря малому объему удалось интегрировать кеш в само ядро. В связи с таким расположением стало возможным поднять частоту его работы до частоты ядра. Это давало преимущество в производительности по сравнению с Pentium II в некотором ПО, особенно в играх — ведь у него кеш, хоть и больший по объему, работал лишь на половине этой частоты.
Эти наработки нашли применение в следующей серии процессоров – Pentium III, представленной в начале 1999 года. Первые модели все так же использовали Slot 1, однако уже вторая волна чипов получила интегрированный кеш L2 и исполнение Socket 370, с которого пошла традиция использовать названия по количеству контактов. Третье поколение Pentium все также основано на архитектуре P6, но впервые обзавелось новым набором 128-битных инструкций SSE. Помимо этого, значительно возросшие частоты — от 450 МГц до 1.4 ГГц — поспособствовали ощутимому приросту производительности по сравнению с предшественниками.
Объем кеша L2 у различных моделей составлял от 256 до 512 КБ. Как и в прошлом поколении, помимо моделей Pentium были выпущены и Celeron, отличавшиеся более низкой частотой шины и урезанным кешем L2. На протяжении выпуска различных моделей совершенствовалась технология производства: сначала 250, потом 180, и, наконец, 130 нм. Вместе с техпроцессами снижалось и напряжение питания — с 2 В у первых моделей до 1.5 В у последних. Процессоры серии обладают TDP в диапазоне от 26 до 37 Вт.
Pentium 4: NetBurst
Архитектура P6 была достаточно успешной, но к концу 20 века между производителями процессоров все больше набирала обороты гонка тактовых частот. Intel сделала ставку именно на это при разработке новой архитектуры NetBurst, пожертвовав производительностью на такт. 20 ноября 2000 года был представлен первый процессор на новой архитектуре — Pentium 4.
Первая версия Netburst, применявшаяся в новинках, имела конвейер глубиной в 20 стадий — намного длиннее, чем 12 стадий в P6. Эта особенность дает возможность использовать более высокие частоты, но производительность начинает страдать сильнее при промахе кеша или неверно предсказанном переходе. Для смягчения этих явлений был внедрен новый алгоритм предсказания ветвлений и увеличен их буфер. Также было решено отказаться от применявшегося до этого кеша инструкций, заменив его на кеш микроопераций. Емкость последнего составила 12 000 микроопераций. Традиционный кеш L1 для данных при этом сохранился, добавилась поддержка инструкций SSE2.
Новшеством стала шина Quad Pumped Bus, передающая данные на скорости, в четыре раза превышающей ее физическую частоту. Уже первые модели обладали FSB частотой 400 МГц, у более поздних это значение достигало 800-1066 МГц. Такая реализация позволяет процессору значительно быстрее общаться с памятью и другими компонентами системы.
Архитектура изначально поддерживает технологию Hyper-Threading, представляющую одно физическое ядро как два логических, и тем самым позволяющую обрабатывать два потока вычислений одновременно. Впервые ее поддержка была задействована во втором поколении ядер под кодовым названием Northwood, чем они и отличаются от первой версии ядер под названием Wilamette.
А вот третье поколение ядер Prescott получило куда более глубокие изменения. Архитектура NetBurst была доработана, длина конвейера увеличилась еще больше — до 31 стадии. В связи с более длинным конвейером был в очередной раз улучшен предсказатель ветвлений и размеры кешей: L1 — с 8 до 16 КБ, L2 — с 512 до 1024 КБ. На одинаковой частоте с предшественником ядро стало медленнее, но это компенсировалось более высокими тактовыми частотами за счет новых техпроцессов. Помимо этого, появилась поддержка новых инструкции SSE3.
Первыми 64-битными процессорами компании стали ЦП серверного семейства Itanium, выпущенные в 2001 году. Однако они были основаны на архитектуре IA-64, несовместимой с x86. Массовые процессоры пошли по другому пути и стали использовать 64-битное развитие архитектуры x86 под названием x86-64, разработанное AMD. Именно Prescott стал первым поколением ядер x86 компании Intel, получившим поддержку 64-битных вычислений. Благодаря этому удалось преодолеть барьер в 4 ГБ оперативной памяти, свойственный более ранним процессорам.
Помимо Pentium 4, в этом и предыдущих поколениях ядер архитектуры NetBurst выпускались также бюджетные процессоры Celeron, утратившие поддержку Hyper-Threading и обладавшие меньшим кешем L2: 128 КБ в первых двух поколениях и 256 КБ — в третьем.
Для первых процессоров Pentium 4 был разработан Socket 423, более поздние получили исполнение Socket 478. На обоих сокетах выпускались платы с поддержкой памяти ОЗУ типа SDRAM. На Socket 478 изначально появилась поддержка дорогой и не получившей успех памяти RDRAM, а чуть позже — популярной массовой DDR первого поколения, вместе с которой в массовые платформы впервые пришел двухканальный режим ОЗУ. Поздние Pentium 4 выпускались для Socket 775 с исполнением LGA — контактными площадками в сокете, в отличие от более старых PGA, предназначенных для процессоров с контактными ножками. Платы для нового сокета оснащались поддержкой памяти DDR1 или DDR2.
Чем дальше развивалась архитектура NetBurst, тем горячее становились процессоры, несмотря на совершенствование технологических норм производства. Модели, основанные на Wilamette, производились по 180 нм технологии, работали при напряжении около 1.7 В и выделяли до 100 Вт тепла. Pentium 4 на базе Nothwood использовали 130 нм техпроцесс и пониженное до 1.4-1.5 В напряжение, но тепловыделение при этом могло доходить до 134 Вт. Топовые 90-нм Prescott при напряжении 1.4 В потребляли до 151 Вт — после 20-30 Вт у Pentium III эти значения выглядели пугающе. Такая цена была платой за повышение частот: первые модели работали максимум на 2 ГГц, модели второго поколения — 3.4 ГГц, последние достигали 3.8 ГГц.
Изначально в планах Intel было увеличение частот до 10 ГГц. Но, столкнувшись с невозможностью преодолеть барьер в 4 ГГц в серийных моделях, было решено сделать ставку на многоядерность. Два ядра Prescott объединили на одной подложке, результатом этой «склейки» стала линейка процессоров Pentium D — первых многоядерных массовых процессоров компании. Несмотря на немного сниженные частоты, отключенную технологию Hyper-Threading и техпроцесс 90 нм, процессоры получились такими же горячими и выделяли до 130 Вт тепла.
Переход второй ревизии на 65 нм техпроцесс особых улучшений не дал. При этом двукратной производительности по сравнению с Pentium 4 они не показывали — ПО того времени не было настолько оптимизировано под многопоток. Но в недрах Intel уже разрабатывались следующая процессорная архитектура, ставшая революционной и отличившаяся высоким ростом как однопоточной, так и многопоточной производительности — Intel Core.
Core, начало: Core Duo и Core 2 Duo/Quad
Архитектура Core базируется на наработках мобильных чипов Pentium M, ядро которых, в свою очередь, основано на ядре Pentium III с архитектурой P6. Несмотря на присутствие на рынке мобильных Pentium 4, в 2003 году Intel решила развивать P6 для ноутбучных моделей процессоров как менее прожорливую и более производительную альтернативу.
Pentium M вобрал в себя лучшее от Pentium 3 и Pentium 4. Архитектура первого в сочетании с Quad Pumped Bus и L2-кешем объемом 1 МБ от второго позволили заметно обгонять по производительности на одной частоте горячие Pentium 4, при этом обходясь небольшим энергопотреблением всего в 20-30 Вт. Видя успех мобильных чипов и тупик в развитии Pentium 4, Intel использует свои наработки и выводит на рынок новую архитектуру — Intel Core.
В начале 2006 года компания выпускает две линейки новых мобильных процессоров — Core Duo и Core Solo. Процессоры Core Duo представляют собой два ядра в едином чипе без склеек, что позволило использовать общий кеш L2. Кеш L1 составляют две равные половины по 32 КБ, одна из которых предназначена для инструкций, другая – для данных. Конвейер процессоров имеет глубину в 14 стадий, за такт исполняются до четырех инструкций. По сравнению с Pentium M была добавлена поддержка памяти DDR2 и инструкций SSE3, а также увеличена частота шины FSB. Core Solo — бюджетные варианты, у которых одно ядро отключено.
В середине того же года архитектура добирается до десктопа, попутно получив усовершенствования в виде поддержки 64-битных вычислений. Первые двухъядерные модели Core 2 Duo на ядре Conroe производятся по 65 нм техпроцессу, имеют до 4 МБ кеша L2 и достигают частоты 2.67 ГГц с шиной в 1066 МГц. При TDP 65 Вт, в два раза меньшем, чем у Pentium 4 и Pentium D, в различных задачах процессоры обгоняют предшественников архитектуры NetBurst от двух до трех раз. При этом сокет и тип ОЗУ у новых процессоров остался прежним — DDR2 и Socket 775, хотя они и требовали новых материнских плат. Платами диктовался и максимальный размер ОЗУ — 8 ГБ.
Разгонный потенциал — отличительная особенность всех процессоров архитектуры Core. Благодаря ему с помощью младших моделей часто удавалось догнать старшие. При этом какое-то неординарное охлаждение не требовалось благодаря низкому тепловыделению. После выхода первых моделей Core 2 Duo компания анонсирует стратегию «тик-так»: разделение циклов разработки на две части, каждая из которых должна занимать около года. «Тик» является уменьшением техпроцесса производства на основе существующей микроархитектуры. «Так» — выпуск процессоров новой микроархитектуры на основе существующего техпроцесса, которым и были первые Core 2 Duo.
В начале 2007 года выходят первые четырехъядерные процессоры компании — Core 2 Quad, представляющие собой склейку из двух кристаллов Conroe с TDP в 105 Вт.
Выпускаются новые чипсеты, поддерживающие два типа памяти: DDR2 и DDR3, применение которой позволяло расширить ОЗУ до 16 ГБ. Intel воскрешает старые бренды и расширяет ассортимент процессорами Pentium и Celeron. Новые модели используют архитектуру Core и отличаются от старших Core 2 Duo меньшими объемами кешей и более низкой частотой.
В 2008 году Intel в качестве шага «Тик» переносит процессоры семейства на 45 нм техпроцесс, попутно повысив частоты, увеличив размеры кешей и добавив поддержку инструкций SSE 4.1. Новые Core 2 Duo на базе кристалла Wolfdale получают стоковые частоты до 3.33 ГГц, шину частотой 1333 МГц и до 6 МБ кеша L2. Линейка Core 2 Quad разрастается: топовые модели удваивают возможности кристалла Wolfdale, более простые представляют двукратные возможности относительно бюджетных моделей Core 2 Duo, при этом вписываясь в 95 Вт тепловыделения.