В 1950 году под руководством Сергея Лебедева была создана МЭСМ (Малая электронная счётная машина), ставшая первым в континентальной Европе электронным цифровым компьютером с хранимой программой. Эта машина активно применялась для решения «важнейших научно-технических задач в области термоядерных процессов». Она занимала площадь в 60 квадратных метров и обладала такими характеристиками:
Оперативная память: на 63 команды или на 31 число.
📍 В этот день на Манчестерской малой экспериментальной машине (Manchester Small-Scale Experimental Machine, или просто «Baby») впервые была запущена и успешно выполнена хранящаяся в памяти компьютерная программа. Этот момент считается рождением современного программируемого компьютера.
🗓 21.06.1948 - Первая запущенная компьютерная программа на «Baby» [вехи_истории]
🔧 Почему это важно?
«Baby» — первый компьютер, реализовавший архитектуру фон Неймана, в которой и данные, и программы хранятся в одной памяти. Это стало основой почти всех последующих ЭВМ.
👨🔬 Машину разработали в Манчестерском университете под руководством Тома Килбурна и Фредерика Уильямса. Программа, которую она выполнила, находила наибольший делитель числа — простейшая, но революционная задача на тот момент.
📡 Эта веха стала отправной точкой для разработки Manchester Mark I, а затем и коммерческих компьютеров вроде Ferranti Mark 1.
💡 Интересный факт: У «Baby» была память на 32 слова по 32 бита, и она использовала трубки Уильямса — предшественник современных ОЗУ.
✏️ Так начиналась эра программируемых машин. А какая была первая написанная вами программа? (в школе в любом случае что-нибудь писали)
===================================== 👇👇Наш канал на других площадках👇👇 YouTube | VkVideo | Telegram | Pikabu =====================================
🗓 16.06.1911 - Основана компания IBM [вехи_истории]
🧮 Изначально она называлась Computing-Tabulating-Recording Company (CTR) и представляла собой объединение нескольких американских фирм, специализировавшихся на производстве счетной техники, табуляторов и промышленных весов. Уже тогда компания ориентировалась на автоматизацию обработки данных, что стало основой её дальнейшего роста.
🔃 В 1924 году CTR сменила название на International Business Machines (IBM) — имя, которое вскоре стало синонимом технологического прогресса XX века.
🖥 С середины прошлого века IBM активно развивала направление вычислительной техники: сначала мейнфреймы, затем персональные компьютеры. IBM System/360, выпущенная в 1964 году, стала первым массовым мейнфреймом с модульной архитектурой, а в 1981 году компания представила свой знаменитый IBM PC, на архитектуре которого была построена вся будущая индустрия персональных компьютеров.
👩💻 IBM также внесла огромный вклад в развитие программирования — одним из её достижений стал язык FORTRAN, один из первых высокоуровневых языков программирования. Позднее компания активно занялась разработкой систем ИИ и квантовых вычислений.
💡 IBM — это не только историческое имя, но и высокотехнологичная корпорация, работающая в сферах искусственного интеллекта, облачных решений, кибербезопасности и квантовых технологий.
Для создания реалистичной графики в играх используется огромное количество различных сложных технологий. Одной из них является фотограмметрия, призванная сделать виртуальный мир реалистичнее за счет переноса в него реальных объектов с помощью фотографии. В чем суть технологии, как она работает и где применяется?
Немного истории
Фотограмметрия — это наука и технология получения надежной информации о физических объектах и окружающей среде через процессы записи, измерения и интерпретации фотографических изображений. Этот метод используется в различных областях, таких как картография, архитектура, геодезия и даже криминалистика. Основная идея фотограмметрии заключается в том, чтобы использовать фотографии для создания точных моделей и карт.
Фотограмметрия позволяет получать данные о форме, размере и положении объектов, что делает ее незаменимой в различных научных и практических областях. Например, в геодезии фотограмметрия используется для создания топографических карт, в архитектуре — для документирования исторических зданий, а в криминалистике — для реконструкции мест преступлений. Благодаря своей универсальности и точности, фотограмметрия нашла широкое применение и продолжает развиваться с появлением новых технологий.
Ранние этапы развития фотограмметрии
Фотограмметрия начала развиваться в середине 19 века, вскоре после изобретения фотографии. Первые попытки использовать фотографии для измерений и картографирования были сделаны в 1850-х годах.
В 1851 году французский инженер Доминик Франсуа Араго предложил использовать фотографии для топографических съемок. В 1858 году французский фотограф и картограф Aimé Laussedat впервые применил фотограмметрию для создания карт.
Примеры ранних применений
1858 год: Aimé Laussedat использовал фотографии для создания топографических карт Парижа. Этот метод позволил значительно ускорить процесс картографирования и повысить точность получаемых данных.
1867 год: немецкий ученый Albrecht Meydenbauer разработал метод фотограмметрии для архитектурных съемок. Его работа стала основой для дальнейшего развития архитектурной фотограмметрии, которая используется для документирования и реставрации исторических зданий.
Эти ранние примеры показывают, как фотограмметрия начала находить свое применение в различных областях. Несмотря на ограниченные технические возможности того времени, исследователи смогли заложить основы для дальнейшего развития этой науки.
Эволюция технологий и методов в 20 веке
С развитием технологий в 20 веке фотограмметрия претерпела значительные изменения. Появление авиации и спутниковых технологий открыло новые возможности для фотограмметрии. Эти инновации позволили значительно расширить область применения фотограмметрии и повысить точность получаемых данных.
Авиасъемка и спутниковая фотограмметрия
1920-е годы: Появление авиасъемки позволило создавать более точные и детализированные карты. Фотограмметрия стала важным инструментом в военной разведке и картографии. Авиасъемка позволила получать данные о больших территориях за короткое время, что было особенно важно в условиях военных действий.
1960-е годы: С запуском первых спутников началась эра спутниковой фотограмметрии. Спутниковые снимки предоставили возможность получать данные о больших территориях с высокой точностью. Это открыло новые возможности для мониторинга природных катастроф, изучения климата и других научных исследований.
Программное обеспечение и цифровая фотограмметрия
С развитием компьютерных технологий фотограмметрия стала цифровой. Появление специализированного программного обеспечения позволило автоматизировать многие процессы, делая их более точными и эффективными.
1980-е годы: Разработка первых программ для цифровой фотограмметрии. Эти программы позволили значительно упростить процесс обработки фотографий и получения данных.
1990-е годы: Широкое распространение цифровых камер и развитие компьютерных технологий способствовали дальнейшему развитию фотограмметрии. Цифровые камеры позволили получать изображения с высокой разрешающей способностью, что повысило точность фотограмметрических измерений.
Эти технологические достижения позволили значительно расширить область применения фотограмметрии и повысить точность получаемых данных. Сегодня фотограмметрия используется в самых различных областях, от создания 3D моделей городов до мониторинга природных катастроф.
Современные достижения и инновации
Сегодня фотограмметрия используется в самых различных областях, от создания 3D моделей городов до мониторинга природных катастроф. Современные технологии, такие как дроны и лазерное сканирование, значительно расширили возможности фотограмметрии.
Примеры современных применений
Архитектура и строительство: Создание точных 3D моделей зданий и сооружений. Фотограмметрия позволяет документировать исторические здания, проводить их реставрацию и создавать виртуальные туры.
Геодезия и картография: Создание высокоточных карт и моделей местности. Фотограмметрия используется для создания топографических карт, мониторинга изменений ландшафта и других геодезических задач.
Криминалистика: Использование фотограмметрии для реконструкции мест преступлений. Фотограмметрия позволяет создавать точные 3D модели мест преступлений, что помогает в расследовании и анализе доказательств.
Инновации и новые технологии
Дроны: Использование дронов для аэрофотосъемки позволяет получать данные с высокой точностью и детализацией. Дроны могут использоваться для мониторинга строительных площадок, сельскохозяйственных угодий и других объектов.
Лазерное сканирование: Совмещение фотограмметрии с лазерным сканированием позволяет создавать более точные и детализированные модели. Лазерное сканирование используется для создания 3D моделей зданий, ландшафтов и других объектов.
Эти современные достижения и инновации позволяют значительно расширить возможности фотограмметрии и повысить точность получаемых данных. Фотограмметрия продолжает развиваться и находить новые применения в различных областях.
Будущее фотограмметрии
Фотограмметрия продолжает развиваться, и будущее этой науки выглядит многообещающе. Новые технологии, такие как искусственный интеллект и машинное обучение, открывают новые возможности для автоматизации и повышения точности фотограмметрических методов.
Перспективы развития
Искусственный интеллект: Использование ИИ для автоматической обработки и анализа фотограмметрических данных. ИИ может использоваться для распознавания объектов на фотографиях, автоматической коррекции ошибок и других задач.
Машинное обучение: Применение машинного обучения для улучшения точности и эффективности фотограмметрических методов. Машинное обучение позволяет создавать модели, которые могут адаптироваться к изменениям и улучшать свою точность со временем.
Виртуальная и дополненная реальность: Интеграция фотограмметрии с VR и AR для создания интерактивных моделей и симуляций. VR и AR позволяют создавать виртуальные туры, обучающие симуляции и другие интерактивные приложения.
Фотограмметрия, начавшаяся как простая идея использования фотографий для измерений, превратилась в мощный инструмент, который продолжает развиваться и находить новые применения. Будущее этой науки обещает быть еще более захватывающим и инновационным.
С развитием новых технологий фотограмметрия будет продолжать находить новые применения и улучшать свою точность. Это позволит создавать более точные и детализированные модели, что будет полезно в различных научных и практических областях.
Но давайте вернемся к основному вопросу, "Что такое фотограмметрия?" и как она применяется в играх...
Фотограмметрия в 3D-графике
Для создания 3D-моделей используются снимки объекта с разных сторон. Специальное программное обеспечение сначала определяет положение камеры во время снимков, а затем «сшивает» их для создания единого графического пространства.
После этой процедуры программа переносит полученные данные в 3D-модель, используя полигоны — те самые треугольники, которые стоят в основе компьютерной 3D-графики реального времени. Так как поверхности реальных объектов очень сложные, изначальное количество полигонов на модель может достигать сотен тысяч.
Для использования в кинематографии детальные модели только в плюс, ведь каждая мелочь только придает реалистичности. А вот для использования в играх модели упрощаются в десятки или даже сотни раз, так как в режиме реального времени графические процессоры компьютеров не в состоянии справиться с изначальной громадной детализацией.
При этом находится некий баланс между изначальным количеством деталей и количеством полигонов, которые могут «переварить» видеокарты. В результате графические ресурсы такие модели в играх потребляют аналогично вручную нарисованным, а вот выглядят гораздо более достоверно.
Оборудование для создания моделей
Для создания исходного материала используются фотокамеры. После череды снимков с разных сторон фотографии загружаются в программу, которая обрабатывает их и превращает в 3D-объект.
Чем больше снимков и чем качественнее камера, тем более точной получается итоговая модель.
Многое зависит и от освещения — оно должно быть с определенной цветовой температурой, качественное и однородное. При неправильном освещении перенесенный в 3D-сцену объект может выглядеть неестественно. По той же причине на объекте переноса должны отсутствовать посторонние тени и блики. У моделей, которые можно разделить на части, например, оружия, каждую деталь для более высокой точности сканируют отдельно, затем «склеивая» их воедино в программе-редакторе.
Для качественной фотограмметрии используются все атрибуты фотостудии — камеры с достойной оптикой, студийное освещение, окружение белого цвета. Более того, крупные игровые компании создают специальные комнаты с массивом камер, закрепленных вокруг предмета съемки с точным позиционированием. Такая конструкция позволяет наиболее корректно сделать снимки с определенных координат и максимально точно перенести объект в цифровой вид.
К сожалению, не все объекты сканирования можно транспортировать в студию, особенно крупные и природные. В таких случаях снимки делаются на местах расположения объектов, но не забывая при этом про корректное освещение, отсутствие теней и бликов. Имеющиеся изъяны дорабатывают на компьютере — разница в том, что ручного труда для точного переноса объекта в таком случае требуется больше.
Магнитная лента не исчезла насовсем и до сих пор используется в дата-центрах.
Высокая ёмкость
Это — одно из главных преимуществ магнитных лент. Когда в середине девяностых на прилавках магазинов появились коммерческие винчестеры объёмом в 1 ГБ, ленточные картриджи модели DDS-3 уже вмещали в двенадцать раз больше информации.
Немного истории
Некоторые исторические данные о ценах, чтобы увидеть, как менялась стоимость гигабайта. Конечно, гигабайт был смехотворной концепцией для всех, кроме true 13375 в 80-х.
Данные это подтверждают: существует очень сильная экспоненциальная корреляция в соотношении пространства/стоимости (r=0,9916). За последние 30 лет стоимость единицы пространства удваивалась примерно каждые 14 месяцев (увеличиваясь на порядок каждые 48 месяцев). Уравнение регрессии имеет вид:
Несколько терабайтных+ накопителей недавно преодолели барьер в $0,10/гигабайт, установив следующую веху в $0,01/гигабайт или $10/терабайт. Это вызывает скептицизм даже у самых ярых сторонников экспоненциального прогресса технологий. Как долго может продлиться эта тенденция? Приближаемся ли мы к концу эпохи закона Мура?
Наше время
В наше время сложилась аналогичная ситуация. Современные картриджи содержат больше километра ленты шириной в 12,6 миллиметра. На неё можно записать до 580 ТБ сжатых данных. При этом объём жёстких дисков для enterprise-сегмента лишь недавно побил отметку в 30 ТБ.
По сегодняшним потребительским стандартам магнитные ленты медленные, неудобные в использовании и относительно дорогие. Как оказалось, магнитная лента может предложить емкость, недоступную для современных жестких дисков. По крайней мере, IBM и Fujifilm считают, что их недавно разработанный магнитный слой из феррита стронция (SrFe) позволит лентам LTO-8 хранить до 580 ТБ данных. Речь идет о плотности записи 317 ГБ/кв.дюйм, при длине ленты 1255 метров и общей емкости 580 ТБ.
Магнитная лента развивается подобно жестким дискам. Разработчики стремятся уменьшить ширину дорожки, чтобы увеличить плотность записи, уменьшить толщину ленты, чтобы увеличить длину ленты в картридже, и внедрить новые методы для надежной записи и последовательного чтения данных.
Низкая стоимость хранения данных
Стоимость хранения данных на магнитной ленте значительно ниже, чем у любых других накопителей. Один гигабайт на жёстком диске обходится примерно в $0,025. Для ленты этот показатель составляет $0,008. Известен случай с одной крупной генетической лабораторией, когда переход на магнитную ленту сократил расходы на хранение данных с $800 тысяч всего до $7 тысяч. При этом крупные ИТ-компании сегодня продолжают разрабатывать технологии, расширяющие возможности магнитных лент.
Долговечность
Известно, что ошибки на магнитной ленте возникают на четыре–пять порядков реже, чем в HDD. При правильном хранении они могут прослужить около 30 лет. Это больше, чем любые другие популярные сегодня накопители — HDD или SSD. Согласно статистике одного из крупных облачных провайдеров средний срок службы жёстких дисков редко превышает четыре года. Что касается твердотельных накопителей, по некоторым данным, они проживут порядка десяти лет, но только если устройствами регулярно пользоваться.
ИТ-компании по-прежнему разрабатывают технологии, задача которых — продлить срок жизни магнитной ленты. Два года назад IBM совместно с Sony представили плёнку, покрытую дополнительным смазочным слоем. Он защищает поверхность ленты от повреждения при её движении на скорости десять метров в секунду во время чтения.
Технологический прогресс
Одной из главных причин «ренессанса» магнитной ленты является тот факт, что многие недостатки, которыми она обладала в свои ранние годы, сегодня удалось исправить. Ранее накопитель подразумевал лишь последовательный доступ к данным, поэтому на поиск и чтение информации уходило 50–60 секунд. Для сравнения, у жёсткого диска этот показатель равен 5–10 миллисекундам.
Современные технологии нивелировали влияние этого недостатка. Новые картриджи поддерживают файловую систему LTFS. Она индексирует содержимое ленты, что ускоряет чтение данных и создаёт иллюзию произвольного доступа к ним.
Более того, ленточные хранилища, устанавливаемые в дата-центрах, автоматизированы. Масштабные роботизированные библиотеки могут занимать целый машинный зал. Особые манипуляторы выполняют автоматический поиск необходимых картриджей и оперативно загружают их в считывающие устройства.
Кто использует магнитную ленту
Компании, которым необходимо обрабатывать (и архивировать) большое количество данных. В первую очередь — ИТ-гиганты и облачные провайдеры. Ленты хранят бэкапы и другие редко используемые данные. К примеру, в 2011 году баг в системе привёл к удалению писем пользователей Gmail. Тогда компания Google восстановила данные именно с магнитных лент.
Магнитными лентами пользуются и исследовательские организации, например CERN. Каждую секунду Большой адронный коллайдер генерирует один гигабайт данных. Суммарный объём информации, собранной институтом по сей день, превышает 330 петабайт.
Для их хранения организация использует систему CASTOR на магнитной ленте, разработанную инженерами CERN. Её регулярно обновляют и переводят на более совершенные типы картриджей, чтобы увеличить ёмкость, надёжность и скорость работы. Вышедшие из эксплуатации накопители организация отдаёт инвесторам в качестве сувениров.
Также среди пользователей магнитной ленты можно выделить ИТ-компании, которые работают в области Big Data и разрабатывают системы искусственного интеллекта. Накопитель используют для хранения данных, генерируемых IoT-устройствами. К примеру, всего один беспилотный автомобиль может собирать до 30 ТБ данных в день.
Каждый год количество данных, которые генерирует человечество, экспоненциально растёт. Распространение IoT-устройств, систем искусственного интеллекта это только усугубляет. Количество компаний, использующих решения на основе магнитной ленты, будет расти вместе с этими рынками. Есть технологии вроде ДНК-хранилищ, которые в перспективе заменят магнитную ленту на посту «холодного хранилища», но об их практической реализации в крупных масштабах пока говорить не приходится.
Практически все технологии, хотя и имеют свойство развиваться, в конце концов устаревают. Не обошла данная закономерность и кремниевую электронику. Легко заметить, что в последнее время ее прогресс существенно замедлился и вообще изменил направление своего развития.
Количество транзисторов в микросхемах уже не удваивается каждые два года, как это было раньше. И сегодня производительность компьютеров наращивается отнюдь не за счет повышения их рабочей частоты, а благодаря увеличению количества ядер в процессоре, то есть путем расширения возможностей для параллельно выполняемых операций.
Ни для кого не секрет, что любой современный компьютер построен из миллиардов маленьких транзисторов, представляющих собой полупроводниковые устройства, проводящие электрический ток при подаче управляющего сигнала.
Но чем меньше размером транзистор — тем выраженнее паразитные эффекты и утечки, мешающие его нормальной работе, и представляющие собой препятствие для создания еще более компактных и более быстрых в работе устройств.
Данные факторы определяют принципиальный предел на пути миниатюризации размера транзистора, поэтому кремниевый транзистор в принципе не может иметь толщину более пяти нанометров.
Физическая причина кроется в том, что движущиеся через полупроводник электроны растрачивают свою энергию просто потому, что данные заряженные частицы обладают массой. И чем выше делается частота прибора — тем большими становятся потери энергии в нем.
С уменьшением размера элемента, потери энергии в форме тепла хотя и удается уменьшить, но предотвратить влияние атомарной структуры не удается. На практике атомарная структура сама начинает становиться помехой, поскольку достигнутый на сегодня размер элемента в 10 нанометров по порядку величин сопоставим всего с сотней атомов кремния.
На смену электронам — фотоны
Но что если попробовать использовать не ток, а свет? Ведь фотоны, в отличие от электронов, не обладают ни зарядом, ни массой покоя, при этом являются самыми быстрыми частицами. К тому же их потоки при разных длинах волн не будут мешать друг другу при синхронной работе.
Таким образом, с переходом на оптические технологии в сфере управления информацией можно было бы получить множество преимуществ перед полупроводниками (с движущимися через них тяжелыми заряженными частицами).
Информация, посылаемая посредством светового луча могла бы обрабатываться прямо в процессе ее передачи, а расходы энергии не были бы столь существенными, как при передаче посредством движущегося электрического заряда. А проводить параллельные вычисления позволили бы применяемые волны разной длины, причем для оптической системы были бы принципиально нестрашны никакие электромагнитные наводки.
Явные преимущества оптической концепции перед электрической давно притягивают внимание ученых. Но сегодня вычислительная оптика остается по большому счету гибридной, то есть сочетающей в себе электронный и оптический подходы.
Кстати, первый прототип оптоэлектронной ЭВМ был создан еще в 1990 году компанией Bell Labs, а 2003 году компания Lenslet анонсировала первый коммерческий оптический процессор EnLight256, способный производить до 8000000000000 операций над 8-битными целыми в секунду (8 тераоп). Но несмотря на уже сделанные шаги в этом направлении, в области оптической электроники до сих пор оставались вопросы.
Один из таких вопросов заключался в следующем. Логические схемы подразумевают ответ «1» или «0» в зависимости от того, произошли ли два события - Б и А. Но фотоны не замечают друг друга, а ведь ответ схемы должен зависеть от двух световых пучков.
Транзисторная логика, оперирующая токами, легко проделывает подобное. И похожих вопросов масса. Поэтому коммерчески привлекательных оптических устройств на базе оптической логики до сих пор не было, хотя имелись некоторые наработки. Так, в 2015 году ученые из лаборатории нанофотоники и метаматериалов Университета ИТМО продемонстрировали в эксперименте возможность изготовления сверхбыстрого оптического транзистора, состоящего всего из одной кремниевой наночастицы.
По сей день инженеры и ученые многих учреждений трудятся над проблемой замены кремния на альтернативы: пробуют графен, дисульфид молибдена, задумываются об использовании спинов частиц и конечно - о свете, как о принципиально новом способе передачи и хранения информации.
Световой аналог транзистора — принципиальнейшая концепция, заключающаяся в том, что необходим прибор, способный избирательно пропускать или не пропускать фотоны. Кроме того желателен расщепитель, могущий разбивать луч на части и убирать из него определенные световые компоненты.
Прототипы уже есть, но они имеют проблему — размеры их гигантские, они больше похожи на транзисторы из середины прошлого столетия, когда компьютерный век только начинался. Уменьшение размеров таких транзисторов и расщепителей — непростая задача.
Фундаментальное препятствие преодолено
А между тем ученым из лаборатории гибридной фотоники "Сколтеха", совместно с коллегами из компании IBM, в начале 2019 года все же удалось построить первый оптический транзистор, способный работать на частоте в 2 ТГц и при этом совсем не нуждающийся в охлаждении до абсолютного нуля.
Результат получен при помощи сложнейшей оптической системы, которая создавалась долгим кропотливым трудом коллектива. И теперь можно сказать, что фотонные процессоры, выполняющие операции со скоростью света — в принципе реальны, так же реальны как оптоволоконная связь.
Первый шаг сделан! Миниатюрный оптический транзистор, не требующий охлаждения и способный работать тысячекратно быстрее своего электронного полупроводникового предка - создан.
Как было отмечено выше, одной из фундаментальных проблем на пути создания элементов для «световых» компьютеров было то, что фотоны друг с другом не взаимодействуют, да и движением частиц света крайне сложно управлять. Однако ученые выяснили, что с проблемой можно справиться прибегнув к так называемым поляритонам.
Поляритон — одна из недавно созданных виртуальных частиц, подобных фотону, и способных проявлять свойства волн и частиц. Поляритон включает в себя три компонента: оптический резонатор, состоящий из пары зеркал-отражателей, между которыми заточена световая волна, а также квантовый колодец. Квантовый колодец представлен атомом с вращающимся вокруг него электроном, способным испускать или поглощать квант света.
Квазичастица поляритон уже в первых экспериментах проявила себя во всей красе, показав, что ее можно применить для создания транзисторов и прочих логических элементов световых компьютеров, но оставался один серьезный минус — работа была возможной лишь при сверхнизких температурах вблизи абсолютного нуля.
Но ученые решили эту проблему. Они научились создавать поляритоны не в полупроводниках, а в органических аналогах полупроводников, которые сохраняли все необходимые свойства даже при комнатной температуре.
На роль такого вещества подошел полипарафенилен — недавно открытый полимер, аналогичный тем, что применяются в производстве кевлара и разнообразных красителей.
Благодаря особому устройству, молекулы полипарафенилена способны даже при высоких температурах порождать внутри себя особые зоны, могущие выполнять функцию квантового колодца классического поляритона.
Заключив пленку из полипарафенилена между слоями неорганических материалов, ученые нашли способ как при помощи воздействия лазерами двух разных типов управлять состоянием квантового колодца и заставлять его испускать фотоны.
Экспериментальный прототип транзистора продемонстрировал способности к рекордно быстрому переключению и усилению светового сигнала при минимальных затратах энергии.
Три таких транзистора уже позволили исследователям собрать первые логические световые приборы, воспроизводящие операции «И» и «ИЛИ». Результат эксперимента дает основание полагать, что дорога к созданию световых компьютеров, - экономичных, быстрых и компактных, - наконец открыта.
Насколько производительными будут будущие процессоры и видеокарты? Во многом это зависит от ключевого элемента всех сложных вычислительных блоков — транзистора. Уменьшение размеров транзистора лишь одна из тенденций, изменяется и структура. История развития и современность. Что такое Planar, FinFET и GAAFET-транзисторы?
Немного истории
Днем рождения транзистора считается 23 декабря 1947 года. Тогда Уолтер Браттейн и Джон Бардин продемонстрировали первый в мире транзистор с точечным контактом. Оба физика были членами исследовательской группы Bell Labs, искавшей новое средство усиления электрических сигналов.
В первой половине XX века для решения этой задачи инженеры-электрики полагались на вакуумные лампы, но устройства были громоздкими, хрупкими и потребляли много энергии. Руководитель Бардина и Браттейна — Уильям Шокли — предположил, что можно разработать более совершенный усилитель, используя ранее не изученные электрические свойства полупроводников.
Прошлое: вакуумные лампы и транзисторы Лилиэнфельда
Напомним, что транзистор в электронном устройстве играет роль своего рода переключателя и усилителя. Простыми словами, его основная задача — контролировать поток электрического тока и управлять им. По сути он работает как кран, контролирующий поток воды.
До появления транзисторов в электронных устройствах в качестве таких «кранов» использовались вакуумные лампы и механические реле. Они имели существенные недостатки с точки зрения размеров, энергопотребления и надежности.
Самыми распространенными типами вакуумных ламп в те времена были триоды, тетроды и пентоды.
Предок вакуумных ламп — диод — был изобретен в 1904 году Джоном Амброузом Флемингом. Затем в 1906 году доктор Ли де Форест изобрел «аудион», название которого было составлено из слов «audio» и «ion». Он обнаружил, что сетка из тонкой проволоки, помещенная между нитью накала и металлической пластиной в вакуумной лампе, может управлять потоком электронов, идущих между нитью накала и пластиной.
слева диод Флеминга, справа аудион де Фореста
Название «аудион» намекало на то, что устройство обнаруживало радиосигналы, служило выпрямителем (устройством, преобразующим переменный ток в постоянный) и было первым исключительно электронным компонентом, позволяющим усиливать электромагнитные сигналы. Именно способность усиливать сигналы отличала изобретение де Фореста от диода Флеминга.
Созданная в 1911 году и официально ставшая дочерней компанией AT&T в 1925 году, Bell Labs добилась первого крупного успеха в 1912 году, усовершенствовав вакуумные лампы, первоначально изобретенные Ли де Форестом в 1906 году.
Тетроды и пентоды, разработанные позднее, содержали дополнительные элементы для устранения недостатков триодов (аудионов). Тетроды имели четыре электрода, а пентоды — пять, что повышало их эффективность в различных приложениях.
Вакуумные лампы использовались в первых телефонных усилителях и позволили провести первую телефонную линию между Нью-Йорком и Сан-Франциско. В 1915 году в Арлингтоне, штат Вирджиния, инженеры-телефонисты соединили 500 вакуумных ламп, чтобы сгенерировать достаточную мощность для передачи человеческого голоса через Атлантику.
Лампы использовались для создания телевизоров, радаров, радио и рентгеновских аппаратов.
В самолете Б-29 вакуумные лампы отвечали за полет самолета, его курс и использовались в компьютерной системе наведения. От ламп зависело все электрооборудование, они выступали в качестве выключателей и усилителей для обогревателей, инструментов, радиоаппаратуры и двигателей.
При этом вакуумные лампы были непрочными, потребляли энергию, выделяли тепло и быстро перегорали, требуя серьезного обслуживания. Все это могло привести к поломке того устройства, где они использовались. Также для разогрева вакуумных ламп требовалось много времени, что было критично, если лампы служили, например, усилителями в судовом оборудовании для предупреждения торпедного удара. Неудивительно, что активно велись поиски более надежной и быстродействующей альтернативы вакуумным лампам.
Заменой вакуумной лампе могло стать нечто твердое и прочное.
Несмотря на то, что авторство транзистров закреплено за Бардином, Браттейном и Шокли из Bell Telephone Laboratories, идея впервые была высказана еще в 1920-х годах физиком австро-венгерского происхождения Юлиусом Эдгаром Лилиенфельдом.
Хотя Лилиенфельд и запатентовал эту концепцию, практическая реализация при его жизни не состоялась. Его изобретение, известное как транзистор Лилиенфельда, использовало принцип полевого эффекта для управления протеканием тока между двумя электродами. Однако из-за технологических ограничений того времени транзисторы Лилиенфельда так и не были созданы в виде функциональных устройств — до производства высококачественных полупроводниковых материалов оставалось еще несколько десятилетий.
В первых патентных заявках от 1925 и 1926 годов Лилиенфельд заявлял, что его твердотельный усилитель «относится к методу и устройству для управления протеканием электрического тока между двумя клеммами электропроводящего твердого тела путем установления третьего потенциала между этими клеммами».
В новой заявке 1928 года он уже более четко сформулировал свои цели: «создание простого, компактного и надежного устройства, которое при этом должно быть недорогим в изготовлении». Лилиенфельд утверждал, что его новое устройство «[может] работать в условиях гораздо более низкого напряжения, чем раньше».
Но как было сказано, технологии его эпохи еще не были готовы реализовать весь потенциал новаторских идей, и патенты прошли незамеченными. Однако идеи Лилиенфельда воплотили в себе принципы работы современного полевого транзистора (FET).
Уже потом, в 1988 году, Джон Бардин, выступая в Американском институте физики, признает заслугу Лилиенфельда в его работах по созданию полупроводникового усилителя. По словам самого Бардина, «у Лилиенфельда была базовая концепция управления током в полупроводнике для создания усилительного устройства. Потребовалось много лет, чтобы воплотить его мечту в реальность».
Попытки создать твердотельный усилитель предпринимались и в СССР. В 1922 году Олег Лосев приблизился к изобретению транзистора — он разработал первый двухтерминальный полупроводниковый прибор. Однако дальнейших исследований это изобретение не повлекло — устройство было нестабильно, а сама физика явления не до конца понятна.
Исследования в Bell Labs
За несколько лет до Второй мировой войны в Bell Labs начали проводить исследования полупроводников. Ученые изучали поведение кристаллов германия в попытках найти замену вакуумным лампам.
Исходя из этого, директор по исследованиям Мервин Келли определил приоритетное направление для исследований: изучение потенциала полупроводников. При этом физика полупроводников в то время была зарождающейся областью. Несмотря на то, что полупроводники уже использовались в некоторых электронных устройствах — радио и радарах — их было трудно производить, а теоретические знания об их внутреннем функционировании были ограничены. Квантовая физика же позволяла понять поведение полупроводников, но на очень ограниченном типе — оксиде меди.
В 1936 году Келли решил нанять докторов физики, в частности будущего нобелевского лауреата Уильяма Шокли. В Bell Labs был организован семинар, на котором рассказывалось о квантовой физике. Среди ученых был и Уолтер Браттейн.
Группа исследователей провела первую серию экспериментов, в которых пыталась воссоздать структуру вакуумных ламп в полупроводнике. Первая попытка с оксидом меди в 1939 году оказалась неудачной.
При этом в 1939 году было сделано одно из самых важных открытий — что типом проводимости полупроводника можно управлять с помощью легирования, то есть добавления небольшого количества примесей. Именно тогда полупроводники из разряда «грязи и бардака», как назвал их Паули в 1931 году, перешли в разряд божественных электронных материалов.
Тем временем началась Вторая мировая война, и исследования были отложены до лучших времен. Однако Bell Labs оказалась вовлечена в проект, который окажет огромное влияние на область полупроводников: RADAR. Для радаров было нецелесообразно использовать вакуумные лампы из-за их размера и хрупкости, поэтому их заменяли на полупроводники — германиевые и кремниевые. Для этого в Bell Labs были разработаны новые полупроводниковые диоды для выпрямления входящих коротковолновых сигналов радара.
После войны исследования в области физики твердого тела продолжились. В апреле 1945 года вернувшиеся с военной службы Шокли и Браттейн снова экспериментируют с новой конструкцией, основанной на так называемом «эффекте поля». Эксперименты с треском проваливаются.
Мервин Келли тем временем решает создать междисциплинарную группу для изучения физики твердого тела, основываясь на опыте проекта RADAR. В группу под руководством Шокли вошли исследователи, теоретики, химики, электронщики и т. д. Цель была простой: разработать усилитель на полупроводниках для применения в телефонной сети AT&T. Исследования были сосредоточены на германии и кремнии, которые показали свой потенциал во время войны.
В октябре 1945 года к команде присоединился Джон Бардин, только что защитивший докторскую диссертацию по квантовой физике. Шокли попросил его проверить правильность своих расчетов, чтобы понять неудачу апрельских экспериментов с Браттейном.
Бардин подтвердил расчеты и предположил, что неудача может быть вызвана эффектом «поверхностных состояний», который «задерживает» электрон на поверхности материала.
В ноябре 1947 года Бардин и Браттейн подтверждают эффект поверхностных состояний и показывают, как преодолеть его с помощью электролита. Это, по мнению Шокли, знаменует начало «волшебного месяца», который и приведет в конечном итоге к изобретению транзистора.
Транзистор с точечным контактом Бардина и Браттейна, 1947 г.
В декабре после очередной серии экспериментов Бардин предлагает перейти от кремния к так называемому «германию с высоким обратным напряжением». Бардин и Браттейн продолжают свои испытания с различными конфигурациями вплоть до декабря 1947 года, когда им наконец удалось получить значительное усиление.
Так появился первый транзистор, названный «транзистором с точечным контактом».
Но разумеется, дело на этом не закончилось — устройство было лишь прототипом, далеким от рабочего транзистора. Далее работа пошла в двух направлениях.
Была создана группа «фундаментальных разработок» под руководством Джека Мортона для создания рабочего устройства на основе декабрьского эксперимента Бардина и Браттейна.
Шокли же, раздосадованный тем, что не стал одним из изобретателей нового устройства, решил продолжить исследования усиления в полупроводниках на базе другой конструкции.
В январе 1948 года он предлагает новую конструкцию: транзистор с n-p-n структурой. Это был первый действующий биполярный транзистор.
Исследуя работу транзистора с точечным контактом, Джон Шайв, член группы полупроводников, решил испытать конструкцию, в которой два контакта располагались бы не рядом друг с другом, а по обе стороны от полупроводника. К его большому удивлению, это сработало.
Это подтвердило идею Шокли о возможности создания транзистора с переходом, которую он до сих пор держал в секрете от остальных членов команды. Позже Шокли признался, что работа команды представляла собой «смесь сотрудничества и конкуренции». Он также признал, что скрывал некоторые свои наработки, пока эксперименты Шайва не вынудили его открыться.
Интересно, что когда Bell Labs подавало заявку на патент, то выяснилось, что патент 1930 года Джулиуса Лилиенфельда, о котором шла речь выше, практически полностью совпадал с оригинальной идеей Шокли. А вот транзистор Бардина и Браттейна имел другую конструкцию. По этой причине Bell Labs подали заявку именно на транзистор Бардина и Браттейна. Шокли был раздосадован, поскольку хотел, чтобы в качестве изобретателя транзистора указали только его. Все это усилило напряжение и в без того холодных отношениях Шокли с его коллегами.
Fairchild Semiconductor
В 1953 году Шокли покинул Bell Labs, поскольку чувствовал себя обделенным в вопросах продвижения по службе и признания. Он вернулся в Калифорнию, устроился в Калтех, заключил сделку с профессором Калтеха и предпринимателем в сфере высоких технологий Арнольдом Бекманом и в 1955 году основал собственную фирму — Shockley Transistor Laboratory.
Поначалу Шокли думал, что ему удастся переманить инженеров из Bell Labs, однако никто из его бывших коллег не захотел с ним работать. В итоге ему все же удалось собрать отличную команду молодых ученых и инженеров, заманив их солнечной калифорнийской погодой. Шокли пообещал новым сотрудникам, что они будут разрабатывать «Святой Грааль» — кремниевый транзистор.
Роберт Нойс, один из изобретателей интегральной схемы и будущий основатель Intel, вспоминал про Шокли: «Я думал, что разговариваю с Богом».
Транзистор с точечным контактом имел весьма ограниченное применение, в основном в военной сфере. А вот биполярный транзистор Шокли, напротив, становится основой электронной революции.
В декабре 1956 года Шокли получил Нобелевскую премию по физике за изобретение транзистора. А тем временем недовольство сотрудников его стилем руководства росло — Шокли считали авторитарным и параноидальным.
Кроме того, ключевые сотрудники считали, что компании следует заняться более насущными возможностями производства кремниевых транзисторов, а не сложным четырехслойным p-n-p-n диодом, который Шокли придумал еще в Bell Labs для применения в телефонной коммутации.
По своим каналам в Bell Labs Шокли узнал, что Western Electric, производственное подразделение Bell System, предварительно планировало использовать подобные диоды для коммутации, и это могло стать первым большим рынком для полупроводников.
8 декабря 1956 года группа сотрудников Шокли написала Бекману письмо с описанием невыносимых условий труда: «Пожалуйста, срочно помогите нам!». Письмо было подписано старшими членами технического персонала. Через два дня Бекман встретился с командой — их предложение заключалось в следующем:
сосредоточить разработки только на биполярном кремниевом транзисторе;
назначить нового руководителя;
Шокли должен занять должность в Стэнфорде, быть техническим консультантом компании, но больше не руководить ею.
Однако после обсуждений с Шокли Бекман решил ничего не менять — авторитет Нобелевского лауреата, возглавляющего компанию, был слишком велик.
В результате восемь ключевых сотрудников STL, ставшие затем известными как «Вероломная восьмерка», обратились к Шерману Фэйрчайлду, который руководил Fairchild Camera and Instrument. Его компания занималась исследованиями в области камер и спутников и тесно сотрудничала с военными и Министерством обороны США.
19 сентября 1957 года «Восьмерка» подписала соглашение о создании корпорации Fairchild Semiconductor (FSC) по адресу 844 South Charleston Road. Можно сказать, что в этот день родилась Кремниевая долина.
Вскоре в Fairchild Semiconductor перешли и другие сотрудники Шокли — от техников до докторов наук. В течение следующего десятилетия Fairchild превратилась в одну из самых важных и инновационных компаний в полупроводниковой промышленности, заложив технологические и культурные основы Кремниевой долины и выделив десятки новых высокотехнологичных стартапов, включая Advanced Micro Devices (AMD) и Intel.
Шокли тем временем продолжил работу над своим четырехслойным диодом, и хотя его фирма в итоге не стала прибыльной, он навсегда вошел в историю как человек, который «принес кремний в Долину».
Его компания SSL стала отличным стартом для будущих лидеров полупроводниковой промышленности — Fairchild Semiconductor.
В 1960 году Бекман продал SSL корпорации Clevite. Шокли стал профессором электротехники и прикладных наук в Стэнфордском университете.
Европа изобретает транзистор
Важно отметить, что транзистор, как и многие другие изобретения — это результат работы множества людей и продукт своей эпохи. Новаторские открытия многих поколений ученых привели в конечном счете к производству полупроводникового материала, а затем и транзистора.
В Bell Labs изобретению транзистора способствовали новые методы управления исследованиями, разработанные в рамках крупных проектов Второй мировой войны. И во многом это заслуга Мервина Келли, который создал междисциплинарную исследовательскую группы по полупроводникам под руководством Шокли.
Сам Шокли вспоминал:
«Ключевой стимул, побудивший меня задуматься о транзисторах, исходил от доктора Келли, который в то время был директором по исследованиям в BL. Эту должность он занимал до того, как стал президентом несколько лет спустя.
Доктор Келли посетил меня, чтобы подчеркнуть свою цель — внедрить электронную коммутацию в телефонную систему. Он сказал, что с нетерпением ждет, когда металлические контакты, которые использовались на телефонных станциях для установления соединений при наборе номеров, будут заменены электронными устройствами.
Его интерес к поставленным целям был очень велик. Он так ярко подчеркнул их важность, что это произвело на меня неизгладимое впечатление».
Основной теоретический вклад в квантовую механику и физику твердого тела, без которого транзистор не состоялся бы, был сделан в Европе. Кроме того, в начале Второй мировой войны британская секретная радарная программа была более продвинутой, чем американская, пока обе страны не начали сотрудничать. Но важной причиной изобретения транзистора именно в США в 1947 году было то, что Европа была разрушена войной.
При этом в Европе тоже заявляли на авторство транзистора.
В 1948 два физика из немецкой радарной программы, Герберт Матаре и Генрих Велькер, утверждали, что, работая в лаборатории французской компании F&S Westinghouse, расположенной в окрестностях Парижа, изобрели поразительно похожее полупроводниковое устройство, которое назвали транзистроном.
Поскольку французские инженеры не обладали знаниями в области физики твердого тела и радарных технологий, компания наняла двух немецких ученых, известных своим опытом работы в военное время.
Матаре и Велькер проводили эксперименты около трех лет. В 1946 году Westinghouse подписала контракт с Министерством почт, телеграфов и телефонов. Правительство намеревалось модернизировать свою телекоммуникационную систему и хотело получить национальные поставки полупроводниковых ретрансляторов, которые могли бы заменить вакуумные ламповые реле в телефонии. Военные нуждались в полупроводниковых диодах для использования в качестве выпрямителей в радарах.
В 1947 году Матаре начал исследовать странное явление под названием «интерференция», которое во время войны наблюдал в германиевых выпрямителях. Если два точечных контакта находились на достаточно близком расстоянии, в пределах 100 микрометров друг от друга, потенциал на одном из них мог влиять на ток, протекающий через другой. Похожую ситуацию наблюдали Бардин и Браттейн.
В 1948 году в результате дальнейших экспериментов Матаре добился спорадического усиления электрических сигналов. К июню этого года вместе с Велькером он получил устойчивые, воспроизводимые результаты, используя более чистые образцы германия. Но месяц спустя исследователи узнали удивительную новость — Bell Labs только что изобрела аналогичный полупроводниковый усилитель. Тогда компания Westinghouse поспешила запустить в производство свое устройство под названием «транзистрон», чтобы отличать его от американского аналога.
К середине 1949 года были выпущены тысячи таких устройств. Они использовались в качестве усилителей во французской телефонной системе. Спустя время громоздкие устройства с точечным контактом были вытеснены транзистором с переходом.
Матаре вернулся в Германию и в 1952 году стал одним из основателей компании Intermetall по производству диодов и транзисторов. Велькер перешел на работу в Siemens, став в итоге директором по исследованиям.
Матаре вспоминал, что в 1950 году его парижскую лабораторию посетил Уильям Шокли и увидел использование транзистрона. Был сделан телефонный звонок, в ходе которого транзисторные ретрансляторы по сети передали голосовой сигнал в Алжир.
«Я не хочу ничего отнимать у Bell Labs. Я был поражен их работой. Нобелевские лауреаты из Bell Labs — Джон Бардин, Уолтер Браттейн и Уильям Шокли — они были великолепны!» — признавал Матаре.
Эволюция производства и уменьшение размера
А что было дальше?
Первые транзисторы были длиной в сантиметр, а уже к концу 1950-х годов их размеры измерялись миллиметрами.
Изобретение интегральной схемы в 1958 году позволило уменьшить размер транзисторов до субмикронного уровня: менее миллионной доли метра.
Соучредитель компании Fairchild Роберт Нойс придумал использовать металлический алюминий, нанесенный поверх слоя Эрни, для избирательного соединения транзисторов, резисторов и других компонентов на кремниевой подложке — так была создана интегральная электронная схема (ИС). В марте 1961 года Fairchild представила свою первую ИС, или микрочип, — цифровую логическую функцию, состоящую всего из четырех транзисторов и пяти резисторов.
Компания также изобрела ряд дополнительных транзисторов, в том числе MOSFET или MOS-транзистор.
В середине 1950-х годов последовало несколько знаковых открытий и продуктов:
26 января 1954 года Bell Labs разработала первый рабочий кремниевый транзистор.
В конце 1954 года компания Texas Instruments создала первый коммерческий кремниевый транзистор.
В октябре 1954 года был выпущен первый транзисторный радиоприемник Regency TR-1.
В 1957 году был выпущен первый массовый транзисторный радиоприемник Sony TR-63. Он разошелся тиражом семь миллионов экземпляров, что привело к массовому распространению транзисторных радиоприемников на рынке в конце 1950-х и начале 1960-х годов.
К 1960-м годам транзисторная технология стала доминирующей технологической силой. Устаревшие вакуумные лампы были вытеснены.
В 1965 году Гордон Мур предсказал, что количество транзисторов в микрочипах будет удваиваться каждые два года. Закон Мура определяет линейную зависимость плотности транзисторов от времени. В 1970 году в микросхемах было около 2000 транзисторов. С 1971 года плотность транзисторов в логических схемах увеличилась более чем в 600 000 раз.
Венцом всех этих усилий стала возможность интегрировать миллионы и даже миллиарды транзисторов в одну из самых сложных систем на планете: процессоры.
Например, в процессорах современных смартфонов используется в среднем 10 миллиардов транзисторов — число, которое было бы немыслимо для Бардина, Браттейна и Шокли.
Интегральные схемы, разработанные в 1960-х годах, использовали традиционную планарную структуру для создания базовых цифровых схем
Однако в последующие десятилетия промышленность начала переходить на новую архитектуру: в 2011 году появились транзисторы FinFET (fin field effect), а с 2017 года началась разработка GAA (gate-all-around).
GAA — очень важная технология, поскольку позволяет транзисторам проводить больший ток при сохранении относительно небольшого размера: так, производительность повысится на 25%, а энергопотребление снизится на 50%. В случае с finFET оба показателя находятся в диапазоне от 15 до 20%.
Стремление уменьшить транзисторы связано с одним простым правилом — чем их больше, тем выше производительность микросхемы. В современных процессорах насчитывается больше 10 миллиардов транзисторов и это число постепенно увеличивается.
Planar FET
Планарный транзистор долгое время был основой — приблизительно до 2012 года. Структура достаточно простая — вокруг истока и стока находится область n-проводимости, сформированная внесением в кремний соответствующих примесей. Подложка изначально имеет p-проводимость. Затвор — это управляющий элемент. Подавая на него определенный потенциал, вы можете контролировать ток, протекающий от истока к стоку.
Представьте себе водопроводную трубу. Затвор — это своеобразный вентиль, которым вы можете регулировать ширину канала. По мере совершенствования оборудования транзисторы Planar FET уменьшались в размерах без каких-либо проблем. Однако дойдя до 22 нм, инженеры столкнулась с несколькими сложностями.
Уменьшение длины затвора приводило к тому, что канал становился слишком тонким. Как итог — самопроизвольное туннелирование электронов от истока к стоку. Проще говоря, даже при закрытом кране у вас все равно была утечка. Дополнительно из-за уменьшения площади затвора падала и эффективность управления каналом. Транзистор переставал быть контролируемым.
Фактически, известный закон Мура должен был умереть — уменьшать размеры дальше было просто невозможно. Обойти это ограничение сумели изменением архитектуры самого транзистора.
FinFET
Решение нашлось в переходе от 2D к 3D структуре. Проблемой планарных транзисторов был затвор, который неэффективно нависал над каналом. Инженеры решили вытянуть канал в своеобразный плавник («fin») и получить полноценную 3D структуру. Это позволило перейти на техпроцесс 22 нм и меньше. Компания Intel была первой, кто использовал технологию FinFET в 2012 на процессорах Ivy Bridge.
Что же дали на практике такие плавники? Во-первых, затвор теперь обтекает канал с трех сторон. После подачи напряжения на затвор, электроны вытягиваются из глубины к вершинам гребней, где и формируется канал. Вся активная зона располагается в верхушке плавников, поэтому утечка токов подложки минимальна.
Во-вторых, существенно повысилась эффективность управления, поскольку затвор «обволакивает» канал с трех сторон, а не с одной как это было у планарной технологии. Производители часто используют конструкции с 2–3 гребнями, что позволяет увеличить ток транзистора. Разрешение фотолитографического оборудования влияет непосредственно на шаг между гребнями.
Технология FinFET является преобладающей, первыми ее освоили три крупнейших игрока на рынке — Intel, Samsung и тайваньская TSMC. Позже — и китайская компания SMIC. Почти вся высокопроизводительная электроника использует процессоры с транзисторами FinFET.
Однако и это решение постепенно исчерпывает свой ресурс. Проблема в том, что с уменьшением затвора располагать плавники все ближе друг к другу становится проблематичным. Дополнительно приходится каждый раз все больше вытягивать гребни в высоту. Пока это удавалось делать, но технология уже исчерпывает себя на техпроцессах в 5–3 нм.
Именно поэтому ведущие игроки вроде TSMC и Samsung не только ведут исследования по масштабированию FinFET, но и работают над новой перспективной архитектурой.
Сторонникам СССР самим не смешно? Или не противно? Постоянно кричат, что все технические достижения были придуманы в СССР, а запад их украл и нам перепродаёт. Так вот, почему ни одно из "украденных западом" советских изобретений не было запущено в массовое производство в СССР?
Может, всё же дело было в системе, которая зарывала в землю таланты? Ну например, чиновникам было невыгодно выделять деньги на запуск производства чего-то нового, поэтому они предпочитали спускать планы на выпуск устаревших изделий и время от времени закупать на западе лицензии и оборудования для производства того, что на западе уже давно производится и пользуется спросом.