
Видеокарты нашей молодости.
16 постов
16 постов
3 поста
3 поста
1 пост
Приветствую вас уважаемые читатели.
Как вы поняли по превью сегодня у нас немного тематический гость, но, к сожалению, в самой игре S.T.A.L.K.E.R мы его не протестируем.
К слову это очередная народная видеокарта только на этот раз уже 2007 года, да еще и немного тематическая.
Увы, видеокарта досталась мне только в варианте OEM, да еще и не сильно и живая, но обо всем по порядку.
На одном из сайтов посвященных игре S.T.A.L.K.E.R есть информация что вместе с видеокартой поставлялась игра S.T.A.L.K.E.R.: Shadow of Chernobyl.
К сожалению такого диска у меня не оказалось, поэтому я взял диск от Зова Припяти, не канонично, но все равно красиво
Пора отойти от картинки для превью, которую я готовил пол вечера для утренней съемки и пора перейди к нашей гостье.
nVidia GeForce 8600 GTS на 256 Мб от вендора Asus.
Вообще 8 серия GeForce была настоящим прорывом, но и при этом массово-умирающим прорывом, но об этом немного позже.
Обратная часть видеокарты не имеет ни чего особенного, даже информационная наклейка дает скудную информацию, только модель карты и объем памяти. Есть конечно еще обозначения, но их расшифровку я не нашел, подозреваю что HTDP как то связано с выводом цифровой картинки.
Из видеовыходов у нас тут 2 разъема DVI и S-Video способный выдавать композитный и компонентный сигнал.
У видеокарты установлена турбинная система охлаждения (которая, как вы помните по предыдущим статьям очень, любит забиваться пылью) с медным пятачком. Видеопамять передает тепло на эту же систему охлаждения через термопрокладки.
Система охлаждения достаточно шумная, но способная умерить пыл горячего графического процессора.
Горячий воздух из системы охлаждения выбрасывается вперед к видео разъёмам и ввиду того что карта однослотовая и могла стоять заглушка в следующем слоте видеокарта могла «гонять» горячий воздух по кругу. Плюс несвоевременное обслуживание могло окончательно «добить» видеокарту.
С нашей картой это и произошло.
Пробежимся по техническим характеристикам и поговорим о причинах столь массового отказа видеокарт 8 серии GeForce.
8 серия GeForce получила поддержку DirectX 10.1, OpenGL 3.3 и Shader Model4.0.
Так же видеокарта получила поддержку CUDA и PhysH (с определенной версией драйверов).
А еще видеокарты 8 серии последние что поддерживаются официально в операционных системах Windows 10 и имеют драйвера под них.
Видеокарта требует подключение дополнительного питания 6Pin.
Можно конечно установить драйвера на 6 и на 7 серию GeForce от более ранних систем, и обычно это работает.
В нашей версии частота графического процессора составляет 675 МГц, а частота шейдерного блока 1458 МГц.
Видеокарта работает на шине PCI-E x16 и официально под AGP шину не выпускались.
Оперативная память установлена Samsung, 4 чипа по 64 мегабайта что в сумме составляет 256 мегабайт. Тип памяти GDDR3 и работает на частоте 1008 МГц. Ширина шины памяти 128 бит.
Теперь поговорим о смертности видеокарт данной серии.
Многие из вас узнали, что такое отвал благодаря этой серии. Отвал был, как и видеокарт для настольного компьютера, так и видеокарт установленных в ноутбуках.
По каким же причинам происходил отвал?
Первое и основное это деградация чипа из-за нагрева. 8 серия получилась очень горячей, за исключением младших видеокарт из серии по типу 8400(которые, кстати, тоже отваливались, но спустя более долгий срок).
Так называемый “отвал“ это не просто слово, это реальный процесс, происходящий в основном между кристаллом чипа и его подложкой. Во время прогрева видеочипа шарики на подложке не успевают расплавиться, чтобы восстановить контакт, но успевают расплавиться под самим кристаллом и вновь соединиться с подложкой.
В истории техники это произошло одновременно с переходом на безсвинцовый припой.
Так как полностью перекатать шары под кристаллом задача из невозможных, плюс кристаллы очень качественно залиты компаундом через время после прогрева контакт все равно пропадет.
Наверное вы скажете указывая на мою статью про 8800GTX что там кристалла нет, вы ошибаетесь. Так как видеокарта и система очень массивная графический процессор там сделан наподобие обычного компьютерного процессора (если очень грубо) и кристалл закрыт теплораспределительной крышкой. Кстати, если сделать скальпирование на еще живой 8800GTX (Или GTX280, GTX560, к примеру) то можно серьезно продлить ей жизнь в коллекционных интересах.
С приходом GTX10xx линейки и выше отвал ушел в прошлое, теперь чипы просто получают термический пробой.
С 8600 у меня связана часть молодости. В одно время я был владельцем 8600GT от вендора Palit на целый 1 Гб памяти, но DDR2. Покупал я ее в 2011 году, когда у меня случился небольшой финансовый провал, и чтобы как то удержаться я продал свою видеокарту и купил недорого данный экземпляр. Не лишним будет сказать, что до сих пор трудится в одном из моих старых компьютеров адаптированных для программного ремонта старых кнопочных телефонов и ранних андроидов.
Те задачи, которые мне были нужны (а точнее в игры которые я играл) Мне ее хватало за глаза, поменял я ее только в 2016 году.
Я думаю к этому моменту у читателя статьи (и не только этой) возникнет вопрос, что же значат эти буквы: GT, GS, GTS, GTX.
Действительно, я ни в одной статье не разбирал это. Данные обозначения действительны только для видеокарт от GeForce.
Возьмем в пример видеокарту GeForce 6600.
Пока в модели не указано ни каких букв, это базовая модель на частотах рекомендуемых производителем и с установленной памятью, работающей на тех же рекомендованных частотах. Грубо говоря «ванильная» версия
Если же у нас GeForce 6600GS, то эта карточка будет уже чуть мощнее обычной, более высокие частоты графического процессора, может стоять чуть мощнее память или более будет использована более широкая шина.
GeForce 6600GT будет еще мощнее GS, будет установлена другая система охлаждения, частоты будут на порядок выше, да и память будет стоять намного быстрее.
А вот GeForce 6600LE это никчемный обрезок, с самой минимальной шириной шины, медленной памятью и низкой частотой графического процессора. Именно поэтому они чаще всего идут с пассивным охлаждением.
GTS версия находится ровно между GS и GT, а GTX соответственно выше.
Еще существовали GTX+ и Ultra обозначения, но дальше 8 и 9 серии я их не видел
В дальнейшем большинство обозначений просто убрали, оставили GTS, GT и GTX, среди которых GT считается базовой версией.
Расшифровки этих аббревиатур нет, в интернете существует только шуточная таблица.
Вроде рассказал обо всем и надо бы переходить к графическим бенчмаркам и посмотреть столько набирает наша гостья баллов.
Но так как у нас тематическая видеокарта хоть и уже вышедшая из строя после прогона тестов (честно не было времени прогревать) я решил найти в открытых источниках ее показания FPS в разных версиях S.T.A.L.K.E.R
И я нашел три ролика от одного автора именно с этой видеокартой.
Платформа: Core i7-4790k, 16Гб Оперативной памяти типа DDRIII и установленная Windows 7.
Сталкер Тень Чернобыля
1280х720, полное динамическое освещение, высокие настройки.
В обычном пробеге по локации средний FPS имеет значение 75-90, при каких либо перестрелках или местах с большим количеством эффектов (взрывы, аномалии) FPS может провалиться в 55-65 кадров.
Сталкер Чистое небо
1280х720, полное динамическое освещение, высокие настройки.
В обычном пробеге по локации средний FPS имеет значение 30-45, при каких либо перестрелках или местах с большим количеством эффектов (взрывы, аномалии) FPS может провалиться в 20-25 кадров.
Но мы с вами знаем, какая там оптимизация.
Сталкер Зов Припяти
1280х720, полное динамическое освещение, высокие настройки.
В обычном пробеге по локации средний FPS имеет значение 35-40, при каких либо перестрелках или местах с большим количеством эффектов (взрывы, аномалии) FPS может провалиться в 25-30 кадров.
Пора к тестам.
Наша тестовая платформа от видеокарты к видеокарте не меняется (разве что у AGP другая) Intel Core 2 Quad Q9550, DDRII – 8Gb, Windows 7 x64. Пресеты настроек бенчмарков: по умолчанию, разрешение 1024х768х32 кроме 3DMark 2006.
3DMark 2001. Выбиваем 32224 очков. Чуть медленнее, чем 8800 GTX, но почти вровень с HD3870.
3DMark2003. Выбиваем 19561. Далеко отстаем от 8800GTX и HD3870. Подозреваю дело в ширине шины, либо странной оптимизации бенчмарка.
3DMark 2005. 12552 очков. И это вполне достойный результат. Мы снова сблизились к HD3870.
Ну и последний 3DMark2006 с пресетом настроек 1280х1024.
Набираем 6607 очков. Видеокарта крепкий среднячок, даже не смотря на мое сравнение с более мощным собратом она полностью себя оправдывает.
Ну и по традиции скриншот из программы AIDA64.
На этом я завершаю данную статью. Надеюсь, вам было интересно.
Всем спасибо и до новых встреч.
Приветствую вас друзья.
Сегодня мы поговорим о самом младшем и самом медленном процессоре для сокета 478.
К слову данный процессор не является самым младшим из линейки Pentium 4, но об я расскажу чуть позже.
На крышке процессора по традициям Intel указываются следующие параметры: Частота процессора, объем кэша второго уровня в килобайтах, частота шины и рабочее напряжение процессора. В дальнейшем указание напряжения убрали.
Так же указан код процессора SL5TG по которому можно определить степпинг процессора.
Intel Pentium 4 1.4ГГц. Обратная сторона. Кстати 478 это последний сокет у Intel с использованием "ножек".
У нашего гостя внутри находится ядро с наименованием Willamette. Из инструкции у нас присутствует MMX, SSE и SSE2.
Ядро Willamette известно своей медлительностью, «воздушными» гигагерцами и скудным разгоном, по этой причине предыдущие поколение Intel Pentium 3 было на порядок быстрее при более низкой частоте процессора.
Процессор изготовлен по 180 нанометровой технологии, имеет степпинг D0 (последний степпинг для Willamette), множитель 14 и, не смотря на присутствие настроек в BIOS на его изменения, он заблокирован в обе стороны.
Кэш L1: 12 Кб + 8 Кб, Кэш L2: 256 Кб
Несмотря на высокое тепловыделение (72 Вт у нашего экземпляра) штатная система охлаждения отлично удерживает его в пределах 40 градусов.
Так как я ранее сказал, что наш процессор является самым младшим на сокет 478, но не является самым младшим из линейки Pentium 4, нам придется окунуться в историю создания.
20 ноября 2000 года компанией Intel были анонсированы первые процессоры Pentium 4. В их основе лежало принципиально отличающееся от предшественников ядро — Willamette. Процессоры Pentium 4 использовали новую системную шину, позволявшую передавать данные с частотой, превышавшей базовую в четыре раза. Таким образом, эффективная частота системной шины первых процессоров Pentium 4 составляла 400 МГц (физическая частота — 100 МГц).
Процессоры на ядре Willamette имели кэш данных первого уровня объёмом 8 Кбайт, кэш последовательностей микроопераций объёмом около 12 000 микроопераций, а также кэш-память второго уровня объёмом 256 Кбайт. При этом процессор содержал 42 млн транзисторов, а площадь кристалла составляла 217 мм², что объяснялось устаревшей технологией производства — 180 нм КМОП с алюминиевыми соединениями. До осени 2001 года процессоры на ядре Willamette выпускались в корпусе типа FCPGA (в случае с Pentium 4 этот корпус представлял собой микросхему в корпусе OLGA, установленную на переходник PGA) и предназначались для установки в системные платы с разъёмом Socket 423.
Ещё до выхода первых Pentium 4 предполагалось, что и процессоры на ядре Willamette и разъём Socket 423 будут присутствовать на рынке лишь до середины 2001 года, после чего будут заменены на процессоры на ядре Northwood и разъём Socket 478. Однако, в связи с проблемами при внедрении 130-нм технологии, лучшим по сравнению с ожидавшимся процентом выхода годных кристаллов процессоров на ядре Willamette, а также необходимостью продажи уже выпущенных процессоров анонс процессоров на ядре Northwood был отложен до 2002 года, а 27 августа 2001 года были представлены процессоры Pentium 4 в корпусе типа FC-mPGA2 (Socket 478), в основе которых по-прежнему лежало ядро Willamette.
Процессоры Pentium 4 на ядре Willamette работали на тактовой частоте 1,3—2 ГГц с частотой системной шины 400 МГц, напряжение ядра составляло 1,7—1,75 В в зависимости от модели, а максимальное тепловыделение — 100 Вт на частоте 2 ГГц.
Это был наглый копипаст с сайта Wikipedia, но лучше ни кто не расскажет. Однако мне есть, что от себя добавить.
Первые Intel Pentium 4, как было сказано в цитате из Wikipedia, были на сокете 423. Сам же сокет был короткоживущим и представлял собой во первых шлифовку самих процессоров Intel Pentium, а во вторых шлифовка нового типа памяти RDRAM.
Интересный факт, на сокет 423 не существовало процессоров Intel Celeron, однако их микрокоды присутствовали в обновлениях BIOS от производителей плат. Более того некоторые платы поддерживали и следующее ядро Northwood. Это было сделано из-за распространения переходников для процессоров который преобразовывал процессоры 478 сокета на 423.
Теперь поговорим о быстродействии данного процессора, а так же его разгонном потенциале.
Для проверки и разгона использовалась материнская плата Gigabyte GA-8IPE1000 Pro.
Так же у меня не нашлось сопоставимых процессоров для сравнения с нашим испытуемым, но нашлись процессоры с частотой 1.8GHz. Почему именно эта частота вы поймете позже.
Для начала посмотрим, что говорит о процессоре AIDA64.
По тестам CPU Queen наш процессор находится в таблице ниже, чем VIA C7. Причем даже маломальский разгон по шине в 10 МГц (1.5ГГц) не позволяет него обогнать.
По тесту производительности WinRAR мы набираем всего 203 кбайт\с
Процессоры с ядром Willamette из-за определенных проблем архитектуры не могли превысить частоту в 2 гигагерца, в связи с этим их разгон либо не сильно был большим, либо сопровождалось поднятием рабочего напряжения.
Так как наш экземпляр имеет последний степпинг D0, без поднятия напряжения мы смогли добиться стабильной работы при частоте 1.82 гигагерц, при этом частота шины составила 130 мегагерц.
При этом тест производительности в CPU Queen нам показывает, что мы догоняем Intel Celeron D 331 2.53ГГц на сокет 775, сомнительно, но ОК.
А вот тест WinRAR нас возвращает с небес на землю, показывая общую прибавку производительности всего на 24 кбайт\с. Это больше похоже на прирост производительности шины, а не процессора.
А теперь предлагаю вам сравнить производительность разогнанного процессора со следующими экземплярами:
Intel Celeron 1.8/128/400 (SL6A2) Willamette-128
Intel Celeron 1.8/128/400 (SL7RU) Northwood-128
Intel Pentium 4 1.8/256/400 (SL6BE) Willamette
Intel Pentium 4 2.0/512/400 (SL5ZT) Northwood
Последний процессор мы решили взять для контраста, а Intel Celeron 1.7 исключили.
Как и в предыдущей статье AMD Athlon64 x2 3800 сравнение я выведу в график.
Как можем наблюдать Intel Celeron на ядре Northwood при тестировании общей производительности в WinRAR сдал позиции и набрал всего 190 Кбайт\с. Видимо у младших версии кэш второго уровня работал медленнее.
Кстати, тут же мы можем понаблюдать битву двух разных ядер в лице двух процессоров Intel Celeron 1.8, и тут я задался вопросом, ведь ядро Northwood считается самым быстрым на 478 сокете, но при тестировании я столкнулся с тем, что оно наоборот работает не столь шустро. Как-нибудь проверим на двух процессорах Intel Pentium 4 с ядром Northwood и ядром Prescott.
Еще хотелось бы от вас дорогие читатели подсказать какую-нибудь программу для тестирования производительности процессоров. Мне показалось, что набор софта, что использовал я, оценивает производительность только по частоте (как и CPU-Z) и поэтому у нас не совсем адекватные результаты тестов. Буду ждать ваших предложений.
На этом позвольте закончить данную статью. Надеюсь вам было интересно.
Спасибо за внимание и до новых встреч.
Рад приветствовать вас дорогие друзья.
Сегодня мы поговорим о народных видеокартах своего времени, а именно о ATI Radeon 9600 от вендора Sapphire, а так же поймем, что разница в количестве памяти не прибавляло особой производительности видеокарте.
Хочу заметить, что у нас визуально две одинаковые видеокарты, так же их производительность друг от друга тоже не сильно отличается (в пределах 1-3% погрешности), но по факту видеокарты друг от друга отличаются.
Итак. ATI Radeon 9600PRO на 128 мегабайт и ATI Radeon 9600PRO на 256 мегабайт. Обе от вендора Sapphire.
Как должны были сойтись звезды, чтобы я с двух разных компьютеров привезенных с разных организации извлек видеокарты от одного вендора да еще и на одинаковом PCB.
Так же было большим удивлением, что родная система охлаждения, а именно вентиляторы находятся в исправном состоянии, нужно было только почистить.
Неизвестно по каким причинам, но на видеокарте с объемом на 256 мегабайт нет информационной наклейке, об объеме я узнал уже во время ее проверки.
На первой видеокарте с объемом 128 мегабайт наклейка на месте. По ней мы можем узнать модель карты, объем памяти и сокращенно перечисленные видеовыходы.
На моей памяти знакомство с Radeon под шину AGP началось в то время, когда о AGP уже мало кто вспоминал и на арену заходил AMD с серией процессоров FX. Я был, конечно, ранее знаком с Radeon 9250, но не более. В один момент я стал обладателем видеокарт ATI Radeon 9500 64 Мб, ATI Radeon 9550 128 Мб, ATI Radeon 9600 256 Мб, ATI Radeon 9700 128 Мб и ATI Radeon 9800PRO на 256 Мб.
До сих помню то удивление, как ATI Radeon 9500 без проблем запустила Сталкер Тень Чернобыля с неплохой частотой кадров в секунду. Тестирование старших моделей поражало воображение мощности и скорости работы DirectX 9. Особенно в сравнений видеокарт GeForce FX.
Обе наши видеокарты имеют активную систему охлаждения с фирменной наклейкой Sapphire и тиснением на рамке.
По видеовыходам у нас тут все стандартно для тех лет D-Sub(VGA), DVI, S-Video (Кстати, есть поддержка композитного выхода и компонентного, так же на плате есть джампер для переключения PAL или NTSC).
Не помню, говорил я или нет, но видеокарты ATI Radeon умеют выводить картинку на все видеовыходы, GeForce же это научилась делать только к 6хх серии видеокарт.
То есть технически к видеокарте ATI Radeon 9600 (да и почти к любой другой, где есть 3 видеовыхода) вы могли подключить два монитора и телевизор через тюльпан.
У меня даже сохранилась старая фотография где я к Radeon 9250 подключил 3 монитора (Один из мониторов был подключен через переходник BNC>VGA)
3 монитора подключенные к одной видеокарте ATI Radeon 9250. Кому интересно на столе из телефонов iPhone 3G и коммуникатор HP iPAQ rw6828.
В целом этот трюк я могу провернуть и сегодня, но увы бардак в мастерской из за некоторых технических моментов не позволят сделать нормальное фото. (Нахожусь в стадии переезда). Но как будет возможность я дополню статью свежими кадрами.
По традиции полезем под радиаторы.
И тут у нас интересный момент. Видеокарта ATI Radeon 9600Pro на 128 мегабайт имеет золотистый кристалл на подложке с подписью Radeon 9600 PRO
То у второй карты на чипе нанесена маркировка ядра, а именно RV350.
Артикул у чипов тоже разный, но при этом характеристики у них одинаковые.
Немного сухих цифр.
Частота графического процессора: 398 МГц. Количество текстурных блоков: 4. Поддержка Shader Model: 2.0. Поддержка DirectX: 9.0. Поддержка OpenGL: 2.0. Шина: AGP 8x. Техпроцесс: 0.13 мкм.
Мне это что-то напоминает.… Ах, точно, мы с вами обозревали видеокарту ATI Radeon x600Pro, где кроме шины PCI-E характеристики идентичны. Я думаю в конце еще попугаев сравним.
Память, как и графические процессоры, у наших карт разная как по объему, так и по производителю. У видеокарты ATI Radeon 9600Pro 128 Мб используется память Hynix тип GDDR, набрана она 8 чипами по 16 мегабайт. Частота памяти составляет 223 МГц (446 МГц) и ширина шины 128 бит. Судя по документации на чипы памяти, ее можно без ущерба немного разогнать (275МГц).
У второй карточки чипы памяти стоят от Infineon. Частота работы памяти, ширина шины и тип памяти точно такой же. Только память набрана из 8 чипов по 32 мегабайта. У этой памяти с разгоном хуже (250МГц).
Частота памяти и тип памяти у ATI Radeon x600Pro прилично отличается. Там используется GDDR2 память с частотой 500МГц. Следовательно, оценка бенчмарков у нее за счет этого будет выше.
Так. Ну, вроде покрутили, повертели, пора и к тестам приступать.
Напоминаю состав нашей тестовой платформы:
Intel Pentium D 935
Gigabyte GA-8i865GMK-775
DDR 3 Gb в двухканальном режиме
Windows XP
По традиции первый бенчмарк у нас 3D Mark 2001. В нем мы выбиваем 12334 (256 мегабайтная версия выбила 12009). Radeon x600 по неизвестным причинам выбил всего 9966.
ATI Radeon 9600Pro становится новым лидером среди ранее рассмотренных AGP видеокарт. Второе место занимает ATi Radeon 9100 и третье nVidia GeForce FX5200.
Radeon 9100, кстати, аппаратно держит только DirectX 8.1, при этом частоты памяти и графического процессора не сильно ниже чем у 9600. Из этого можно сделать вывод, что ATI Radeon 9100 идеально подходит для сборки игровых ретро компьютеров где не требуется поддержка DirectX 9.
Следующий бенчмарк у нас 3DMark 2003. В нем обе видеокарты выбили 3372. Radeon X600Pro выбивал 3249.
3DMark 2005 не вызвал проблем для наших гостей, 1710 выбила версия на 128 мегабайт, 1689 выбила версия на 256 мегабайт. Radeon x600Pro выбил 1731.
3DMark 2006. Впервые запускается для AGP видеокарт в наших статьях. Увы, из-за отсутствия поддержки Shader Model 3.0 оценка у нас не полная, но что есть, то есть. В нем мы набирает 434 за 128 мегабайтную и 427 за 256 мегабайтную версии. Radeon x600Pro, за счет более мощной платформы при тестировании, выбил 596.
Посмотрим на характеристики через AIDA64
В целом мне добавить больше не чего. Я лишь жалею о том, что в детстве избегал Radeon сидя только на известных мне GeForce и из-за этого, скорее всего, упустил часть игрового опыта.
Две эти видеокарты я оставлю себе, не буду продавать, есть у меня одна задумка. По этой же причине видеокарта Radeon 9100 по сей день остается у меня. Но о результатах моей задумки вы обязательно узнаете).
А сейчас я вынужден откланяться и попрощаться с вами. Спасибо вам за внимание и до новых встреч.
Здравствуйте мои дорогие читатели.
Сегодня у нас в гостях видеокарта, которую я держу в руках впервые. За это я должен сказать спасибо подписчику grenadiervint, именно он согласился отправить видеокарту в обмен на AMD Athlon x2 3800 для Socket 939.
После того как я видеокарту осмотрел, покрутил, узнал ее технические характеристики, немного поиграл и проверил в 3D тестах я решил написать статью.
Возможно, статья все-таки будет бедновата, так как в видеокарте нет ни чего примечательного.
Итак, начнем.
Сегодня у нас достаточно качественно сделанная видеокарта Matrox Millenium MGI G550 HD на 32Mb. Приписка AGP в шапке не просто так, видеокарта существует под разъем PCI.
Видеокарта резко отличается от всего того что мы рассматривали ранее высоким качеством исполнения. В схеме используются только твердотельные конденсаторы, система охлаждения держится на металлических клипсах, видеовыход VGA (D-SUB) выполнен на дочерней плате с возможностью отключения и установки видеокарты в низкопрофильный корпус, качественно подобранные компоненты, качественная обработка самой платы и хорошая шелкография.
Система охлаждения на видеокарте установлена пассивная, возможность подключить вентилятор отсутствует, при этом она прекрасно справляется со своими задачами.
На обратной стороне карты мы можем обнаружить информационную наклейку, в которой еще надо разобраться.
Единственное что сходу можно понять, что чип у нас G550 и объем памяти 32 мегабайта, остальные буквы содержат неизвестную для меня информацию (кроме DH, это говорит о двух видеовыходах на видеокарте).
Некоторым из моих читателей видеокарта Matrox может вытащить кучу неприятных воспоминаний. Основное предназначение видеокарт данной фирмы это CAD или дизайнерские программы, либо для подключения нескольких мониторов(большинство видеокарт которые продавались в то время имели один VGA или VGA и S-Video), то есть была картой профессионального уровня и имела слабую производительность в играх.
В ранее написанных статьях некоторые комментаторы вспоминали видеокарты Matrox не очень добрым словом.
Пора посмотреть на компоненты видеокарты поближе.
Под радиатором у нас скрывается графический процессор Matrox G550. Красивая гравировка.
Графический процессор работает на частоте 133 МГц, имеет аппаратную поддержку DirectX 6.0, есть 2 пиксельных конвейера.
Чипы памяти установлены Samsung типа SDRAM с частотой 166 МГц. Память объемом в 32 мегабайта набрана всего 2 чипами по 16 мегабайт. Ширина шины при этом 64 бита.
Из необычного для тех лет я еще увидел EEPROM, а точнее ее форм-фактор, в то время это не было так распространено. Зато сейчас, кстати, большинство БИОСов на материнских платах прошиты на SPI флешки подобного форм-фактора.
Сама видеокарта имеет разъем под шину AGP 4x.
Из видеовыходов, как было сказано ранее, у нас есть классический VGA (D-SUB) и DVI.
По техническим характеристикам видеокарта достаточно близка к nVidia Riva TNT2 M64.
Предлагаю посмотреть, сколько Matrox набирает попугаев в графических тестах.
Так как у нас поддержка только DirectX 6 бенчмарк будет всего один, 3DMark 2001.
Наша тестовая платформа неизменна: Intel Pentium D 935, 3 Гб DDR, Gigabyte GA-8i865GMK-775, Windows XP.
Интересно получается. По бенчмарку мы набираем 1427 попугаев, почти столько же набрала и ранее рассмотренная ATI Radeon 7000 которая тоже не относится к игровому сегменту.
Лично я на данной видеокарте поиграл в такие игры как Half-Life и Quake 3, на что-то большее просто не хватило времени (работа отнимает большую часть времени) и не могу сказать, что она меня как то удивила. Либо для меня это все банально, либо я неправильно выбрал соперника для сравнения. Единственное отличие от соперников это наличие двух видеовыходов и реально неплохое 2D (Если берем в сравнение Riva TNT2 M64).
По нашему обычаю давайте посмотрим, что нам скажет AIDA64.
Ну, вот мы с вами и прикоснулись к еще одной частичке истории, особенно я, я ранее никогда не держал карты от Matrox, а только слышал о них.
На этом можно завершить статью
Всем спасибо и до новых встреч дорогие друзья.
Здравствуйте друзья.
Сегодня у нас еще один представитель nVidia серии FX. На данный момент это последняя видеокарта от nVidia под шину AGP. Возможно, позже появятся другие карты. А вот о видеокартах от ATI еще есть в запасе, в скором времени напишу статью и про них.
FX5500 не сильно отличается от той же FX5200, но при условии одинаковой ширине шины. В нашем же случае ранее обозреваемая FX5200 имеет 128 бит, а наш гость всего 64 битный.
Вендора карты узнать не удалось, поэтому представляю вам ее простенько.
nVidia GeForce FX5500 128Mb
Особо тут не чего сказать, обычный пассивный радиатор, который, кстати, еще накрывает и оперативную память, хоть и не соприкасается с ней. Ну, еще можно выделить черный цвет текстолита, что изначально ее путает с эталонной FX5500 от вендора nVidia.
На обратной части тоже особо не чего интересного кроме двух информационных наклеек, которые говорят нам о модели карты, ее объеме, ширине шины и используемых видеовыходах.
Видеовыходы тут упомянуты не все. Помимо DVI и S-Video здесь так же имеется и D-Sub (VGA).
Так как снаружи больше ни чего интересного нет, заглянем под радиатор данной видеокарты.
FX5500 построена на родственном FX5200 чипе, а именно NV34B. Разница на самом деле не большая, чуть более тонкий техпроцесс (0.14 против 0.15) и чуть выше частота графического процессора (270 против 250).
На самом графическом процессоре мы можем наблюдать модель 5500.
У FX5200 графический процессор выглядит как то красивее.
По официальным данным у карты мог быть только объем на 128 мегабайт с шириной шины 128 бит. Однако китайцы такие китайцы и сделали видеокарту с шириной шины 64 бита, не распаяв дополнительные 4 микросхемы памяти и отключив два канала.
Что тут у нас по памяти… Память производства Fudar. Тип памяти DDR, набрана 4 микросхемами по 32 мегабайта. Память работает на частоте 143 МГц (эффективная 287 МГц).
Кстати найти даташит на данную микросхему памяти, чтобы узнать на какой частоте она реально можно работать у меня не вышло, я думаю до 166 МГц разогнать все-таки можно. Официально память должна работать (и быть установлена) на 200 МГц (эффективная 400 МГц)
Вот пишу я статью и понимаю, что она получится достаточно компактная. Оно в целом понятно, более конкретно мы разжевали в статье про FX5200, да и истории из детства с ней были. А вот FX5500 я держу в руках впервые, да еще плюс ее близкое родство с FX5200 не позволяет повторяться.
Переходим к тестам.
Так как интерфейс у нашей видеокарты AGP 8x нашей тестовой платформой неизменно выступает Intel Pentium D 935 с материнской платой Gigabyte GA-8i865GMK-775.
Первым у нас идет по классике всех видеокарт на обзорах 3DMark 2001. В нем мы набираем 4060 (Ti?) попугаев. Это кстати чуть меньше чем у Radeon 9250.
Ширина шины влияет очень сильно. FX5200 на моей памяти набирала около 7000 попугаев в 2001 Марке. Графический процессор нашего гостя работает в номинале: 270МГц о чем было сказано ранее.
Идем далее. 3DMark 2003. Слезы, боль, страдание. 877 попугаев. Даже FX5200 с 64 битной шиной показывала результат куда больше.
Ну и давайте напоследок 3DMark 2005. 216 попугаев.
Если предыдущий владелец покупал эту карту для игр, то его прям очень жаль.
Минутка информации.
К концу статьи я понял, что я вам соврал, была у меня в использовании FX5500 от вендора PNY. Зачастую он выпускает карты с интерфейсом PCI (Не PCI-E), соответственно у меня такая и была. Использовалась она в паре с AMD Athlon64 3800+ на 939 сокете с «полуотвальным» мостом.
Но на тот момент компьютер нужен был больше для работы, чем для игр. Из интересного, она была с двумя видеовыходами D-Sub и осматривая свои фотоархивы я нашел ее фотографию.
Сама же FX5500 позиционировалась как улучшенная версия FX5200 и совсем немного отставала по производительности от FX5600, если бы не большое количество подвальных видеокарт.
По традиции в конце статьи скриншот характеристик из AIDA64
На этом, пожалуй, все. Не думаю что данная видеокарта, как и статья, вызовет какие-то ностальгические чувства ввиду не сильной распространенности данной видеокарты, но я думаю, некоторым из вас было интересно узнать, что это за зверь (хотя у нас достаточно убогий пример).
Спасибо всем за внимание и до новых встреч.
Если вам было интересно вы так же можете почитать другие статьи о видеокартах, подборка откроется по этой ссылке.
Для шутников пишущих про S3 Trio64 вам сюда)
Приветствую тебя уважаемый читатель.
Сегодня у нас будет статья про старый жесткий диск от фирмы Seagate.
Seagate Medalist 4321 ST34321A
Цифры 4321 в наименовании модели означают объем диска, 4.321Gb неформатированной емкости.
В отличие от предыдущего Samsung корпус диска не окрашен, а со стороны платы контроллера имеет защитную металлическую пластину с небольшой инструкцией по эксплуатации диска.
Как уже было сказано в самом начале, диск относится к семейству Medalist, буквально через несколько месяцев вышло семейство Barracuda.
На самом деле диски семейства Barracuda I были выпущены еще в 1992 году (по информации с некоторых источников), но это были диски с интерфейсом SCSI, а диски с интерфейсом IDE имели семейство Barracuda ATA.
На информационных наклейках даты выхода накопителя зашифрована в Date Code и Site Code и если я все правильно расшифровал, данный диск выпущен в сентябре 1998 года. По информации с открытых источников выпускались они в периоде 1998-1999 года. Следовательно, могли устанавливаться в компьютеры на базе Intel Pentium MMX\Intel Pentium II\Intel Celeron на раннем 370 сокете(Mendocino).
Информационная наклейка с лицевой части полна информации.
Есть номера технической поддержки (очень интересно кстати указан номер поддержки в USA, именно поэтому на стационарных телефонах были и цифры и буквы), страна производитель, параметры накопителя которые мы с вами разбирали в статье про диск Samsung, а так же серийные номера и версия прошивки накопителя.
Под моделью есть весьма интересное предупреждение об аннулировании гарантии при снятой пломбе или наклейке, а так же при силе удара более 75 G’s (если честно перевод я не нашел, буду рад если подскажете).
На обратной же стороне вместо платы контроллера мы видим металлическую пластину с целым мануалом, где рассказывается об установке перемычки (джампика), о правильном подключении шлейфа IDE (в те времена в 40 пиновых шлейфах не было ключа предотвращающего неправильное подключение), и как его прикрутить, определить в BIOS и как отформатировать командами DOS. Ну и не забыли приправить иллюстрацией.
Кстати, можно заметить, что диск уже имел значение перемычки для совместимости с более старыми материнскими платами, которые не понимали объем более 2 гигабайт.
Небольшой факт. Пластина с инструкцией, закрывающая плату контроллера, была на дисках до семейства Barracuda V, но уже на Barracuda IV попадались диски без этой пластины. В некоторых мастерских их зачастую снимали, так как из-за них перегревались платы контроллера и сами диски. А вот у семейства Medalist снимать их надобности не было, диски были не горячими.
Мы не мы, если не залезем под эту пластину и не посмотрим на состав контроллера диска. Пластина держится всего на двух винтах.
Если сравнивать с Samsung то плата выглядит как то «бедновато». Однако давайте разбираться, что тут вообще установлены за микросхемы.
Первое что у нас идет это процессор STMicro 23400137-005.
Правее от него микросхема КЭШ памяти объемом 128 килобайт, Renesas 71016s.
Микросхема NEC C2154GC левее от процессора имеет неизвестное назначение. В интернете нет никакой информации, что она делает. Однако если полностью снять плату контроллера и отследить дорожки то можно сделать предположение что это контроллер блока магнитных головок.
В то время в каждом жестком диске была записана микропрограмма для работы (так называемая прошивка). На роль хранилища микропрограммы диска была установлена EEPROM Atmel AT29C1024-70VCS. Объем: 128 килобайт.
Микросхема в верхнем правом углу имеет маркировку STMicro 23400094-004 и так же не имеет никакой информации о себе в интернете. Опять же если поднять плату контроллера и отследить, куда идут дорожки можно ответить точно - это драйвер двигателя.
Есть еще одна мелкая микросхемка которая не хочет фотографироваться даже в макро режиме. Это микросхема 74HC4050D. Это простой 6 канальный преобразователь.
Итак. Диск мы осмотрели и покрутили. Пора переходить к подключению и тестам. Да, не смотря на свой возраст диск полностью исправен.
Забыл сказать в самом начале, интерфейс у диска IDE (PATA)
Подключаем наш диск и запускаем программу Victoria и смотрим, какую паспортную информацию о диске она нам показывает.
Из интересного можно наблюдать следующее, по журналу SMART стоит статус Disabled, что очень интересно, так как журнал SMART диск ведет. Так же можно обнаружить, что диск поддерживает UDMA2, а значит, диск напрямую работает с контроллером на материнской плате, а не через процессор, как было в случае с Samsung который поддерживает только PIO.
В журнале SMART мы можем наблюдать, что диск уже имеет функцию «лечения» сбойных секторов, как минимум один сбойный сектор уже скрыт от глаз пользователя. Так же есть количество стартов, но, увы, нет общего времени работы, было бы интересно узнать, сколько часов этот диск отработал.
Так же как и Samsung скорость шпинделя тут измеряется неадекватно. По факту мы имеет скорость шпинделя в 5400RPM.
Предлагаю вам теперь посмотреть на скоростные характеристики данного диска. Скорость интерфейса IDE в режиме UDMA 2 составляет 33.3 мегабайта в секунду. Внутренняя скорость накопителя по документации 16.6 мегабайт в секунду.
Предлагаю для начала измерить скорость линейного чтения накопителя. Она составляет 10 мегабайт в секунду и уменьшается до 7 к концу диска.
Невысокая скорость особенно если сравнить с текущими реалиями.
В тесте случайного чтения скорость еще ниже, всего 3.8 мегабайта в секунду.
А теперь посмотрим, какое же время доступа к случайному сектору.
В среднем оно составляет 18 миллисекунд.
В конце я записал видеоролик о том, с каким звуком диск запускается, позиционируется и выключается. В дальнейшем я дополню роликом со звуком диска во время работы, так как я его планирую установить в один из компьютеров.
А вообще у меня есть небольшая история из детства связанная дисками этого семейства. В один момент я обновлял свой компьютер с 486 на 462 сокет, но моя любовь к Windows 98 тогда была очень большой. Тогда я был не сильно опытен и не знал, как установить Windows 98 по соседству с Windows XP на один диск, и мной было принято решение купить небольшой диск для установки на него Windows 98. Тогда в комиссионке мной был куплен Seagate Medalist на 6 гигабайт, за каких-то 200 рублей, и он верой и правдой прослужил мне до момента пока я не перешел на двуядерные процессоры. И мне его в целом хватало на многое, сама система и пачка игрушек работающих под DOS и Windows 98 (та же GTA II Беспредел с диска буки не запускалась на XP даже в режиме совместимости). Если вы спросите «А почему ты не взял диск с 486?» отвечу, там был диск всего на 532 мегабайта.
Вот такая вышла третья статья про жесткие диски. К сожалению, в отличие от видеокарт диски больше всего подвержены механическому износу, поэтому и достаточно редкие гости.
Надеюсь, вам понравилось. Оставайтесь с нами, впереди еще много статей про старые железки. Так же если попадется интересный ремонт, запишу видеоролик.
До новых встреч.
Под спойлером не является чем то обязательным.
Так же при желании вы можете поддержать мое творчество и отправить донаты по этой ссылке. Донаты принимаются от 2 рублей. Так же подключена монетизация и от самого Pikabu.
Приветствую вас мои дорогие читатели.
Это моя первая статья в 2024 году.
Последняя статья была 5 декабря 2023 года, а статья про видеокарту HD3870, где было объявлено об этой статье, была написана аж полгода назад. Вся проблема в моей плавающей занятости, то свободен неделями, то работаю без сна.
Однако пришло время и пора уже выпустить эту статью и вернуть видеокарты подписчику. Надеюсь вам будет интересно.
Перед вами горячая широко известная мощь 2006 года от вендора XFX
Вообще 8 серия видеокарт GeForce еще печально известна своими "отвалами" не только в настольных компьютерах, но и в ноутбуках (К примеру, Acer Aspire 5520G). Наш экземпляр мало эксплуатировали, по этой причине он добрался до нас живым и здоровым и ни разу не тронутый паяльной станцией.
Дизайн видеокарты не отличается от дизайна эталонной nVidia, более того, мало кто отличался дизайном, максимум наносили свои наклейки на кожух.
Длина видеокарты составляет 29 сантиметров. Занимает сразу два слота. Напомню, что длина v составляла 22 сантиметра.
Начало статьи будет достаточно сухим, сразу скажу, самое интересное начнется чуть позже. На информационной наклейке у нас указана модель карты 8800GTX, частота графического процессора: 575 МГц, объем памяти: 768 мегабайт, тип памяти: DDR3 и какие видеовыходы установлены: 2 выхода DVI и S-Video.
Не помню точно, было ли это у 8800 GTX, но у GTX280 точно был индикатор рядом с видеовыходами. Он отображал работу видеокарты, красный – видеокарта не работает (сломана\перегрелась и ушла в защиту), зеленый – все в порядке.
Как я уже сказал ранее, почти все производители использовали эталонный вариант от nVidia, разве что мог отличаться цвет маски. Единственным отличием внешне это было нанесение своей наклейки на кожух системы охлаждения. Внутри же отличий могло быть больше, более высокие или низкие частоты графического процессора, другой производитель чипов памяти, другой график работы вентилятора.
Наш гость из всего вышеперечисленного имеет лишь плавный график работы вентилятора для сохранения тихой работы, но как результат мы имеем более высокие температуры ГП даже в покое.
Думаю с внешним осмотром карты можно закончить, можем лезть под «капот». Разбираем нашу видеокарточку.
Теперь можно начать подключать предыдущую статью про видеокарту Radeon HD3870, и начать делать какие либо сравнения.
Системы охлаждения видеокарт 8800 GTX и HD3870 разные. У HD3870 система питания и оперативная память охлаждалась отдельными радиаторами, а радиатор охлаждения центрального процессора можно было вытащить из кожуха, и представлял он из себя небольшой ребристый радиатор без тепловой трубки.
У 8800 GTX система охлаждения сделана единым целым. Охлаждение цепей питания и оперативной памяти осуществляется общей алюминиевой основой, в которой запрессована медная пластина охлаждения графического процессора. Вентилятор так же крепится на основу. Передача тепла от системы питания и чипов оперативной памяти осуществляется через термопрокладки.
При разборе таких видеокарт как 8800 GT, 8800 GTX, GTX260, GTX280 я всегда замечал, что вокруг графического процессора есть металлическая окантовка. За свою практику я слышал разное мнение о функционале данной штуки, но мое мнение, что она предотвращает деформацию текстолита. Кстати ее так же можно открутить, более тщательно очистить чип от термопасты и ровным слоем нанести новую.
Медленно, но верно мы подбираемся к графическому процессору. Его величество чип G80. На тот момент это был самый крупный и самый сложный чип.
Из интернет источников
В начале ноября прошлого года в сфере потребительской трехмерной графики произошло важное событие – компания Nvidia анонсировала графический процессор нового поколения G80 с унифицированной архитектурой, поддержкой Shader Model 4.0 и DirectX следующего поколения. Новый чип получился чрезвычайно сложным; количество транзисторов в нем достигло невиданной ранее цифры 681 миллион, при этом, аналоговую часть и TMDS-трансмиттеры пришлось вынести в отдельную микросхему. Процессор G80 лег в основу нового семейства GeForce 8800, возглавленного видеоадаптером GeForce 8800 GTX.
Поскольку G80 имел 384-битную шину доступа к памяти и обладал высоким уровнем энергопотребления, новый флагман Nvidia также получился очень габаритным и массивным. Однако, как показало тестирование новинки, эти недостатки GeForce 8800 GTX были легко скомпенсированы выдающимся уровнем производительности в играх.
Частота графического процессора составляет: 575 МГц, частота шейдерного блока 1350МГц, поддержка DirectX 10.1, 32 текстурированных блоков, 24 конвейера растровых операций и 128 унифицированных шейдерных процессоров.
Чип закрыт тепло-распределительной крышкой. К слову "скальпирование" достаточно неплохо помогает.
У HD3870 частота графического процессора составляла 750 МГц, посмотрим, поможет ли это удержать «пальму» мощности среди осмотренных ранее видеокарт.
Оперативная память используется от производителя Hynix типа GDDR3. Память работает на частоте 1800 МГц. Объем одного чипа памяти 64 мегабайта, на видеокарте размещено 12 чипов памяти, что дает в сумме 768 мегабайт. Ширина шины: 384 бита.
У HD3870 использовалась память GDDR4 с частотой 2250 МГц. Но ширина шины там была всего 256 бит, но и объем памяти был 512 мегабайт.
Новый чип получился чрезвычайно сложным; количество транзисторов в нем достигло невиданной ранее цифры 681 миллион, при этом, аналоговую часть и TMDS-трансмиттеры пришлось вынести в отдельную микросхему.
Действительно, на плате имеется еще один чип с оголенным кристаллом, который, кстати, тоже охлаждается алюминиевой основной системы охлаждения через термопрокладку.
Данный чип как раз и отвечает за вывод изображения, и он тоже может «отваливаться».
Скорее всего, по этой причине 8800 GTX не может выводить звук на разъемы DVI, как это делает HD3870.
Видеокарта 8800 GTX поддерживает технологию SLI с возможностью подключения до 4 видеокарт (QuadSLI). Поэтому у нее предусмотрено два вывода для подключения SLI мостика.
HD3870 поддерживала такое же масштабирование по технологии CrossFire.
В углу видеокарты мы можем увидеть эталонный логотип NVIDIA и рядом спикер. Данный спикер очень громко пищит, если вы забудете подключить 6Pin питание к видеокарте.
GeForce 8800 GTX достаточно прожорливая видеокарта. В спецификации было указано, что минимум требуется блок питания на 450W, скорее всего не какой-нибудь подвальный «Китай». Для питания было необходимо два 6Pin коннектора. Зачастую в комплекте к 8800 GTX прикладывали переходник Molex>6Pin.
HD3870 так же требовала блок питания на 450W, но обходилась всего одним разъемом на 6Pin.
Видеокарты от nVidia объединялись в SLI систему специальными мостиками. Если мне не изменяет память данные мостики шли в комплекте с материнскими платами которые поддерживают технологию SLI (Типа Asus M2N-SLI Deluxe).
На самом деле для технологии SLI мостик не играет критически важную роль, он помогает лишь синхронизовать видеокарты с разными частотами графических процессоров. В моем видеоролике(Внимание! Ссылка ведет на Дзен, не является рекламой) SLI мостик не использовался.
Самые внимательные, наверное, заметили что видеокарта, которая показывалась в начале статьи и видеокарта, которая участвовала в разборе это две разные карты. Так и есть, у нас в гостях две видеокарты. Вторая видеокарта от эталонного вендора nVidia. Увы, «отвал» ее догнал, и наклейка с кожуха не уцелела. У нее были выше частоты графического процессора и памяти, которые были снижены для синхронизации с видеокартой XFX и записью видеоролика с тестами в играх.
Пора переходить к тестам. Сегодня у нас все по классике 3DMark 2001\2003\2005\2006. Количество попугаев будем сравнивать с ранее упомянутой HD3870. Для начала ознакомимся техническими характеристиками не на словах, а на скринах.
Тестовая платформа у нас следующая: Intel Core 2 Quad Q9550, DDRII – 8Gb, Windows 7 x64, Материнская плата Asus P5Q PRO P35 чипсет. Пресеты настроек бенчмарков: по умолчанию, разрешение 1024х768х32.
3DMark 2001 является достаточно старым бенчмарком, но именно с него начинаются тесты всех графических ускорителей у меня на канале.
Итак. HD3870 в 2001 марке набирала 33963 попугая. Смотрим результат 8800 GTX.
Несмотря на более высокие частоты графического чипа и памяти HD3870 теряет свои лидерские качества уже в самом начале.
Идем далее. 3DMark 2003. HD3870 показала результат в 34915 попугаев. 8800 GTX, ваш выход.
И снова проигрыш. Вообще HD3870 является аналогом 8800 GT.
Кстати вот вам и прямой пример, когда более высокая частота не является показателем более высокой производительности. А если вы останетесь на моем канале я вам это докажу еще на центральных процессорах.
3DMark 2005. Про поддержку SLI данного бенчмарка информация разная, то держит, то не держит. В общем, проверяем только одну карту. HD3870 показала результат в 16915 попугаев. Смотрим сколько у нашего гостя.
Чем ближе к годам выпуска видеокарт тем меньше разрыв. В данном случае можно это посчитать за погрешность, но не будем
А вообще HD3870 вышла в 2007 году, спустя почти год после выхода 8800 GTX.
3DMark 2006 должен, наконец-то поставить точку кто сегодня займет «пальму» самой мощной видеокарты моего канала. HD3870показала результат 11135 попугаев. Что покажет 8800 GTX?
nVidia GeForce 8800 GTX в сухую победила HD3870, не дав ей не единого шанса.
А теперь короночка. 3DMark 2006 с 8800 GTX в режиме SLI.
Разница в окончательных баллах увы не такая какую мы ожидали от двух видеокарт, но это все из-за того что тест 3DMark комплексный, а не делающий упор только на графику.
Мне кажется, я уже вижу, как ваши ручки тянутся написать «Как ты запустил режим SLI на плате, которая его не поддерживает?» Действительно, материнская плата не поддерживает SLI, но умными головами (а изначально вообще патч был придуман ребятами в AsRock) был выпущен патч не только для активации SLI режима там где это не предусмотрено, но еще и объединять разные по сериям видеокарты.
8800 ПЕЧ GTX достаточно горячие видеокарты. Особенно когда они еще греют друг друга в режиме SLI.
Как я и говорил, у XFX видеокарты вентилятор работает медленнее, что можно заметить в статистике. Лишь только при превышении 80 градусов происходит резкий скачок оборотов, когда вторая видеокарта с более высокими оборотами просто не дошла до этих температурных значений.
Ну и под конец фотография установки этих двух монстров в один системный блок. Даже в 2024 году это до сих пор выглядит прикольно.
Моя статья подошла к концу. Спасибо всем за внимание и до новых встреч.
Выражаю благодарность подписчику grenadiervint за предоставление видеокарт для статьи.
Если вам было интересно вы так же можете почитать другие статьи о видеокартах, подборка откроется по этой ссылке.
Под спойлером не является чем то обязательным.
Так же при желании вы можете поддержать мое творчество и отправить донаты по этой ссылке. Донаты принимаются от 2 рублей. Так же подключена монетизация и от самого Pikabu.
Привет мои дорогие друзья. Прошу прощения за столь долгое отсутствие статей, моя основная работа заняла в ноябре все свободное время. Сейчас я разгрузился и решил порадовать вас контентом, заодно вспомнить, как писать статьи.
Сегодня у нас с вами будет небольшая статья, в которой будет не так много фотографии, но будет много истории. Наш сегодняшний гость представляет собой первые двухъядерные «гражданские» процессоры от фирмы AMD.
Представляю вашему вниманию AMD Athlon64 x2 3800+.
Почему я сказал что они «гражданские»? Потому что AMD выпустила свой первый двухъядерный процессор для серверов и рабочих станций под наименованием Opteron. Выпуск процессора Opteron состоялся в мае 2005 года(хотя некоторые источники утверждают что это был апрель 2003). В мае этого же года Intel презентовала свой первый двухъядерный процессор Intel Pentium D.
Двуядерная версия AMD Athlon для настольных ПК увидела свет 1 июля 2005 года.
Кстати для меня остается загадкой надпись на крышке AMD 2001. Было в голове такое предположение, что AMD в рамках подготовки запуска Socket 754 и выпуск 64 битных процессоров заказала большое количество этих крышек в 2001 году. Либо это дата когда AMD обрела самостоятельный Socket 462, но, однако в 1999 году они представили Slot A.
Технически процессор AMD Athlon64 x2 представляет собой два ядра AMD Athlon выполненных на одном кристалле. Так же кэш второго уровня у каждого ядра свой.
Intel тогда шла похожим путем, она разместила два кристалла ядра Presscot на одной подложке, кэш второго уровня так же у каждого ядра свой.
Но разница в производительности между ними колоссальная. Это вы увидите в сравнительных тестах ближе к концу статьи.
Наш гость обладает тактовой частотой в 2 гигагерца на ядро, но вы, наверное, спросите, причем тут модель 3800? Большая часть знает, что еще в старой борьбе между Intel и AMD (да и не только) AMD стала указывать на своих процессорах так называемый рейтинг.
В сети он называется Pentium rating или по-простому PR. То есть в модели процессора AMD (до выпуска моделей на Socket AM2+) указывалась модель сравнимая по частоте с процессором Pentium (или Celeron если, к примеру, берем Sempron) при этом работая на более низкой частоте.
То есть чисто технически AMD Athlon64 3800 по логике компании это равно Intel Pentium 4 с частотой 3.8 гигагерц. Получается AMD Athlon64 x2 3800 это как Intel Pentium D с частотой 3.8 гигагерц, но, тут так же используется сравнение с простым Intel Pentium 4 3.8 гигагерц. Кстати Intel Pentium D имели максимальную частоту 3.6 гигагерц (Intel Pentium D 960)
Отбросим истории и вернемся к нашему гостю.
Наш процессор AMD Athlon64 x2 3800+ двухъядерный, имеет частоту 2 гигагерца на ядро, о чем я сказал ранее. Объем КЭШа второго уровня 512 килобайт у каждого ядра. Процессор относится к архитектуре K8 и имеет ядро Toledo. Поддерживает такие инструкции как SSE, SSE2, SSE3, AMD64 и свою фирменную 3DNow, так же поддержка инструкции MMX. Процессор умеет снижать частоту при простое (функция Cool`n`Quiet) при этом так же снижается частота памяти.
Внутри процессора находится контроллер памяти, двухканальный, с поддержкой DDR PC-3200 (DDR 400). Максимальный объем поддерживаемой памяти 4 гигабайта.
Выполнен по 90 нанометровому техпроцессу и имеет TPD 89 Ватт.
Напряжение ядра 1.4 вольта при рабочей частоте.
Процессор использует шину HyperTransport с частотой в 1000 мегагерц.
Socket 939.
Если смотреть на процессор со стороны ножек не каждый сможет понять к какому Socket относится процессор, но на самом деле это легко.
Самое простое отличие в углах. У Socket 939 два угловатых среза, а у Socket АМ2 один угловатый. Обратите внимание в верхние углы на картинке.
Пора бы перейти к тестам и сравнениям, но тут все не так однозначно. Дело в том, что единственный живой компьютер под Socket 939 у меня остался фирменный Fujitsu-Siemens на чипсете SiS 761, поэтому мы не сможем глянуть на какие либо игровые тесты.
У нас будет с вами сравнение производительности с разными процессорами.
Итак.
Socket 939.
Участники: AMD Athlon64 3500+ 2.20 гигагерц (Venice) и AMD Athlon64 x2 3800+ 2 гигагерца (Toledo).
Платформа для тестирования: Фирменный компьютер Fujitsu-Siemens на чипсете SiS 761.
2 Гигабайта оперативной памяти типа DDR работающей в двухканальном режиме.
Windows 7
Socket AM2.
Участники AMD Athlon64 x2 3600 2 гигагерца (Windsor) и AMD Athlon64 x2 4000 2.1 гигагерц (Brisbane).
Платформа для тестирования: Материнская плата Gigabyte GA-M56S-S3 на чипсете nForce 560.
1.5 гигабайта оперативной памяти типа DDRII работающей в одноканальном режиме.
Windows 7
Socket 775.
Участники: Intel Pentium D 925 3.20 гигагерц (Presler) и Intel Pentium Dual-Core E2180 2 гигагерца (Allendale).
Платформа для тестирования Intel Pentium D925: Материнская плата Gigabyte GA-8i865GMK-775 на чипсете Intel 865G.
3 гигабайта оперативной памяти типа DDR работающей в двухканальном режиме.
Тестовая платформа для Intel Pentium Dual-Core E2180: Материнская плата Pegatron IPM31 на чипсете G31.
4 гигабайта оперативной памяти типа DDRII работающей в двухканальном режиме.
Windows 7
Тестирование производительности будет измеряться оценкой самой Windows 7, AIDA64 и WinRAR.
Чтобы не засорять тоннами скриншотов я в PowerPoint нарисовал графики.
Для начала оценка производительности средствами Windows 7
Как можем наблюдать, двухъядерный процессор на Socket 939 набрал столько же, сколько и его одночастотный собрат на Socket AM2. Процессоры на Socket 775 вырвались вперед, но.… Смотрим дальше.
Тест производительности WinRAR измеряет общую производительность системы, то есть тут играет роль еще и частота памяти, и ее работа в двухканале. Попугаи измеряются в Кбайт/c.
Вот тут то высокочастотный Pentium D начал сдавать позиции. Хотя у них одинаковые условия в плане двухканальности памяти, частота работы разная. На Socket 939 память работает на частоте 333МГц, на Socket 775 память работает на 400МГц.
E2180 основанный на обрезанном ядре Conroe показывает вполне хорошие результаты, условно говоря можно даже в 2023 году вполне выживать.
Тест AIDA64 под названием CPU Queen показала следующие результаты. AMD Athlon64 x2 3800+ s939 и AMD Athlon64 x2 3600 набирают одинаковое количество попугаев (с учетом погрешности, 6930 набрал 3600 и 6935 набрал 3800).
Dual-Core E2180 с уверенностью вырывается вперед почти догоняя по таблице AIDA64 AMD Athlon64 x2 6000
А вот Intel Pentium D925 выглядит крайне печальным, всего 4697, хуже чем AMD E-350 и Intel Atom D2500, но все таки лучше чем Intel Pentium D820 и Intel Atom 230.
В бытовых условиях AMD Athlon64 x2 3800+ вполне боеспособен для офисных задач и легкого серфинга в интернете. С простой видеокартой, не умеющей ни чего кроме отображения (что-то типо GeForce6600 или Radeon X550) способен показывать YouTube в качестве 720p30. Если же к нему в пару поставить что то серьезнее, то уже можно смотреть и FullHD так как видеокарта частично разгрузит процессор.
Без особых проблем с ним работает Windows 8 и 8.1, однако Windows 10 запускаться отказывается.
Единственное что вызывает трудности эксплуатации это поиск живой материнской платы. Большая часть плат была выпущена на nForce 4, который уже должен был весь сгореть еще в 2012 году, но встречаются ухоженные и живые платы по сей день. Самым лучшим вариантом найти плату на чипсете AMD, но это большая редкость.
Даже спустя время этот процессор является достаточно дорогим на вторичном рынке. Самым топовым же двухъядерником на Socket 939 является AMD Athlon64 x2 4800+ с частотой 2.4 гигагерца и имеющим 1 мегабайт кэша второго уровня на ядро.
Самая мякотка для коллекционеров иметь материнскую плату с nForce 3 (последний чипсет с поддержкой AGP) с самым топовым двухядерником, но цена такого набора может сравниться с покупой платы Sabertooth на Socket 1366 с каким нибудь i7. Ну а если сравнить с современным железом, то можно за эту сумму купить набор AM4 с простеньким Ryzen 3.
На этом моя статья подошла к завершению.
Выражаю благодарность подписчику grenadiervint за предоставление процессора для статьи
Спасибо за внимание и до новых встреч.