Добрый день. Хочу обратиться к знающим и разбирающимся в вопросе людям. Стоит видеокарта на клмпе gtx1070, брат отдал со старого системника gtx 1080ti. Как вообще грамотно видюха меняется? Вытащил - воткнул? Или необходимо менять винду, драйвера, настйроки в биосе? i7 8700, gigabyte z370, бп 600w. Спасибо заранее за ответы.
Последняя статья была 5 декабря 2023 года, а статья про видеокарту HD3870, где было объявлено об этой статье, была написана аж полгода назад. Вся проблема в моей плавающей занятости, то свободен неделями, то работаю без сна.
Однако пришло время и пора уже выпустить эту статью и вернуть видеокарты подписчику. Надеюсь вам будет интересно.
Перед вами горячая широко известная мощь 2006 года от вендора XFX
nVidia GeForce 8800 GTX. Лицевая сторона.
Вообще 8 серия видеокарт GeForce еще печально известна своими "отвалами" не только в настольных компьютерах, но и в ноутбуках (К примеру, Acer Aspire 5520G). Наш экземпляр мало эксплуатировали, по этой причине он добрался до нас живым и здоровым и ни разу не тронутый паяльной станцией.
nVidia GeForce 8800 GTX. Обратная сторона.
Дизайн видеокарты не отличается от дизайна эталонной nVidia, более того, мало кто отличался дизайном, максимум наносили свои наклейки на кожух.
Длина видеокарты составляет 29 сантиметров. Занимает сразу два слота. Напомню, что длина v составляла 22 сантиметра.
Информационная наклейка.
Начало статьи будет достаточно сухим, сразу скажу, самое интересное начнется чуть позже. На информационной наклейке у нас указана модель карты 8800GTX, частота графического процессора: 575 МГц, объем памяти: 768 мегабайт, тип памяти: DDR3 и какие видеовыходы установлены: 2 выхода DVI и S-Video.
Не помню точно, было ли это у 8800 GTX, но у GTX280 точно был индикатор рядом с видеовыходами. Он отображал работу видеокарты, красный – видеокарта не работает (сломана\перегрелась и ушла в защиту), зеленый – все в порядке.
Как я уже сказал ранее, почти все производители использовали эталонный вариант от nVidia, разве что мог отличаться цвет маски. Единственным отличием внешне это было нанесение своей наклейки на кожух системы охлаждения. Внутри же отличий могло быть больше, более высокие или низкие частоты графического процессора, другой производитель чипов памяти, другой график работы вентилятора.
Наклейка вендора XFX
Наш гость из всего вышеперечисленного имеет лишь плавный график работы вентилятора для сохранения тихой работы, но как результат мы имеем более высокие температуры ГП даже в покое.
Думаю с внешним осмотром карты можно закончить, можем лезть под «капот». Разбираем нашу видеокарточку.
GeForce 8800GTX.
Теперь можно начать подключать предыдущую статью про видеокарту Radeon HD3870, и начать делать какие либо сравнения.
Системы охлаждения видеокарт 8800 GTX и HD3870 разные. У HD3870 система питания и оперативная память охлаждалась отдельными радиаторами, а радиатор охлаждения центрального процессора можно было вытащить из кожуха, и представлял он из себя небольшой ребристый радиатор без тепловой трубки.
У 8800 GTX система охлаждения сделана единым целым. Охлаждение цепей питания и оперативной памяти осуществляется общей алюминиевой основой, в которой запрессована медная пластина охлаждения графического процессора. Вентилятор так же крепится на основу. Передача тепла от системы питания и чипов оперативной памяти осуществляется через термопрокладки.
Система охлаждения 8800 GTX со снятым кожухом.
При разборе таких видеокарт как 8800 GT, 8800 GTX, GTX260, GTX280 я всегда замечал, что вокруг графического процессора есть металлическая окантовка. За свою практику я слышал разное мнение о функционале данной штуки, но мое мнение, что она предотвращает деформацию текстолита. Кстати ее так же можно открутить, более тщательно очистить чип от термопасты и ровным слоем нанести новую.
Металлическая окантовка.
Медленно, но верно мы подбираемся к графическому процессору. Его величество чип G80. На тот момент это был самый крупный и самый сложный чип.
Из интернет источников
В начале ноября прошлого года в сфере потребительской трехмерной графики произошло важное событие – компания Nvidia анонсировала графический процессор нового поколения G80 с унифицированной архитектурой, поддержкой Shader Model 4.0 и DirectX следующего поколения. Новый чип получился чрезвычайно сложным; количество транзисторов в нем достигло невиданной ранее цифры 681 миллион, при этом, аналоговую часть и TMDS-трансмиттеры пришлось вынести в отдельную микросхему. Процессор G80 лег в основу нового семейства GeForce 8800, возглавленного видеоадаптером GeForce 8800 GTX.
Поскольку G80 имел 384-битную шину доступа к памяти и обладал высоким уровнем энергопотребления, новый флагман Nvidia также получился очень габаритным и массивным. Однако, как показало тестирование новинки, эти недостатки GeForce 8800 GTX были легко скомпенсированы выдающимся уровнем производительности в играх.
Частота графического процессора составляет: 575 МГц, частота шейдерного блока 1350МГц, поддержка DirectX 10.1, 32 текстурированных блоков, 24 конвейера растровых операций и 128 унифицированных шейдерных процессоров.
Чип G80-300-A2.
Чип закрыт тепло-распределительной крышкой. К слову "скальпирование" достаточно неплохо помогает.
У HD3870 частота графического процессора составляла 750 МГц, посмотрим, поможет ли это удержать «пальму» мощности среди осмотренных ранее видеокарт.
Оперативная память используется от производителя Hynix типа GDDR3. Память работает на частоте 1800 МГц. Объем одного чипа памяти 64 мегабайта, на видеокарте размещено 12 чипов памяти, что дает в сумме 768 мегабайт. Ширина шины: 384 бита.
Чип памяти Hynix HY5RS123235B.
У HD3870 использовалась память GDDR4 с частотой 2250 МГц. Но ширина шины там была всего 256 бит, но и объем памяти был 512 мегабайт.
Новый чип получился чрезвычайно сложным; количество транзисторов в нем достигло невиданной ранее цифры 681 миллион, при этом, аналоговую часть и TMDS-трансмиттеры пришлось вынести в отдельную микросхему.
Действительно, на плате имеется еще один чип с оголенным кристаллом, который, кстати, тоже охлаждается алюминиевой основной системы охлаждения через термопрокладку.
Данный чип как раз и отвечает за вывод изображения, и он тоже может «отваливаться».
Чип NV10-1-A3.
Скорее всего, по этой причине 8800 GTX не может выводить звук на разъемы DVI, как это делает HD3870.
Видеокарта 8800 GTX поддерживает технологию SLI с возможностью подключения до 4 видеокарт (QuadSLI). Поэтому у нее предусмотрено два вывода для подключения SLI мостика.
Выводы SLI для подключения мостика.
HD3870 поддерживала такое же масштабирование по технологии CrossFire.
В углу видеокарты мы можем увидеть эталонный логотип NVIDIA и рядом спикер. Данный спикер очень громко пищит, если вы забудете подключить 6Pin питание к видеокарте.
Эталонный логотип, спикер и разъем для подключения вентилятора.
GeForce 8800 GTX достаточно прожорливая видеокарта. В спецификации было указано, что минимум требуется блок питания на 450W, скорее всего не какой-нибудь подвальный «Китай». Для питания было необходимо два 6Pin коннектора. Зачастую в комплекте к 8800 GTX прикладывали переходник Molex>6Pin.
HD3870 так же требовала блок питания на 450W, но обходилась всего одним разъемом на 6Pin.
Видеокарты от nVidia объединялись в SLI систему специальными мостиками. Если мне не изменяет память данные мостики шли в комплекте с материнскими платами которые поддерживают технологию SLI (Типа Asus M2N-SLI Deluxe).
SLI мостик.
На самом деле для технологии SLI мостик не играет критически важную роль, он помогает лишь синхронизовать видеокарты с разными частотами графических процессоров. В моем видеоролике(Внимание! Ссылка ведет на Дзен, не является рекламой) SLI мостик не использовался.
Самые внимательные, наверное, заметили что видеокарта, которая показывалась в начале статьи и видеокарта, которая участвовала в разборе это две разные карты. Так и есть, у нас в гостях две видеокарты. Вторая видеокарта от эталонного вендора nVidia. Увы, «отвал» ее догнал, и наклейка с кожуха не уцелела. У нее были выше частоты графического процессора и памяти, которые были снижены для синхронизации с видеокартой XFX и записью видеоролика с тестами в играх.
Две видеокарты 8800 GTX.
Пора переходить к тестам. Сегодня у нас все по классике 3DMark 2001\2003\2005\2006. Количество попугаев будем сравнивать с ранее упомянутой HD3870. Для начала ознакомимся техническими характеристиками не на словах, а на скринах.
AIDA64.
Тестовая платформа у нас следующая: Intel Core 2 Quad Q9550, DDRII – 8Gb, Windows 7 x64, Материнская плата Asus P5Q PRO P35 чипсет. Пресеты настроек бенчмарков: по умолчанию, разрешение 1024х768х32.
3DMark 2001 является достаточно старым бенчмарком, но именно с него начинаются тесты всех графических ускорителей у меня на канале.
Итак. HD3870 в 2001 марке набирала 33963 попугая. Смотрим результат 8800 GTX.
3DMark 2001.
Несмотря на более высокие частоты графического чипа и памяти HD3870 теряет свои лидерские качества уже в самом начале.
Идем далее. 3DMark 2003. HD3870 показала результат в 34915 попугаев. 8800 GTX, ваш выход.
3DMark 2003.
И снова проигрыш. Вообще HD3870 является аналогом 8800 GT.
Кстати вот вам и прямой пример, когда более высокая частота не является показателем более высокой производительности. А если вы останетесь на моем канале я вам это докажу еще на центральных процессорах.
3DMark 2005. Про поддержку SLI данного бенчмарка информация разная, то держит, то не держит. В общем, проверяем только одну карту. HD3870 показала результат в 16915 попугаев. Смотрим сколько у нашего гостя.
3DMark 2005.
Чем ближе к годам выпуска видеокарт тем меньше разрыв. В данном случае можно это посчитать за погрешность, но не будем
А вообще HD3870 вышла в 2007 году, спустя почти год после выхода 8800 GTX.
3DMark 2006 должен, наконец-то поставить точку кто сегодня займет «пальму» самой мощной видеокарты моего канала. HD3870показала результат 11135 попугаев. Что покажет 8800 GTX?
3DMark 2006.
nVidia GeForce 8800 GTX в сухую победила HD3870, не дав ей не единого шанса.
А теперь короночка. 3DMark 2006 с 8800 GTX в режиме SLI.
3DMark 2006 в режиме SLI.
Разница в окончательных баллах увы не такая какую мы ожидали от двух видеокарт, но это все из-за того что тест 3DMark комплексный, а не делающий упор только на графику.
Мне кажется, я уже вижу, как ваши ручки тянутся написать «Как ты запустил режим SLI на плате, которая его не поддерживает?» Действительно, материнская плата не поддерживает SLI, но умными головами (а изначально вообще патч был придуман ребятами в AsRock) был выпущен патч не только для активации SLI режима там где это не предусмотрено, но еще и объединять разные по сериям видеокарты.
GPU-Z
Furmark
8800 ПЕЧ GTX достаточно горячие видеокарты. Особенно когда они еще греют друг друга в режиме SLI.
Статистика после всех тестов.
Как я и говорил, у XFX видеокарты вентилятор работает медленнее, что можно заметить в статистике. Лишь только при превышении 80 градусов происходит резкий скачок оборотов, когда вторая видеокарта с более высокими оборотами просто не дошла до этих температурных значений.
Ну и под конец фотография установки этих двух монстров в один системный блок. Даже в 2024 году это до сих пор выглядит прикольно.
Моя статья подошла к концу. Спасибо всем за внимание и до новых встреч.
Выражаю благодарность подписчику grenadiervint за предоставление видеокарт для статьи.
Если вам было интересно вы так же можете почитать другие статьи о видеокартах, подборка откроется по этой ссылке.
Под спойлером не является чем то обязательным.
Так же при желании вы можете поддержать мое творчество и отправить донаты по этой ссылке. Донаты принимаются от 2 рублей. Так же подключена монетизация и от самого Pikabu.
Здравствуйте. Дайте совет. Есть системный блок Windows 10, с видеокартой ASUS ROG Strix GTX970 4 Gb. На выходе у неё HDMI, Displayport, DVI-D (dual), DVI-I (dual). Больше года отлично работала связка мониторов LG 29WK600-W без переходников по HDMI и вторым старенький ACER S231HLbd без переходников по DVI-D. Пару месяцев назад ACER перестал выходить из спящего режима. Системный блок стартует, всё включается и работает. Оба монитора. Но спустя, установленные 15 минут сна (установлено только отключение мониторов), в обычной работе все хорошо, ACER остаётся в режиме ожидания -- мигает синим светодиод. Выключение/включение монитора не помогают. Помогало через случайное время перезагрузка системного блока. При этом основной LG отлично выходит и работает, в любых случаях. Потом решил отключить отключение мониторов (извините) -- неделю работало. Затем ACER ушёл в циклическую перезагрузку. Просто в момент работы: он выключился и по кругу -- логотип включения и выключается, снова стартует -- логотип и по новой. Второй монитор при этом отлично работает. Сейчас при подключении ACER просто в постоянном ждущем режиме -- индикатор мигает синим. Что сделал: блок питания ACER -- работает, менял; кабель менял на заведомо рабочий -- не помогло (только DVI); драйвера обновлял -- ничего; ОС -- без левака, чистая. ВАЖНО! LG при всех этих раскладах великолепно работает. Предполагаю основные ответы, сразу напомню всё работало до этого! Почему перестало? Куда посмотреть.
Всем доброго дня, пикабушники! Столкнулся с такой неприятной ситуацией, компьютер работает в штатном режиме, не важно игра запущена или просто рабочий стол в простое. Видеокарта Gigabyte GTX 970 Windforce. Гаснет экран, пропадает картинка. Помогает перезагрузка компьютера, но не всегда, бывает спикер пищит 1 длинный и 3 коротких гудка, что влечет за собой неисправность видеокарты (исходя из терминологии спикеров в интернете). В общем разобрал видеокарту, термопрокладки менял не давно как и термопасту, но обнаружил нечто… Чип с подгоревшими контактами, да и самому чипу досталось… Люди добрые, подскажите, что за чип, как его найти и где взять… Фото прикладываю
Порталу TechPowerUp удалось раздобыть и протестировать образец выпущенной сегодня видеокарты GeForce GTX 1630. Тесты показали, что новинка уступает даже Radeon RX 6400 — самому младшему и наименее мощному представителю семейства Radeon RX 6000.
Очевидно, что в лучшем случае GeForce GTX 1630 можно считать заменой модели GeForce GT 1030. Однако партнёры NVIDIA отмечают, что это замена для GeForce GTX 1050 Ti, выпущенной в 2016 году.
В основе GeForce GTX 1630 лежит графический процессор TU117-150 поколения Turing. В составе GPU присутствуют 512 ядер CUDA. Это меньше, чем у модели GeForce GTX 1650, выпущенной в 2019 году, которая ещё на момент анонса оказалась весьма посредственным ускорителем. Частота GPU новинки составляет 1740 МГц. В Boost-режиме она увеличивается до 1785 МГц. Карта получила 4 Гбайт памяти GDDR6 с эффективной частотой 12 ГГц.
По результатам тестов TechPowerUP, GeForce GTX 1630 не смогла догнать даже Radeon RX 6400. А немногим более мощная Radeon RX 6500 XT, которая в прессе на момент выхода получила в основном негативные оценки, оказывается вдвое быстрее GeForce GTX 1630 в играх с разрешением 1080p и 1440p.
Уровень энергопотребления GeForce GTX 1630 примерно аналогичен модели Radeon RX 6400 и в тех же играх составляет около 49 Вт при заявленных максимальных 75 Вт. Для сравнения, GeForce GTX 1650 потребляет около 74 Вт. Греется новинка не сильно. Максимальная температура в самой горячей точке в ходе тестов составила 70 градусов по Цельсию. Графический чип разогрелся только до 63 градусов. В играх уровень шума модели Gainward составил около 23 дБА.
По словам TechPowerUP, конкретный образец GeForce GTX 1630, участвовавший в тестах, не имеет настройки уровня энергопотребления. При этом карта оснащена одним 6-контактным разъёмом для дополнительного питания, хотя в теории могла бы обойтись питанием из слота PCIe.
Рекомендованной стоимости у GeForce GTX 1630 нет. По данным китайских продавцов, ускоритель оценён примерно в 1000 юаней (около $150). Однако партнёры NVIDIA за свои версии берут дороже.
Для всех поклонников футбола Hisense подготовил крутой конкурс в соцсетях. Попытайте удачу, чтобы получить классный мерч и технику от глобального партнера чемпионата.
А если не любите полагаться на случай и сразу отправляетесь за техникой Hisense, не прячьте далеко чек. Загрузите на сайт и получите подписку на Wink на 3 месяца в подарок.
Перепала видеокарта можно сказать даром. Вот такая, неплохая производительность несмотря на её возраст
В простое 39 градусов, стоит дать малейшую нагрузку, график температуры моментально скачет вверх. В фурмарке за 15 секунд нагревается до 95-99 градусов. Система охлаждения работает, трубки горячие, кулера крутятся, термопасту намазал mx4 аккуратным тонким слоем, пробовал и толще мазать, разницы нет. Артефактов в нагрузке нет, при такой температуре попробовал поиграть, всё в норме. Подскажите пожалуйста, в чём может быть дело.