Компания Stability AI показала результаты GPU Intel Gaudi 2 в сравнении с NVIDIA H100. Intel оказалась победителем.
В сравнительном анализе были использованы две собственные модели и Stable Diffusion 3 на самых продвинутых GPU NVIDIA и Intel.
Даже в базовом исполнении Gaudi 2 выдал 927 единиц производительности, тогда как популярные H100 и A100 работали на уровне 595 единиц и 381 единиц соответственно. Максимальная версия адаптера Intel работает еще быстрее — в этой же задаче он выдает 1254 единиц производительности и оказывается на 56 % быстрее, чем NVIDIA H100.
С масштабированием задачи разница только увеличивается. При 32 запущенных задачах Intel Gaudi 2 выдает почти 50 единиц производительности, тогда как прямой конкурент оказывается 3,16 раза медленнее.
В реальном использовании NVIDIA будет быстрее, так как для вычислений фирменные адаптеры используют ядра Tensor.
Однако, не смотря на инновации Intel и AMD, ФРС США всё равно в невероятном темпе печатает деньги напрямую в Nvidia, что выливается в памп Битка в 70к и Кефира в 4к за. Надеемся на возобновления реальной конкуренции в сегменте потребительских видеокарт и нувелирование монополии Nvidia.
Всем привет, плата gigabyte b650m gaming wifi нормальная для gtx 1660 ti и r5 7500f (32гб оперативки 6400 mhz)? Для современных игр (НЕ НА УЛЬРАХ) подойдёт? К примеру helldivers 2, cyberpunk 2077 и т.д.
Энтузиаст с ником terminatorul создал кастомный UEFI-драйвер под названием NVStrapsReBar, предназначенный для расширения Resizable Bar для RTX 2000 и GTX 1600.
Игорьки смогут модифицировать UEFI-прошивку своей материнской платы, добавив ей возможность активировать Resizable BAR для видях NVIDIA Turing GTX 1600 и RTX 2000. Все необходимые файлы и подробную инструкцию по модификации можно найти на GitHub-странице проекта NVStrapsReBar.
Resizable BAR позволяет процессору получать полный доступ к видеопамяти карточки. Данная функция местами оказывает очень положительное влияние на производительность в некоторых игорах.
Некоторые вещи клиентам трудно объяснить проще показать.... Почему ваш комп периодически не включается или выключается сам?? потому что год выпуска вашего процессора и чипсета материнской платы 2014, а сейчас 2024???
И я искреннее сочувствую, что вам его продали на авито как немного бу за 50 тысяч и конечно в нем много ядер и потоков но по факту, вот цена на али + видеокарта RTX2070 самая дешевая после майнинга + самый дешевый корпус, у которого на морде даже USB работают через раз, ну блок питания норм, но 500 ватт, для такой сборки мало...
А вот год производства:
А вот сравнение производительности с современным и дело вообще не в количестве ядер и потоков
А у SSD в вашем компе пробег 10000+ часов и тех состояние плохо...
Выбор всегда есть либо вы берете стабильный комп с новым железом за те же деньги и трёх летней гарантией, да видеокарта послабее, но вам поиграть и так хватит....
Либо старый хлам, который может в любой момент вас подвести, это особенно важно если вы работаете на удалёнке...
Комп бу мощный, но старый можно брать только если он у вас второй или вы сможете сами его быстро отремонтировать)
Начнём с видеокарты, а то материнскую плату нечем проверять будет.
Сразу же бежать и пихать её в компьюктер плохая идея
Для начала необходимо сделать замеры сопротивления основных источников питания, дабы не снимать каждый замер (в интернете кучу картинок с правильными замерами), я сделал их за кадром, с ними всё ок. Убедившись, что на важных узлах нет короткого замыкания или сильно заниженного сопротивления, видеокарту можно подключить к лабораторному блоку питания.
Кушает хорошо!
Потребление 0.98А. Что это значит?
В большинстве сложных электронных устройств напряжения появляются постепенно, сначала, с блока питания приходит 3.3v, 12v, далее на плате из них генерируются уже другие . Порядок появления, чаще всего, задокументирован в Repair Guide, документ, который содержит в себе блок схемы, электронные схемы, таблички страпов и так далее. Для этой видеокарты порядок запуска напряжения выглядит вот так (взял у Vik-on):
График работы
На последнем месте у нас VDDC - напряжение питания видеоядра, самый мощный и прожорливый узел видеокарты, как правило, его запуск означает запуск всех предыдущих этапов. Без VDDC потребление составило бы 0.1-0.5А.
Потребление от ЛБП около 1А на видеокартах серии RX470-RX580 считается нормальным и говорит о том, что все основные источники питания запущены.
Питания появились, волшебный дым не вышел, можно подключать к ПК.
1/2
Ииии... Её нет
Видеокарта не определяется в системе. Одной из типовых болячек этой серии видеокарт является микросхема U100, именно так себя ведёт себя карта с пробитой u100
Бинго!!!
Первый же замер подтверждает мою теорию, короткое замыкание на землю.
Микросхема u100 широко известна в кругу ремонтников видеокарт, особенно любит она помирать в серии RX470-580. Это логический элемент 74AUP1G57GM. Его суть в том, что когда у нас на входы A,B,C поступает 3.3v на выходе Y так же появляются 3.3v.
Возможны различные комбинации. L - это 0 вольт, H - 3.3v
В нашем случае на 6 вывод микросхемы (он же вход С) напряжение поступить не может, там всё замкнулось на землю. И так как кроме разъема с одной стороны и u100 с другой больше вариантов нет, то u100 приговаривается к замене.
Мал клоп
После замены делаем повторный замер на разъеме
Стало лучше
Сопротивление по этой линии выросло до килоомов, так и должно быть у исправной карты.
Пришло время повторной проверки
Картинка есть! U100 не утягивает за собой GPU, но повредить плату вполне способна (о том, как она это может сделать будет следующий пост)
Меняем термопасту и в тесты
Отличный результат!
В диспетчере отображается корректно
Биос родной, хоть и флешка паянная, респект таким мастерам, которые шьют родную прошивка в зад, если новая не помогла, я бы замучился искать родной биос на эту поделку из Китая.
Баллы в суперпозишн соответствуют ожидаемым.
Температура в бублике на удивление низкая, если учесть, что там всего две тепловые трубки в СО.
Профит в этом посте не буду считать, потому что есть ещё плата. Сделаю продолжение поста, в нём и посчитаем.
Видеокарта отработала на данный момент двое суток, я что-то на Palworld подсел, тяжко ей, но справляется.
Спасибо всем, кто дочитал до этого момента. Так же хочу поблагодарить моих первых донатеров @Scriptor1, @user7601311 и одного анонима, эти донаты очень многое значат для меня, спасибо!
РЕШЕНО Проблема была в турбобусе от матери, который с завода включен. Мать gigabyte b550 gaming x v2. Турбобуст давал 4.4ггц процу с вольтажем 1.2-1.35 (ОЧЕНЬ МНОГО) и потреблением 90ВАТТ. Я отключил турбобуст и ручками выставил нужные мне цыфри, а именно - 4.4ггц при вольтаже 1.1в. Получил 65 в пике стресс теста (В играх это меньше 60) и потребление на уровне 50-60ВАТТ.
Всем привет, сразу спасибо за помощь тем кто поможет или приблизит к решению проблемы. Стоит у меня Ryzen 5 5600 новенький, с магазина, под башней Be Quite Pure Rock 2 (Чёрной версии, не знаю важно или нет :D). В придачу прилепил ещё один точно такой же кулер с обратной стороны башни чтобы отводило лучше, всё это дело под термопастой МХ-4 (Видюха под такой и нормально всё). Корпус DeepCool СC560, стоит 3 винта на вдув 140мм, они питаются по молексу, им кидал как и 5в, 7в так и 12в, температуры не менялись от слова совсем, поставил средние 7в чтобы не была турбина самолета. И так же стоит 1 на выдув возле самой башни. В нагрузке АИДА64 выдает все 80 КАРЛ градусов, что слишком не нормально, я понимаю что камень горячий, но не настолько же? По описанию башня отводит 150ВАТТ + стоит доп кулер, этого должно хватать хотя бы на 70 градусов, но никак не 80, если я не прав - исправьте меня, а так прилагаю скрины, может проблема легко решаемая. Так же видюха и должна быть 70 градусов, для 3070 это норма, вродь как.
Я не на что не намекаю, не топлю за красных или синих, не советую что либо.
Я хочу просто отметить что видеокарта должна соответствать потребностям. В частности разрешению монитора. Скины с инфой в помощь вам. Подробную инфу и цены самостоятельно можно найти.