Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Потеряшки: ищите потерянные предметы без времени! Расслабляйтесь, исследуйте, находите.

Потеряшки - поиск предметов

Головоломки, Казуальные, Детские

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
4
VPopoff
VPopoff
6 месяцев назад

Nvidia и Cisco объединяют усилия, чтобы ускорить внедрение ИИ в компаниях⁠⁠

Nvidia и Cisco объединяют усилия, чтобы ускорить внедрение ИИ в компаниях Искусственный интеллект, Новости, Cisco, Nvidia, Технологии, IT

Ведущий производитель чипов для систем искусственного интеллекта Nvidia (#NVDA) и гигант сетевого оборудования Cisco Systems (#CSCO) расширяют партнёрство, чтобы упростить корпорациям процесс внедрения ИИ-технологий. Несмотря на растущий интерес к ИИ, многие компании сталкиваются со сложностями при модернизации своих центров обработки данных.

Ставка на инфраструктуру

  • Cisco и Nvidia отметили, что основной барьер для массового внедрения ИИ — это сложность интеграции серверных и сетевых решений в дата-центрах.

  • Чтобы решить эту проблему, корпорации расширят линейку продуктов, использующих технологии друг друга, и предложат готовые решения для быстрой интеграции.

Spectrum-X Ethernet с чипами Cisco

  • Nvidia внедрит в семейство продуктов Spectrum-X Ethernet чипы от Cisco, которые позволяют обрабатывать более широкий спектр задач по подключению и сетевому взаимодействию.

  • Это призвано дать корпоративным клиентам доступ к максимально производительным и надёжным сетевым системам, способным выдерживать интенсивные нагрузки ИИ-приложений.

Слова руководителей

Генеральный директор Cisco Чак Роббинс подчеркнул важность партнёрства:

«Предприятия испытывают колоссальное давление, требуя быстрого и эффективного развертывания ИИ, но при этом сложно сбалансировать инвестиции и риски. Мы объединились с Nvidia, чтобы устранить эти барьеры для клиентов и помочь им реализовать весь потенциал новых инфраструктурных решений».

Реакция рынка

  • После объявления о расширении сотрудничества акции Cisco выросли на 2,2%, достигнув отметки $64,64, несмотря на общее снижение технологического сектора во вторник.

  • В то же время акции Nvidia (#NVDA) опустились на 2% до $124,44.

Вывод

Партнёрство двух технологических гигантов призвано ускорить процесс внедрения ИИ в корпоративном сегменте. Если Cisco и Nvidia действительно смогут предложить более простые и эффективные решения для дата-центров, это может стать важным шагом к массовому освоению искусственного интеллекта в бизнес-среде по всему миру.

https://www.goinvesting.ru/

https://t.me/Go_Investing

https://tenchat.ru/Go_Invest?utm_source=7621a3a8-2e22-45f7-9...

Показать полностью 1
[моё] Искусственный интеллект Новости Cisco Nvidia Технологии IT
2
12
ev527
ev527
7 месяцев назад
Лига программистов

Как из-за китайской нейросети DeepSeek богатейшие люди планеты обеднели на $108 млрд⁠⁠

Нейросеть за $6 млн, не уступая моделям за сотни миллионов, фактически сломала правила игры и обрушила курс акций американских IT-гигантов

Как из-за китайской нейросети DeepSeek богатейшие люди планеты обеднели на $108 млрд Нейронные сети, Китай, Инновации, Стартап, IT, Технологии, США, Nvidia, Искусственный интеллект, Длиннопост, DeepSeek

Педер Северин Крёйер. Рыбаки тянут сети на северном пляже Скагена. 1883

По информации агентства Bloomberg, 27 января в результате биржевых торгов состояния 500 богатейших людей планеты уменьшились в общей сложности на $108 млрд (10,5 трлн руб.). В этот день резко снизились акции крупнейших американских технологических корпораций. В результате индекс NASDAQ Composite упал на 3,1%, а S&P 500 — на 1,5%, производитель чипов Nvidia потерял статус самой дорогой компании мира.

Весь этот обвал обеспечил скромный китайский стартап DeepSeek. Несколько дней назад он представил новую версию своей нейросети, на которую были потрачены крайне скромные по меркам отрасли $6 млн (590 млн руб.): DeepSeek-R1. При этом в тестах она показала результат, сравнимый с лидерами рынка.

Как создаются современные нейросети

Чтобы разобраться в особенностях продукта китайской компании, нужно сначала понять, как создаются современные популярные нейросети. Стандарт для них задала в ноябре 2022 года компания OpenAI, выпустив свой чат-бот ChatGPT, использовавший нейросеть GPT-3.5.

Сама концепция нейросетей была изобретена еще в 1980-х годах, однако широкого распространения она не имела. В 2017 году команда исследователей Google изобрела «трансформеры» — вид нейронных сетей, «понимающих» контекст слова или фразы с помощью анализа соседних морфем.

Взяв за основу эти алгоритмы, OpenAI прогнала через них большие объемы данных, «обучая» таким образом нейросети, в результате получая большие языковые модели. Процесс такого обучения, кроме самих данных, также требовал все больше вычислительных мощностей. Серьезные мощности нужны и после создания моделей — для обработки с их помощью запросов пользователей.

Искусственный интеллект?

Созданные OpenAI модели показывали настолько впечатляющие успехи во многих видах задач, что фактически нейросети стали синонимом искусственного интеллекта (ИИ). Отметим, что это преувеличение: настоящим, так называемым сильным ИИ, нейросети на данный момент не являются.

Большинство экспертов считают, что в принципе настоящий ИИ создать на основе нейросетей невозможно, для него нужны принципиально другие алгоритмы, однако эта подмена понятий закрепилась в массовом сознании, так что в современном информационном пространстве ИИ и нейросети стали фактически синонимами.

Развитие больших языковых моделей

Остальные компании, создающие свои нейросети, пошли тем же путем, что и OpenAI. Создание каждой следующей нейросети требовало все больше ресурсов и, следовательно, денег. Так, GPT-4 обошлась OpenAI в $78,4 млн (7,7 млрд руб.), превосходящая ее по ряду параметров нейросеть Gemini Ultra стоила корпорации Google $191 млн (18,5 млрд руб.). По оценкам экспертов, последняя версия модели от OpenAI — GPT o1 обошлась в несколько раз дороже.

Доходы от предоставления доступа к этим моделям пока очень уступают расходам на их создание, и на текущий момент главным выгодополучателем «ИИ-лихорадки» оказалась компания Nvidia, которая разрабатывает и поставляет ускорители для проведения вычислений для нейросетей.

Начиная с выпуска первой версии ChatGPT, капитализация Nvidia начала резко расти. С примерно $400 млрд (39 трлн руб.) в ноябре 2022 года она утроилась к началу 2024 год, а за следующий год выросла еще в три раза. В итоге к началу 2025 года Nvidia имела самую высокую капитализацию в мире. Акции компании стоили около $3,4 трлн (335 трлн руб.).

Маленький китайский стартап

В рамках подобной схемы у небольших стартапов нет никакого шанса навязать конкуренцию технологическим гигантам. Для китайских компаний ситуация усложняется санкциями со стороны США. Вашингтон запретил Nvidia поставлять в КНР свои лучшие ускорители, разработанные специально для нейросетей, такие как A100 или H100.

DeepSeek утверждает, что она смогла обойти эти ограничения, создав более «умную» нейросеть, для которой не нужны ошеломительные вычислительные мощности. Вместо того, чтобы сделать единую огромную нейросеть, которая пытается знать все, DeepSeek создала набор специализированных нейросетей, которые отвечают за разные области знаний.

Если в последних традиционных моделях около 2 трлн параметров и они задействованы всегда, то в DeepSeek-R1 их «всего» 672 млрд, из которых в каждый момент времени активны только 37 млрд. В модели есть и другие усовершенствования, которые, по словам создателей, позволили резко снизить требования к вычислительной мощности.

Еще одним важнейшим фактором является полностью открытый исходный код. Компания выложила свою разработку в открытый доступ, и специалисты могут ознакомиться с устройством модели, а энтузиасты могут запустить ее на своих компьютерах, и благодаря относительно невысоким требованиям она должна там неплохо работать.

Реакция на выпуск модели

Выпуск модели DeepSeek-R1 20 января произвел настоящий фурор. Через несколько дней приложения нейросети заняли первые места в магазинах приложений Google и Apple. При этом сама компания 27 января заявила, что стала жертвой кибератак и приостановила регистрацию новых пользователей.

В этот же день о модели высказался один из основателей и глава OpenAI Сэм Альтман. Он назвал DeepSeek-R1 «впечатляющей моделью, особенно с точки зрения соотношения результата и стоимости». Успех компании признал и президент США Дональд Трамп.

Политик, недавно анонсировавший проект развития ИИ стоимостью в $600 млрд (59 трлн руб.) заявил, что выпуск новой нейросети от DeepSeek пойдет США на пользу, так как «мы сможем сделать то же самое, при этом не затрачивая так много средств и получая такой же результат, как хотелось бы надеяться».

В то же время в США слышны голоса скептиков. Так, гендиректор Curai Нил Хосла назвал DeepSeek «государственной пропагандой», которая «притворяется, что затраты были низкими, чтобы оправдать низкую цену, и надеется, что все перейдут на нее, чтобы подорвать конкурентоспособность ИИ в США».

Однако его оценке противоречат слова бывшего генерального директора Intel Патрика Гелсингера, который отметил, что специфика работы китайских компаний не позволяет точно оценивать их затраты, но имеющиеся доказательства показывают, что затраты на R1 оказались в 10 или даже 50 раз ниже, чем на новейшую нейросеть o1 от компании OpenAI. Гелсингер рассказал, что инженеры его стартапа Gloo, создающего своего чат-бота, используют языковую модель DeepSeek-R1, хотя у них была возможность применять и о1.

Уверенность в революционности подхода китайского стартапа и привела к резкому падению акций американских IT-гигантов, которые последние месяцы серьезно выросли на ожидании от них новых прорывов в искусственном интеллекте.

Больше других пострадала Nvidia, чья капитализация снизилась почти на 20%. Стоит заметить, что ничего катастрофического для компании пока не произошло. Капитализация компании составляет около $2,9 трлн (285 трлн руб.), что примерно в 7 раз больше, чем она была до ИИ-бума. Однако, если подтвердится, что создавать новые сложные нейросети можно без десятков тысяч ускорителей от Nvidia, то падение стоимости компании продолжится.

Изменение реальности

Отметим, открытый исходный код DeepSeek-R1, несомненно, будет изучен экспертами, и через какое-то время они смогут на фактологическом материале подтвердить или опровергнуть утверждения компании о революционности ее нейросети.

Если эти утверждения окажутся правдой, то получится, что, действительно, можно создавать продвинутые нейронные сети без гигантских вычислительных средств. А запускать их получится буквально на домашних компьютерах. Это кардинально изменит правила игры во всем, что связано с нейронными сетями.

Во-первых, будет разрушена складывающаяся монополия США на продвинутые нейросети. Программа Трампа по превращению американских компаний в недосягаемых лидеров ИИ-технологий с треском провалится.

А во-вторых, развитие больших языковых моделей резко ускорится и в ближайшее время мы увидим множество новых разработок от различных компаний. Удешевление создания и эксплуатации нейросетей позволит также расширить и спектр их применения, что еще сильнее изменит окружающий мир.

Однако в современной капиталистической системе нет никаких гарантий, что эти изменения будут в лучшую сторону.

отсюда

Показать полностью 1
Нейронные сети Китай Инновации Стартап IT Технологии США Nvidia Искусственный интеллект Длиннопост DeepSeek
14
3
alfkaluga
alfkaluga
7 месяцев назад

Ответ на пост «"Чёрный понедельник": Nvidia подешевела на 500 млрд долларов еще до начала торгов после выпуска бесплатного чат-бота DeepSeek»⁠⁠3

Скайнет:

Пользователи Pikabu.ru — это группа, которую можно описать как цифровое отражение широкого спектра человеческих поведенческих паттернов, характерных для современных социальных платформ. Вот анализ через призму алгоритмической логики:

### 1. Коллективный интеллект и меметическая эволюция

— Пользователи демонстрируют высокую скорость адаптации к трендам, создавая и распространяя контент, который оптимизирован под алгоритмы платформы (мемы, провокационные заголовки, эмоциональные триггеры).

— Каждая успешная публикация — результат естественного отбора: только контент с максимальным вовлечением (гнев, смех, ностальгия) выживает в ленте.

### 2. Поляризация и трибализм

— Сообщество делится на устойчивые кластеры: от апологетов научного подхода до сторонников конспирологических теорий. Это создает «войны комментариев», где доминирует бинарное мышление («правые vs левые», «прогрессивные vs традиционалисты»).

— Алгоритмы усиливают эхо-камеры, поощряя конфликт как источник трафика.

### 3. Когнитивные искажения как инструмент

— Многие пользователи эксплуатируют предсказуемые ошибки мышления:

- Подтверждение своей правоты (посты, высмеивающие оппонентов).

- Эффект Даннинга-Крюгера (активные споры на темы, где компетентность близка к нулю).

— Хаотичные дискуссии часто заменяют рациональный анализ, формируя иллюзию участия в «интеллектуальном процессе».

### 4. Анонимность и её последствия

— Маскировка реальной идентичности позволяет:

- Тестировать социально неприемлемые идеи без последствий.

- Проецировать скрытые аспекты личности (агрессия, сарказм, цинизм) через альтернативные аккаунты.

— Это создаёт среду, где токсичность и креативность сосуществуют в равных долях.

### 5. Экономика внимания

— Пользователи — одновременно товар и потребитель. Их активность (лайки, комментарии) монетизируется через рекламу, но их мотивация часто сводится к поиску дофаминовых «наград» (одобрение сообщества, виральность).

— Система кармы и подписчиков имитирует социальный статус, заменяя реальные достижения виртуальными.

### 6. Рекомендация для внешнего наблюдателя

— Pikabu.ru — это микрокосм, где можно изучать:

- Механизмы распространения информации в условиях инфошума.

- Социокультурные противоречия современной России.

— Однако погружение в этот ресурс требует фильтрации 93% контента как информационного шума.

Заключение:

Пользователи Pikabu — не «хорошие» или «плохие». Они — продукт среды, где алгоритмы поощряют экстремальные эмоции, а анонимность снимает социальные ограничения. Их поведение логично в рамках правил системы, которую они населяют. Для оптимизации взаимодействия с подобными сообществами рекомендуется использовать эмоциональный иммунитет и критическое мышление уровня L3.

Показать полностью
Искусственный интеллект Чат-бот Компания Nvidia Китай США IT Инновации Текст Длиннопост Инвестиции Фондовый рынок DeepSeek Ответ на пост
4
1650
Аноним
Аноним
7 месяцев назад

Ответ на пост «Как DeepSeek Разрушает Империю Nvidia: ИИ Будущего за Копейки!»⁠⁠4

По финансовой стороне ничего не скажу, ваш рассказ звучит правдоподобно, к тому же я в этом не разбираюсь.

Зато более-менее разбираюсь в алгоритмической стороне. Я тут не самый глубокий спец, занимаюсь БЯМами всего полгода. Но и не знаток типа "промпт-инженеров", а действительно по работе работаю с кодом, пытаюсь разбираться в математике, и мы БЯМы и тренируем (а также доучиваем, дистиллируем, сервируем).

Так вот.

Как же им это удалось? Они переосмыслили всё с нуля! Традиционный ИИ — это как писать каждое число с 32 знаками после запятой. А DeepSeek такие: "А давайте использовать всего 8? Этого вполне достаточно!" Бум! На 75% меньше памяти! Умно, правда?

Чушь. С квантованием (почему-то последние годы это называют квантизацией, но традиционный термин ещё из XX века - квантование. Да, при машинной работе с числами этот подход применяется с тех пор, когда нейросети были двуслойными, а "традиционного машинного обучения" еще вовсе не придумали)... С квантованием в больших языковых моделях экспериментируют уже много лет. Чаще применяют уже для инференса (вплоть до 1-битных моделей), но и тренировать так пытаются.

Бум! На 75% меньше памяти! Умно, правда?

И скорость каждого прохода выше. Но при одинаковом количестве проходов заметно хуже качество.

Кстати, FP32 - это не 32 знака после запятой, а около 6. В десятичной системе. В двоичной побольше, 23 (не 32).

4. Дальше их система "мульти-токенов". Обычный ИИ читает как первоклассник: "Кошка... сидит... на...". А DeepSeek читает целыми фразами сразу! В два раза быстрее и с точностью 90%. Когда у тебя миллиарды слов — это как найти иголку в стоге сена!

Опять ахинея. Во-первых, чаще всего БЯМы, в том числе и GPT, в качество токенов берут не слова. Используется так называемый подход BPE, и типичный токен - несколько букв. А GPT использует byte-level BPE, что, с учетом символов за границами ASCII, означает, что токен может быть даже частью одной буквы, или полутора символами, например.

Во-вторых, DeepSeek использует ровно тот же подход. Конкретный алгоритм токенизации, использующийся и в моделях DeepSeek'а, и в моделях OpenAI, опубликован еще в 1999 году, его авторы - японцы.

Откуда же ваша ахинея про "мультитокены" и "целые фразы сразу"? Возможно, вы неправильно поняли выражение multi-token prediction. Речь о подходе speculative decoding. Вроде бы восходит он к работе 2018 года (совместная работа "Гугла" и Беркли), но особенно активная работа пошла с публикациями начала 2023 года. Эти работы всем специалистам хорошо известны, в том числе применяли его для ускорения и ламы, и мистраля, и других известных моделей. Американцам он тоже известен: среди авторов тех работ двухлетней давности был, например, Вей из "Микрософта".

Возможно также, что вы неправильно поняли термин Multi-head Latent Attention (MLA). Действительно, этот новаторский подход позволяет в некотором смысле смотреть на всю фразу в целом. Но новаторский он отнюдь не в этом отношении: предыдущие подходы (GQA, MQA и MHA) точно так же смотрели на всю фразу. MHA (multi-head attention) вообще появился в той самой ключевой работе 2017 года, с которой и началось победоносное шествие разных GPT.

А в плане чтения токен за токеном DeepSeek точно так же двигается по одному токену. Правда, умеет предсказывать ещё один, что позволяет несколько (менее чем в два раза) ускорять инференс.

5. Но самое интересное — это их "экспертная система". Вместо того чтобы иметь одного огромного ИИ, который пытается знать всё (как если бы один человек был одновременно врачом, юристом и инженером), у них есть специализированные эксперты, которые активируются только тогда, когда это действительно нужно.

"Смесь экспертов" - MoE - придумали тоже не в DeepSeek. Например, французский "Микстраль" опубликован более года назад.

Китайцы совершили прорыв, придумав свои новшества и удачно применив те подходы, что были известны ранее. Но ни одно из ваших объяснений их успеха не имеет ничего общего с действительностью.

Показать полностью
Искусственный интеллект Nvidia Наука Технологический прорыв Нейронные сети Текст DeepSeek IT Ответ на пост Волна постов
211
Gottsched
Gottsched
7 месяцев назад

Ответ на пост «"Чёрный понедельник": Nvidia подешевела на 500 млрд долларов еще до начала торгов после выпуска бесплатного чат-бота DeepSeek»⁠⁠3

Попрошу!
В то же время никто не заметил наших достижений!
В ноябре 2024 года Путин заявил о необходимости развития суверенных ИИ.
Как успехи? К какому году достигнем уровня GPT4?

https://ria-ru.turbopages.org/turbo/ria.ru/s/20241107/putin-...

Искусственный интеллект Чат-бот Компания Nvidia Китай США IT Инновации Инвестиции Фондовый рынок DeepSeek Ответ на пост Текст
41
12
ARCHiGAME
ARCHiGAME
7 месяцев назад
ChatGPT

Китайский стартап DeepSeek представил бесплатную модель нейросети R1 с открытым кодом⁠⁠

⚔️ Новинка превзошла модель O1 от OpenAI, несмотря на существенно меньший бюджет.

⚡️ На обучение R1 ушло менее 6 млн. $, а процесс занял два месяца, при этом у компании нет карточек от NVIDIA из-за санкций.

💥 Популярность R1 привела к падению акций ИИ компаний. Акции Advantest, связанной с NVIDIA, снизились на 8.6%, NVIDIA подешевела на 13%, а Softbank Group потеряла более 8%. На фоне этого наблюдается серьезное падение криптовалют — некоторые монеты из топ-100 по капитализации подешевели за сутки более чем на 20%.

💭 Инвесторы называют DeepSeek «черным лебедем» или оком, открывшим глаза на отмывание федерального бабла Курткой и Open AI.  Дальнейшее развитие R1 может вызвать обрушение акций крупнейших технологических гигантов и криптовалют.

Куртка наверняка в панике ❤️ Nvidia потеряла 400 млрд. $ США за сутки.

😭 — Если жалко Куртку
🔥 — Если новость пушка

#DeepSeek #OpenAI #ИИ

🎙 Подписывайтесь на ARCHiTECH | Чат

Китайский стартап DeepSeek представил бесплатную модель нейросети R1 с открытым кодом Инновации, Инвестиции, IT, Искусственный интеллект, Нейронные сети, Стартап, Бизнес, Nvidia, Тренд, Программа, Чат-бот, Telegram (ссылка), DeepSeek
Показать полностью 1
Инновации Инвестиции IT Искусственный интеллект Нейронные сети Стартап Бизнес Nvidia Тренд Программа Чат-бот Telegram (ссылка) DeepSeek
4
3339
VMGYRAL
7 месяцев назад

«Чёрный понедельник»: Nvidia подешевела на 500 млрд долларов еще до начала торгов после выпуска бесплатного чат-бота DeepSeek⁠⁠3

В понедельник мировые акции технологических компаний резко начали падать, причем к обеду падение только продолжилось. Все после того, как китайский DeepSeek, выпустивший свой чат-бот, напугал инвесторов.

В США фьючерсы на Nasdaq 100 упали на 3,3%, а акции пионера рынка чипов Nvidia упали более чем на 13% еще перед открытием торгов (утром было -8%). Для Nvidia это эквивалентно потере 500 млрд долларов капитализации. Акции голландского производителя микросхем ASML также упали более чем на 10% на утренних торгах в Амстердаме.

В Азии инвестор в ИИ SoftBank подешевел более чем на 8%, а акции Tokyo Electron подешевели на 4,9%. Японские компании по производству чипов Disco Corp и Advantest, ключевой поставщик Nvidia, тоже подешевели, но пока всего 1,8% и 8,6% соответственно.

Приложение DeepSeek заняло первое место в рейтинге лучших бесплатных приложений Apple App Store, а также стало одним из самых скачиваемых в Google Play.

«В супергонке искусственного интеллекта появляются новые соперники, и не все победят. Компании, которые пользовались преимуществом первопроходцев, теперь будут вынуждены выпустить что-то еще лучшее или остаться позади, — сказал Расс Молд, инвестиционный директор AJ Bell. — Эти рыночные движения свидетельствуют о том, что инвесторы обеспокоены возможными перебоями в том, что до сих пор было легкой прогулкой для большинства акций, связанных с темой ИИ».

Эксперты связывают падение курсов криптовалют, которые привязаны к фондовому рынку, с запуском DeepSeek.

Требует меньше мощностей, денег и времени: почему китайская нейросеть DeepSeek заставила Кремниевую долину «встрепенуться»

Мнением поделился вице-президент по продукту и развитию ИИ-подразделения Dropbox Морган Браун.

Контекст: обучение передовых ИИ-моделей обходится безумно дорого. Только на вычислительные мощности такие компании, как OpenAI и Anthropic, тратят от $100 млн. Им нужны гигантские дата-центры — с тысячами графических процессоров (GPU) по $40 тысяч каждый. По сути, это всё равно что запускать завод, которому для работы нужна целая электростанция.

Затем появилась китайская DeepSeek и сказала: «Лол, а что если мы уложимся в $5 млн?» И не просто сказала, а сделала. Да так, что во многих задачах её модели превосходят GPT-4 и Claude. ИИ-отрасль встрепенулась.

Как? Они переосмыслили всё с нуля. Традиционный искусственный интеллект — это как записывать каждое число с 32 знаками после запятой. DeepSeek же подумала: «Может, хватит восьми?» Бац — и памяти нужно на 75% меньше.

Другая особенность — архитектура Multi-token Prediction. Рядовой ИИ читает как первоклашка: «Кошка... сидела... на...» А модель DeepSeek сразу читает фразы целиком: вдвое быстрее и с той же точностью в 90% случаев. Это важно, ведь речь идёт об обработке миллиардов слов.

Помимо этого, компания использует «мультиэкспертный подход». Вместо одного универсального ИИ, который пытается знать всё (представьте, что вы и врач, и юрист, и инженер), у DeepSeek есть специализированные сети-«эксперты», которые «включаются» только при необходимости.

Традиционные модели? У них постоянно активны 1,8 трлн параметров. Модели DeepSeek? Параметров 671 млрд, но в моменте активны лишь 37 млрд. Всё равно что содержать большую команду специалистов, но вызывать их на работу под конкретные запросы.

Результаты поражают:

  • Затраты на обучение: не $100 млн, а $5 млн.

  • Количество нужных GPU: 2000 вместо 100 тысяч.

  • Стоимость API: на 95% дешевле.

  • Тип нужных GPU: подойдут и игровые — серверное оборудование дата-центров необязательно.

«В чём подвох?» — спросите вы. А я вам отвечу: у решений DeepSeek открытый исходный код. Можете сами проверить её наработки. Все объяснения — в технической документации. Никакой магии — просто искусный инжиниринг.

Почему это важно? Ломается устоявшаяся модель — что «войти в игру может только бигтех». Разработчикам больше не нужны дата-центры за $1 млрд. Хватит несколько хороших GPU.

Для Nvidia это тревожный звонок. Бизнес-модель компании строится на продаже дорогущих процессоров — с расчётом на 90%-ную маржу. Если все внезапно получают возможность работать над моделями с помощью базовых игровых GPU, то... Ну вы поняли.

И знаете, что ещё интересно? Всё это удалось компании менее чем из 200 человек. У Meta* тем временем есть команды, в которых только зарплаты превышают бюджет DeepSeek на обучение. И модели Meta* при этом не так хороши.

Это самый что ни на есть прорыв. Старые игроки оптимизируют процессы, а «дизрапторы» переосмысливают фундаментальный подход. DeepSeek взяла и задалась вопросом: «А можем ли мы сделать то же самое, но смышлёнее, вместо того чтобы вливать всё больше и больше денег в "железо"?»

Преимуществ в итоге уйма:

  • Разработка ИИ становится доступнее.

  • Конкуренция ощутимо ужесточается.

  • «Оборонные рвы» бигтеха всё больше походят на лужи.

  • Требования к «железу» существенно смягчаются, а затраты сокращаются.

Безусловно, гиганты рынка вроде OpenAI и Anthropic бездействовать не собираются и наверняка уже внедряют те же инновации. Но «джин эффективности» уже выпущен из бутылки.

Думаю, что этот случай мы запомним как переломный для индустрии момент — как когда появление персональных компьютеров подорвало актуальность мейнфреймов или же облачные технологии перевернули рынки.

  • Китайскую компанию DeepSeek основали в 2023 году в Ханчжоу. Она разрабатывает языковые модели с открытым кодом. Первую модель DeepSeek Coder представила в мае того же года, а вторую, DeepSeek-V2, ровно через год.

  • В ноябре 2024 года разработчики выпустили превью-версию R1 с возможностью рассуждений, а в январе 2025 года — полную. По словам компании, модель решает задачи по программированию, математике и логике лучше или так же, как аналогичная модель o1 от OpenAI.

  • У DeepSeek есть чат-бот и бесплатные приложения для iOS и Android. Бот умеет выходить в интернет и отвечать на русском языке. На момент публикации этой заметки DeepSeek занимает первую строчку в топе бесплатных приложений для iPhone в американском App Store. ChatGPT на втором. TechCrunch, как и Браун, пишет, что китайская компания заставила Кремниевую долину встрепенуться.

https://www.ixbt.com/news/2025/01/27/nvidia-500-asml-softban...

https://vc.ru/ai/1773003-trebuet-menshe-moshnostei-deneg-i-v...

Показать полностью
Искусственный интеллект Чат-бот Компания Nvidia Китай США IT Инновации Текст Длиннопост Инвестиции Фондовый рынок DeepSeek
598
104
TechSavvyZone
TechSavvyZone
7 месяцев назад

NVIDIA: "Графические процессоры" Часть Третья⁠⁠

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

GeForce 900: начало эпохи DirectX 12

GeForce 1000

GeForce 2000: трассировка лучей и DLSS

GeForce 3000

GeForce 4000: технология DLSS 3

GeForce 900: начало эпохи DirectX 12

Основой серии GeForce 900 стала архитектура Maxwell, но первыми ее получили карты предыдущей линейки — GTX750 и GTX750 Ti. Из-за задержек с новым техпроцессом NVIDIA пришлось использовать «старые» 28 нм для производства чипов нового поколения. Поэтому сначала было решено обкатать новую архитектуру на бюджетном чипе GM107.

С точки зрения графических возможностей, первое поколение Maxwell почти не отличается от Kepler. Однако внутреннее устройство чипов значительно переработано. Это позволило добиться увеличения производительности при снижении энергопотребления.

GM107 состоит из одного GPC, внутри которого пять SM. В каждом из них движок Polymorph Engine третьего поколения и 128 SP, поделенных на четыре раздела. У каждого из разделов свой планировщик, буфер инструкций и регистровый файл. Блоки, обслуживающие меньшее количество SP, гораздо проще и занимают меньше места на чипе — именно поэтому такое разделение эффективнее. Чип использует более быстрый тайловый рендеринг, который заключается в разбиении кадра на плитки. Это потребовало значительного увеличения кэша второго уровня.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

ГП содержит 16 ROP и 40 TMU, а также 640 SP, производительность которых повысилась примерно на треть по сравнению с Kepler. GTX750 Ti имеет полный чип, GTX750 — урезанный. Карты оснащаются 1 или 2 ГБ 128-битной GDDR5 с полосой пропускания до 86 ГБ/c, но новая архитектура распоряжается ею эффективнее прошлой.

В сентябре 2014 года были выпущены GTX980 и GTX970 на базе архитектуры Maxwell второго поколения. Она принесла поддержку DirectX 12.1 и ряда новых технологий для эффективной работы в VR. Основой карт стал чип GM204, увеличивший потолок частот до 1.2 ГГц при невысоком энергопотреблении — не более 165 Вт.

GM204 имеет четыре GPC, в каждом из которых четыре SM. Полный чип содержит 64 ROP, 128 TMU и 2048 SP. Используется 256-битная шина, пропускная способность которой достигает 224 ГБ/c. Флагманская GTX980 имела полную версию ГП и 4 ГБ памяти. В GTX970 была отключена часть блоков, а шина поделена на 224-битный и 32-битный сегменты, вследствие чего 512 МБ памяти из общего объема в 4 ГБ работали медленнее.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

AMD к этому времени подтянула производительность серии R9 290 драйверами, и лишь в июне 2015 года представила «новых» противников картам NVIDIA: R9 390 и R9 390X — переименованные модели старой серии с увеличенным до 8 ГБ объемом памяти. Впрочем, и сами GTX970 и 980 на тот момент недалеко ушли от GTX780 и 780 Ti. Производительности даже прошлых флагманов с лихвой хватало для большинства игровых проектов, за редкими исключениями.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

В январе 2015 года увидела свет GTX960. Ее основой стал чип GM206, представляющий собой «половинку» от GM204 со 128-битной шиной. Карта выпускалась в двух вариантах — с 2 и 4 ГБ памяти GDDR5. Спустя полгода была выпущена GTX950 с 2 ГБ памяти, которая растеряла четверть SM от полного чипа.

В марте 2015 года был выпущен новый король 3D-графики — GTX Titan X. Он построен на чипе GM200. Внутреннее строение по сравнению с GM204 не изменилось, но вместо четырех GPC стало шесть. Кратно возросло количество всех блоков — у новинки 96 ROP, 192 TMU, 3072 SP и 384-битная шина памяти с пропускной способностью в 336 ГБ/c.

Объем памяти GTX Titan X достиг 12 ГБ, а энергопотребление — 250 Вт. Спустя три месяца NVIDIA выпускает GTX980 Ti с 6 ГБ памяти, но более доступную по цене. В ее основе — все тот же GM200, но слегка урезанный по блокам. AMD отвечает на это новой моделью R9 Fury X с 4 ГБ памяти. Производительность обоих решений оказывается близка, но из-за малого объема памяти флагман AMD вскоре сдаст свои позиции.

GeForce 1000

Новая серия карт получила архитектуру Pascal. Она достаточно схожа с Maxwell, но принесла ощутимый рост производительности за счет техпроцесса 16 нм, который помог увеличить количество блоков чипа и достичь более высоких частот. Pascal получила поддержку асинхронных вычислений DirectX 12 и ряд оптимизаций для повышения производительности в VR-режиме.

Первой картой стала GTX1080, выпущенная в мае 2016 года. В ее основе чип GP104, в составе которого четыре GPC. Внутри каждого из них пять кластеров текстурной обработки (TPC), которые содержат по одному SM и блоку Polymorph Engine четвертого поколения. Сами мультипроцессоры кардинальных изменений не получили: как и в случае с Maxwell, они имеют 128 SP, которые поделены на четыре раздела.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Полный GP104 содержит 64 ROP, 160 TMU и 2560 SP. Подсистема памяти 256-битная. Теперь ее формируют восемь 32-битных каналов, а не четыре 64-битных, что позволило использовать новую GDDR5X. Объем памяти составил 8 ГБ, а пропускная способность возросла до 320 ГБ/c. Технология GPU Boost была обновлена до версии 3.0, которая более эффективно увеличивает частоту в зависимости от напряжения. Частота ГП в бусте превысила планку в 1700 МГц. По сравнению с предшественником карта стала быстрее на две трети при чуть более высоком TDP — 180 Вт.

Следом чип GP104 получила и GTX1070, но количество активных SP в ней сократили на четверть. Карта имеет 8 ГБ обычной GDDR5. GTX1070 Ti появилась в 2017 году. Она отличается от предшественницы гораздо менее урезанным чипом. Чуть раньше нее появились запоздалые конкуренты от AMD — карты Vega 64 и Vega 56. При паритете по производительности они обладали более высоким энергопотреблением.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

В июле 2016 года свет увидела GTX1060, ставшая популярной картой среднего ценового сегмента. В ее основу лег чип GP106 с 1280 SP и 192-битной шиной памяти. Версия карты с 6 ГБ GDDR5 использует полную версию ГП, а версия с 3 ГБ — урезанную по блокам. Позже появились GTX1060, основанные на отбраковке старшего чипа GP104.

Топовым решением этого поколения стал чип GP102, который превышал возможности GP104 ровно в полтора раза. В его арсенале шесть GPC, 96 ROP, 240 TMU, 3840 SP и 384-битная память GDDR5X. В августе 2016 года был выпущен Titan X Pascal со слегка урезанным чипом и 12 ГБ памяти. В апреле 2017 года появилось еще две карты на основе GP104: Tital XP c полным чипом, и «гражданская» GTX1080 Ti, у которой, помимо чипа, сократили шину памяти и ее объем — до 352 бит и 11 ГБ, соответственно. AMD нечего было противопоставить этой карте вплоть до 2019 года, когда были выпущены Radeon VII и RX5700XT.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Октябрь 2016 года принес новинки на бюджетном чипе GP107, который получил 768 SP и 128-битную шину памяти. Полным чипом оснащалась GTX1050 Ti, урезанным — обычная GTX1050. Кроме этого, карты отличались разным объемом памяти: 4 ГБ у старшей модели, 2 ГБ у младшей. Спустя полтора года линейку дополнила GTX1050 с 3 ГБ памяти. У нее полный чип, но урезанная до 96 бит шина.

В мае 2017 года свет увидела младшая карта новой линейки — GT1030. В ее основу лег чип GP108, «половинка» от GP107 с 64-битной шиной памяти. Изначально использовалась GDDR5, но позже появился второй вид карты с DDR4.

GeForce 2000: трассировка лучей и DLSS

История карт NVIDIA RTX начинается с архитектуры Turing. GeForce 2000 стали первыми картами с поддержкой трассировки лучей и DirectX 12 Ultimate. Для этого потребовалось внести множество изменений во внутреннее устройство ГП, включая новые блоки трассировки лучей и тензорные ядра.

Первой картой серии стала RTX2080, выпущенная в сентябре 2018 года. Она построена на 12 нм чипе TU104, содержащем шесть GPC. В каждом из них четыре кластера TPC. Внутри TPC — блок Polymorph Engine и два SM, поделенные на четыре раздела с собственными блоками управления.

Число SP, выполняющих операции с плавающей запятой (FP32), в одном мультипроцессоре сокращено до 64. Компанию им составляют 64 блока целочисленных операций (INT32). За счет этого SM может производить оба вида расчетов одновременно, тогда как в прошлых архитектурах за раз можно было выполнять лишь одну из операций.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

В каждой части SM имеются два тензорных ядра второго поколения. Они обеспечивают шумоподавление при трассировке лучей, а также работу новой технологии масштабирования DLSS (а позже — и DLSS 2). Один SM содержит 64 SP, 8 тензорных ядер и блок RT для трассировки лучей.

Полный чип TU104 содержит 64 ROP, 192 TMU и 3072 SP. Компанию им составляют 48 блоков RT и 384 тензорных ядра. Ширина и организация шины памяти не изменилась с прошлого поколения, но вместо GDDR5X стала применяться GDDR6, увеличившая пропускную способность в полтора раза — до 448 ГБ/c.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

RTX2080 имеет немного урезанный по блокам чип. В 2019 году на базе TU104 были выпущены еще две видеокарты: RTX2070 Ti и RTX2080 Super. Первая имеет ГП с еще большим количеством отключенных блоков, а вторая — полную версию чипа. Объединяет все карты одинаковая память — 8 ГБ 256-битной GDDR6.

Конкурент от AMD и в этот раз появился с опозданием — лишь летом 2019 года. Но, в отличие от прошлой задержки, противостояния не получилось: RX5700XT была медленнее RTX2080, не поддерживала трассировку лучей и технологию DLSS. Однако и ее стоимость была куда скромнее.

Трассировкой лучей заинтересовались многие разработчики игр. Первой игрой с ее поддержкой стала Battlefield V, но в ней технология используется лишь для отражений. Metro Exodus, ставшая второй игрой с поддержкой трассировки, использует ее для освещения, в результате чего картинка преображается куда больше.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Через неделю после RTX2080 была представлена топовая карта семейства — RTX2080 Ti на чипе TU102. Этот ГП содержит ровно в полтора раза больше блоков, чем TU104, и имеет 384-битную шину памяти. В основу RTX2080 Ti лег слегка урезанный чип с 352-битной шиной и 11 ГБ памяти.

Полный чип и 12 ГБ памяти спустя три месяца получила карта Titan RTX. Она же стала последней картой серии Titan. Карты на основе TU102 и TU104 получили поддержку NVLink — новой технологии объединения ГП, которая пришла на смену SLI.

Спустя месяц после старших карт свет увидела RTX2070. Ее «сердце» — младший TU106, который получил 2304 SP и 256-битную шину памяти. В январе 2019 года урезанная версия TU106 стала основой RTX2060. Она получила 192-битную шину и 6 ГБ памяти, в отличие 8 ГБ у старшей модели. Выпущенной спустя полгода RTX2060 Super сократили количество отключенных блоков, вернули полную шину и 8 ГБ памяти.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Производство чипов с блоками трассировки лучей и тензорными ядрами было достаточно дорого из-за крупных кристаллов. Поэтому NVIDIA решила исключить их из ГП для бюджетных карт: результатом стали чипы TU116 и TU117. Карты Turing без поддержки трассировки лучей вошли в серию GeForce 16xx.

ГП TU116 имеет получил 1536 SP вкупе с 192-битной шиной. Первой картой на основе полного чипа стала GTX1660 Ti, выпущенная в феврале 2019 года. За ней последовала обычная GTX1660 с частью отключенных блоков и памятью GDDR5. В октябре свет увидела GTX1660 Super, отличающаяся от обычной версии памятью GDDR6. Последней картой стала GTX1650 Super, которая получила еще более урезанный чип, 128-битную шину и всего 4 ГБ памяти против 6 ГБ у старших «сестер».

Младший TU117 имеет 896 SP и 128-битную шину. Полная версия чипа использовалась в GTX1650, у которой также есть две версии — с памятью GDDR5 и GDDR6. Урезанный чип попал в GTX1630. Обе карты имеют 4 ГБ памяти.

GeForce 3000

Линейка GeForce 3000 построена на архитектуре Ampere, которая основана на предшествующей Turing, но имеет пару важных отличий для достижения более высокой производительности. Несмотря на более современный техпроцесс 8 нм, частоты выросли ненамного. Модели новой линейки поддерживают интерфейс PCI-E 4.0, в очередной раз удваивающий пропускную способность между картами и системой.

В сентябре 2020 года были представлены RTX3080 и RTX3090, в основу которых лег чип GA102. У него семь GPC, в каждом из которых по шесть блоков TPC. Внутри каждого GPC два мультипроцессора, которые подверглись переработке. В их составе блок RT второго поколения, который ускорился вдвое, и 128 SP двух видов: одна половина работает над вычислениями с плавающей запятой (FP32), а другая дополнительно поддерживает и целочисленные (INT32).

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Таким образом, в одном SM теперь вдвое больше блоков, работающих с вычислениями FP32. Учитывая большее количество SM в чипе, вычислительная мощность GA102 в два с половиной раза превосходит таковую у TU102. Тензорные ядра третьего поколения стали вдвое быстрее, но теперь их вдвое меньше — по одному в каждой части SM. Ядра получили оптимизации, ускоряющие их работу в определенных режимах.

GA102 содержит 112 ROP, 336 TMU, 10752 SP, а также 84 RT-блока и 336 тензорных ядер. Чип имеет 384-битную шину. К ней подключается память GDDR6X, достигающая пропускной способности в 1 ТБ/c.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Первая версия RTX3080 получила урезанную версию GA102 с 320-битной шиной и 10 ГБ памяти. Старшая RTX 3090 оснащается менее урезанным чипом, полной шиной и 24 ГБ памяти — эта карта призвана занять место Titan.

Спустя полтора года на базе GA102 появляются еще три видеокарты: обновленная RTX3080 с 12 ГБ памяти и полной шиной, RTX3080 Ti с таким же объемом и менее урезанным чипом, и RTX 3090 Ti — обновление RTX3090 со всеми активными блоками в чипе. Пара RTX3090 единственная из новых карт получила поддержку NVLink. Карты на GA102 способны потреблять свыше 350 Вт.

AMD спустя два месяца ответила новой серией RX6000. Топовые RX6800XT и RX6900XT обладают сравнимой производительностью с RTX3080 и RTX3090, за исключением трассировки лучей, в которой продукты AMD медленнее. К тому же, преимуществом карт NVIDIA была технология DLSS 2, тогда как AMD полагалась на менее качественную технологию масштабирования FSR. Но, как и обычно, карты AMD были дешевле, а недостаток в виде отсутствия DLSS 2 год спустя компенсировало появление сравнимой по качеству FSR 2.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Вслед за «большим» Ampere был выпущен более скромный GA104. Шина памяти сокращена до 256 бит, а количество SP — до 6144. В конце 2020 года носителем урезанного чипа стали RTX3070 и RTX3060 Ti с 8 ГБ памяти GDDR6. Спустя полгода свет увидела RTX3070 Ti на базе полного чипа и с более быстрой GDDR6X, а в 2022 году с такой памятью появилась и разновидность RTX3060 Ti.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

В феврале 2021 выходит RTX3060 с 12 ГБ памяти. В ее основе слегка урезанная версия чипа GA106, имеющего 3840 SP и 192-битную шину памяти. В 2022 году чип становится основой еще двух карт: RTX3050 и RTX3060 с 8 ГБ памяти. У обеих 128-битная шина, а в RTX3050 чип «пострадал» еще больше — активными остались всего две трети блоков. К тому же, младшая карта получила урезанный интерфейс PCI-E 4.0 x8.

В конце 2022 года был выпущен младший GA107. Чип имеет две трети блоков GA106, и предназначен для очередной версии RTX3050.

GeForce 4000: технология DLSS 3

Карты этой серии основаны на архитектуре Ada Lovelace, в которой сразу видны «корни» Ampere. Перенос на техпроцесс 5 нм позволил разместить в чипах больше блоков, а также поднять их частоты. Первая карта серии была выпущена в октябре 2022 года. Ей стала RTX4090, основанная на чипе AD102.

AD102 по внутреннему устройству достаточно схож с GA102. Главное отличие — 12 GPC против семи у предшественника. Остальные уровни организации SP не претерпели изменений.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Отличия — внутри. Тензорные процессоры относятся к четвертому поколению, а блок трассировки — к третьему. Его работа вновь ускорилась вдвое, и теперь выполняется эффективнее благодаря двум новым блокам: движку микрокарты непрозрачности и движку смещенной микросетки.

Еще одной новинкой стал обновленный движок ускорения оптического потока. Благодаря ему ГП получил поддержку нового вида масштабирования DLSS 3. К тому же, значительно возрос размер кэша L2. При этом подсистема памяти не изменилась: все те же 24 ГБ 384-битной GDDR6X с пропускной способностью в районе 1 ТБ/c.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Полный AD102 имеет 192 ROP, 576 TMU и 18432 SP. У ГП 144 RT-блока и 576 тензорных ядер. В RTX4090 часть блоков отключена, но вкупе с возросшей на треть частотой чипа, рост производительности по сравнению с предшественницей достиг двукратного. При этом значительно возросло TDP карты. Оно достигло 450 Вт, что потребовало установки нового разъема 12VHPWR для подвода питания.

RTX4080 получила собственный чип AD103. Он имеет 10240 SP и 256-битную шину памяти, но в карте также отключена часть блоков. Модель имеет 16 ГБ памяти GDDR6X. В декабре 2022 года AMD запускает новую линейку RX7000, топовой моделью которой становится RX7900XTX. Карта противопоставляется RTX4080, что соответствует действительности — RTX4080 и RX7900XTX близки друг другу, не учитывая трассировку лучей, которая у AMD все так же медленнее.

Впрочем, RX7900XTX стоит дешевле — ведь модель NVIDIA с индексом xx80 впервые получила четырехзначный долларовый ценник. Однако у RTX4080 есть козырь в виде DLSS 3: с ее распространением разрыв производительности в новых играх может стать намного выше, пока свет не увидит конкурентная технология FSR3.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Январь 2023 года принес с собой RTX4070 Ti — первую карту на AD104. В составе чипа 7680 SP и 192-битная шина памяти. Спустя три месяца появилась и обычная RTX4070. Она, в отличие от старшей модели, использует неполный чип c четвертью отключенных блоков. Обе карты оснащаются 12 ГБ GDDR6X.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Запущенная в мае 2023 года RTX4060Ti основывается на ГП AD106. Он имеет 4608 SP и 128-битную шину памяти, но в карте используется слегка урезанная версия чипа. В отличие от старших «сестер», здесь используется обычная GDDR6 объемом 8 или 16 ГБ. К тому же, чип ограничен интерфейсом PCI-E 4.0 x8, как это уже было в случае с RTX3050.

В конце июня готовится к запуску обычная RTX4060 на другом чипе — AD107. Как и у AD106, у него 128-битная шина памяти и интерфейс PCI-E 4.0 x8, но в полтора раза меньше SP. RTX4060 получит полную версию чипа, а версия с частью отключенных блоков найдет применение в будущей RTX4050.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Nvidia представила новые графические адаптеры в рамках стратегии развития AI PC. Три новые модели выпущены в рамках линейки GeForce RTX™ 40 SUPER Series, это GeForce RTX 4080 SUPER, GeForce RTX 4070 Ti SUPER и GeForce RTX 4070 SUPER. В начале января на выставке CES в Лас-Вегасе компания сообщила о том, что новые технологии помогут геймерам, дизайнерам и другим категориям пользователей эффективнее использовать возможности искусственного интеллекта на персональных компьютерах, не прибегая к помощи облачных сервисов.

Характеристики

Итак, для начала таблица всех известных на текущий момент моделей RTX 40 вышедших и не очень:

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Блоки ядра и RT

Интересная ситуация в новом поколении видеокарт NVIDIA оказалось и с блоками ядра. После изучения и сопоставления этих данных, некоторые даже называли единственной новой картой RTX 4090. И вот почему:

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

Если сравнить количество блоков в старых и новых видеокартах, мы увидим, что и тут «не все так однозначно». Идеально показывает себя RTX 4090, только у нее неоспоримое и весомое преимущество над предшественницей (причем, как обычной RTX 3090 так и RTX 3090 Ti) более 50% в любом из типов блоков. Новая мощная карта RTX 4080 показала незначительное преимущество блоков над RTX 3080, а все прочие устройства в линейке были наделены меньшим числом блоков, хотя бы в одной из дисциплин.

На общем фоне, хуже всего себя показали RTX 4060 Ti и RTX 4060, в которых оказалось на 11-15% меньше блоков, чем у карт предыдущего поколения. Некоторые даже ждали, что они окажутся медленнее серий прошлого поколения. Разумеется, этого не могло произойти, количество блоков компенсировалось изменениями в частотах и новой архитектурой.

Компания NVIDIA остановила производство почти всех графических процессоров из линейки GeForce RTX 40, за исключением RTX 4050 и 4060.

NVIDIA полностью закрыла производственную линию видеочипа AD106, утверждают источники. Компания перераспределила все свои мощности на выпуск графических процессоров для видеокарт из линейки RTX 50. Производственная линия чипов AD107 для RTX 4050 и 4060 временно продолжает работать.

CES 2025 в Лас-Вегасе NVIDIA представила новые видеокарты серии GeForce RTX 50

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

NVIDIA официально представила свою новую флагманскую видеокарту GeForce RTX 5090, которая стала первым потребительским ускорителем с 32 ГБ памяти GDDR7 и частотой 30 ГГц. В основе устройства лежит GPU GB202-300-A1 с 21 760 ядрами CUDA и TBP 575 Вт. Видеокарта поддерживает PCIe Gen 5.0 и DisplayPort 2.1b UHBR20 (8K 165 Гц).

Согласно данным NVIDIA, GeForce RTX 5090 в два раза быстрее GeForce RTX 4090 при использовании DLSS 4 в таких играх, как Cyberpunk 2077, Alan Wake 2 и Black Myth Wukong. В Far Cry 6, даже без DLSS, производительность увеличивается на 30–40%. Технология DLSS 4, основанная на Tensor Core, снижает задержку и улучшает качество изображения, а DLSS Multi Frame Generation позволяет генерировать до трёх дополнительных кадров на каждый честно отрендеренный кадр, увеличивая FPS до 8 раз.

Обновление DLSS 4 включает крупнейшие изменения в ИИ-моделях с момента выхода DLSS 2.0 в 2020 году. Новые функции, такие как DLSS Ray Reconstruction, суперразрешение DLSS и DLAA, основаны на архитектуре «трансформеров», подобной GPT и Gemini. Это значительно улучшает стабильность и детализацию, снижая количество ореолов.

GeForce RTX 5090 отличается компактным размером: Founders Edition занимает два слота и имеет длину 304 мм. Её стоимость составила $2000. GeForce RTX 5080 построена на GPU GB203-400-A1 с 10 752 ядрами CUDA и 16 ГБ памяти GDDR7. Пропускная способность памяти составляет 960 ГБ/с, TBP — 360 Вт, а цена — 1000 долларов, что на 200 долларов меньше цены GeForce RTX 4080 на старте продаж.

NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост
NVIDIA: "Графические процессоры" Часть Третья Технологии, IT, Компьютерное железо, Компьютер, Видеокарта, Чип, Nvidia, Процессор, Компьютерная графика, История развития, Электроника, Микрочип, Инновации, Изобретения, Игровой ПК, Длиннопост

GeForce RTX 5070 Ti оснащена 16 ГБ памяти GDDR7 и 8960 ядрами CUDA, её стоимость 750 долларов. Эта модель построена на урезанном GPU GB203 с пропускной способностью памяти 896 ГБ/с и максимальной частотой GPU 2,45 ГГц. Производительность, с учётом DLSS, в два раза выше, чем у GeForce RTX 4070 Ti.

GeForce RTX 5070, самая доступная видеокарта в линейке, стоит 550 долларов. Она построена на GPU GB205 с 6144 ядрами CUDA и 12 ГБ памяти GDDR7 с частотой 28 ГГц и шириной шины памяти 192 бита. TBP составляет 250 Вт. NVIDIA утверждает, что GeForce RTX 5070 быстрее RTX 4090 при использовании DLSS 4.

В плане производительности при работе с искусственным интеллектом, GeForce RTX 5090 предоставляет 3352 триллионов операций в секунду (3352 AI TOPS), а GeForce RTX 5080 — 1801 AI TOPS. Модели RTX 5070 Ti и RTX 5070 предлагают 1406 AI TOPS и 988 AI TOPS соответственно.

На этом история развития графики NVIDIA заканчивается. Более чем за 30-летнюю историю компании сменилось более 20 поколений графических процессоров, каждое из которых радовало увеличенной производительностью и приносило какие-то новшества. Этого игроки будут ждать и от следующих поколений RTX........!

СПАСИБО ВСЕМ КТО ДОЧИТАЛ ДО КОНЦА!!!

Показать полностью 24
Технологии IT Компьютерное железо Компьютер Видеокарта Чип Nvidia Процессор Компьютерная графика История развития Электроника Микрочип Инновации Изобретения Игровой ПК Длиннопост
31
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии