Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
#Круги добра
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр У самурая нет цели, есть только путь. Длинный путь. Улучшая свои навыки, он пробирается все дальше.

Долгий путь: idle

Кликер, Ролевые, Фэнтези

Играть

Топ прошлой недели

  • SpongeGod SpongeGod 1 пост
  • Uncleyogurt007 Uncleyogurt007 9 постов
  • ZaTaS ZaTaS 3 поста
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
11
PontiffSulyvahn
PontiffSulyvahn
3 месяца назад
Лига Геймеров
Серия Игры

NVIDIA захватила 92% рынка дискретных видеокарт⁠⁠

Если кто-то ждёт, что у Хуанга проснётся совесть и он начнёт делать более производительные видеокарты по более низкой цене — не ждите. Потому что у него всё и так хорошо. По итогам 1 квартала 2025 года в мире было продано около 9,2 млн. дискретных видеокарт, из которых 92% пришлось на карточки NVIDIA:

NVIDIA захватила 92% рынка дискретных видеокарт Компьютерные игры, Nvidia, AMD, Intel

AMD, которая с великим трудом добилась годом ранее доли в 12%, а затем довела её до 15% в 4 квартале 2024 года, снова улетела куда-то на дно со своими 8%. У Intel дела ещё хуже, раньше Arc хотя бы учитывалась в статистике с 1%, теперь даже этого нет, хотя поколение Intel Arc B получилось весьма неплохим с точки зрения цены/качества.

При этом лидером видеокарт для PC всё равно остаётся Intel, но исключительно за счёт встроек. В этом же 1 квартале 2025 года было продано почти 18 млн. десктопов и только 9,2 млн. видеокарт. Так что больше половины новеньких компов обошлись без дискретных видеокарт:

NVIDIA захватила 92% рынка дискретных видеокарт Компьютерные игры, Nvidia, AMD, Intel

Похожие результаты были и в предыдущих кварталах и даже если Intel не затащит и уступит первое место AMD, ситуацию это не изменит — примерно каждый второй покупатель ПК не видит смысла покупать дискретную видеокарту. Ну правильно, «Герои-то» третьи с CS идут, а чего ещё надо?

В общем, Хуанг, несмотря на всю критику, в очередной раз показал, кто тут дядя, а кто племянница.

P.S. Ещё у меня есть бессмысленные и беспощадные ТГ-каналы (ну а как без них?):

О науке, творчестве и прочей дичи: https://t.me/deeplabscience

Об играх и игровой индустрии: https://t.me/gameprodev

Показать полностью 2
[моё] Компьютерные игры Nvidia AMD Intel
13
7
kinosmotr
kinosmotr
3 месяца назад
Лига Инвесторов

Nvidia стала самой дорогой компанией в мире с $3,444 трлн, обогнав Microsoft⁠⁠

Nvidia стала самой дорогой компанией в мире с $3,444 трлн, обогнав Microsoft Nvidia, Компания, Инвестиции, Акции, Инвестиции в акции, Данные, График, Видеокарта, Telegram (ссылка)

Доход Nvidia по категориям

Канал Осьминог Пауль

Nvidia Компания Инвестиции Акции Инвестиции в акции Данные График Видеокарта Telegram (ссылка)
0
0
user10823786
3 месяца назад

Продолжение поста «Народное мнение о выборе видеокарты»⁠⁠1

Вот моя текущая аналитика:

- 5070 - это народный выбор, у кого бюджет не жмёт. Цена , при условии, не спрашивать, как карта была привезена в страну. 60-63к. Из явных минусов для меня - это 12гб и что 95% предложений это Palit .

- 5070ti - всем устраивает, кроме цены. Она ровно 80к на текущий момент и переплата в 17-20к за только +4гб и прирост производительности в 5-7% (если повезёт) такое себе....

- Radeon 9070 xt - многие сразу "Фууу", но господа, если не быть бедалагой, кто купил у перекупов за 100к и знать, что на днях AMD снизил рекомендации по цене на 100$, то за 60-65к это уже интересный вариант. Да, по синтетик тестам она сосёт по полной у карт выше. НО по факту, в реальных условиях, скорее всего на взгляд и не увидишь разницу в большинстве случаев. Зато тут 16 гб, хорошее и тихое охлаждение, бу вариант можно найти уже сейчас где-то за 65к. Сколько помню, любят хейтить Radeon, а у меня было 2 карты разных поколений и если не придираться, то ок

Компьютерные игры Pc gaming Show Nvidia Amd Radeon Игровой ПК Компьютер Вопрос Спроси Пикабу Текст Ответ на пост
40
6
Вопрос из ленты «Эксперты»
user10823786
3 месяца назад

Народное мнение о выборе видеокарты⁠⁠1

В муках выбора решил устроить публичный холивар. Вообще, тут 3 варианта:

- не париться и взять 5070,

- удариться в экзотику 9070 xt,

- переплатить и взять 5070ti.

Пару пунктов контекста:

- буду собирать игровой пк с 0

- раздумываю взять eGPU, т к технология выглядит уже не сырой, у меня рабочий ноут, доп гаджет Surface Pro, часто переезжаю/в разъездах . Везде есть минимум thunderbolt 4, а в игровом ПК будет pci/Oculink.

- Приоритет отдаю компактному корпусу ПК.

- бюджет всего банкета будет около 130-150к.

- на 4-8к и 100+ FPS мне плевать, уже взял бюджетный моник в 180 герц и 2k разрешение. Большего не надо.

[моё] Компьютерные игры Pc gaming Show Nvidia Amd Radeon Игровой ПК Компьютер Вопрос Спроси Пикабу Текст
21
322
mknews
mknews
3 месяца назад

Рейтинг игровой производительности видеокарт | Июнь 2025⁠⁠

Рейтинг игровой производительности видеокарт | Июнь 2025 Компьютер, Компьютерное железо, Видеокарта, Игровой ПК, Сборка компьютера, Nvidia, AMD, Amd Radeon, Компьютерная помощь, Рейтинг, Компьютерные игры

Добавлена: RX 9060 XT 16\8 ГБ

Источник: Мой Компьютер

Показать полностью 1
[моё] Компьютер Компьютерное железо Видеокарта Игровой ПК Сборка компьютера Nvidia AMD Amd Radeon Компьютерная помощь Рейтинг Компьютерные игры
407
5
dawn81
dawn81
3 месяца назад

Мишустин увидел в разработках РФ потенциального конкурента Nvidia⁠⁠

Как отметил председатель правительства, все наработки - это будущее

САРОВ /Нижегородская область/, 2 июня. /ТАСС/. Российские производители уже создают видеокарты, способные конкурировать с Nvidia, указал председатель правительства РФ Михаил Мишустин.

"Без сомнения, те наработки, которые показали, в том числе и конкуренция Nvidia по видеоплатам, - это будущее", - сказал премьер, завершая совещание по развитию электронной промышленности.

https://tass.ru/ekonomika/24114495

Михаил Мишустин Разработка Nvidia Новости Текст
20
cyberbiber2077
3 месяца назад

На какую видеокарту обновиться?⁠⁠

Предыстория: собрал компик после 10 лет игры на пс3/пс4 в 21 году, на 12400 и 3050, потом через полтора года взял 3080 aorus elite (прости хоспаде такие кирпичи с функцией обогревателя брать), вроде всё супер, поставил медную пластину, температуры упали, дельта стала ~10°С, чутка андервольтнул и всё шло хорошо, потом собрал жене компуктер на ам4 и 3060 12гб. Потом подумал что хочу амуде, продал 3080 и взял 6800xt, так же переставил себе мать и проц из компа жены и теперь я весь красный)

Ну а теперь вопрос собсна на что обновляться, 6800хт я брал б/у за 34к, и сколько бы тестов не смотрел пришел к выводу что нужно отвалить 100к за карту которая покажет значительный прирост по производительности, есть ли скрытые гемы или нужно просто принять реальность и брать 4080,5070ti, 9070xt(хз под вопросом)

Спеки компа :
ryzen 7 3700x(в ближайшие месяц перейду на 5700x(за версию с x3d 10к не очень хочется переплачивать, но тут 50/50))
2х16 ddr4 gloway в разгоне до 3800
msi b550 gaming plus
xfx speedster rx 6800xt
cougar 1050w
Монитор сяоми 21:9 200гц фулл хд+ который(тоже думаю над заменой на такой же ширик но уже чтобы 2к+ было и 34 дюйма)

Ну и выяснил что для меня комфортная игра будет минимум от 90-100фпс, графодрочерством не занимаюсь, но на приятную картинку смотреть нравится

[моё] Видеокарта Компьютер Игровой ПК AMD Nvidia Помощь Комплектующие Текст
25
11
TechSavvyZone
TechSavvyZone
3 месяца назад

Технологии: "NVIDIA" доминант на рынке GPU для AI⁠⁠

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Компания NVIDIA является крупнейшим в мире производителем графических процессоров. Ее разработки на первом месте не только в игровых видеокартах, но и в решениях для различных вычислений. В том числе — в задачах искусственного интеллекта. В чем преимущества чипов NVIDIA, и почему конкурентам сложно их догнать в этом направлении?

Зарождение вычислений на ГП

GPU, или «графический процессор». Впервые это название было использовано в 1999 году для чипа видеокарты GeForce 256, в состав которого вошел блок аппаратной трансформации и освещения. В играх он выполнял эти нехитрые расчеты, освобождая от них центральный процессор ПК.

Но это было только начало. В 2001 году в графических процессорах появились куда более сложные компоненты — шейдерные блоки. Вначале степень их программируемости была ограниченной. Но уже через пару поколений видеокарт шейдеры получили поддержку графических вычислений с плавающей запятой (Floating Point, FP), а их количество в чипах кратно возросло.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

В линейке GeForce 6000 родом из 2004 года вертексные шейдеры впервые научились выполнять вычисления формата FP32

Уже тогда некоторые исследователи стали проводить собственные испытания в попытках ускорить математические вычисления с помощью ГП. Этот процесс был сложным, так как для расчетов приходилось переформулировать задачи в вызовы графических API DirectX или OpenGL. Для доступности подобных вычислений в сторонних программах был необходим собственный API, который невозможно было создать без поддержки производителей видеокарт.

В 2006 году на конференции SIGGRAPH, посвященной компьютерной графике, компания ATI представила «Close to Metal». Это был первый API для выполнения неграфических вычислений на видеокартах ATI, который вскоре был переименован в ATI Stream.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

В это время в недрах NVIDIA была почти готова новая графическая архитектура Tesla, которая изначально проектировалась с учетом возможности неграфических расчетов. После выпуска первых игровых видеокарт на ее основе, в феврале 2007 года компания представила свой собственный API для вычислений — CUDA. А три месяца спустя были выпущены первые продукты NVIDIA, предназначенных специально для вычислений: Tesla С870, D870 и S870. Этот момент можно считать началом главы массово доступных вычислений на графических процессорах.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Становление CUDA

Темп вычислений на графических чипах NVIDIA и ATI уже в 2007 году в несколько раз превышал значения, которые могли обеспечить центральные процессоры того времени. Топ NVIDIA обеспечивал 384 Гфлопс, а флагман ATI — 475 Гфлопс. По сравнению с 48 Гфлопс, которыми мог оперировать старший ЦП линейки Intel Core 2 Quad, разница была практически на порядок.

Однако все упиралось в возможность многопоточной обработки. NVIDIA G80 обладал 128 шейдерными процессорами, а конкурирующий ATI R600 — целыми 320. Распределить нагрузку между таким количеством вычислительных единиц в то время, когда даже четыре ядра процессора еще не везде использовались, было задачей не из простых. Но главный вектор продвижения все же нашелся — им стали научные проекты. Основная масса расчетов для них масштабируется практически линейно, поэтому именно они извлекали больше всего пользы из CUDA и Stream.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Через некоторое время неграфические вычисления нашли применение и в домашних ПК. С их помощью мощности видеокарт стали использоваться в различных программах для конвертации и кодирования видео. А в августе 2008 года NVIDIA решила использовать CUDA для просчетов PhysX — движка физического поведения объектов в играх.

В 2009 году свет увидел DirectX 11, в состав которого был включен API для неграфических вычислений DirectCompute. Практически одновременно с ним появляется и другой похожий, но открытый API — Open CL. Именно в его пользу делает выбор AMD, потихоньку забросив развитие Stream. А вот NVIDIA хоть и реализовывает поддержку новых API, но при этом не отказывается от своей CUDA. И, как покажет практика, совсем не зря.

Глубокое обучение

После появления универсальных шейдерных процессоров их количество в чипах росло по экспоненте. Благодаря этому топовый чип GF100, появившийся через три года после G80, работал с вычислениями вчетверо быстрее своего «предка». Ускорение, которые давали вычисления на ГП по сравнению с ЦП, становилось все больше, а сами вычисления распространялись все шире.

В 2012 году c помощью API CUDA группа энтузиастов в университете Торонто решает создать одну из первых сверточных нейросетей для распознавания изображений. Для этого они используют более миллиона изображений и три терафлопса вычислительной мощности, которые обеспечили две видеокарты GTX 580 на базе ГП GF110. Проект получает название AlexNet. Он был представлен на конкурсе ImageNet Large Scale Visual Recognition Challenge, получив первое место за распознавание c минимальным количеством ошибок.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Архитектура AlexNet оказала существенное влияние на многие последующие проекты в области глубокого обучения с помощью графических процессоров. И, как следствие, в разы увеличила интерес к самим ГП в роли вычислительных чипов для подобных расчетов.

До 2017 года NVIDIA продолжала наращивать «чистую» мощь своих графических процессоров. Если в 2007 году топовый G80 мог обеспечить 384 Гфлопс при расчетах, то в 2017 году чип GP102 достигал в них уже 12 Тфлопс. Но компания продолжала искать пути по более существенному наращиванию производительности, так как задачи для ГП со временем становились все сложнее и сложнее.

Конец 2017 года можно считать переломным моментом для нейросетевой отрасли. Тогда NVIDIA представила первый графический процессор с тензорными ядрами — GV100 на архитектуре Volta. В то время, как шейдерные процессоры могли работать с вычислениями полной точности (FP32), тензоры поддерживали только половинную (FP16), но с гораздо большим темпом. Вдобавок к этому появилась возможность использовать целочисленные вычисления (INT32) на шейдерах одновременно с плавающими. Для эффективного задействования всех вычислительных элементов вместе с чипом и видеокартами на его основе NVIDIA представила API CUDA версии 7.0.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Эксперимент был успешным: производительность в задачах глубокого обучения возросла кратно, ведь высокая точность им была не нужна. Чипы AMD, до этого хоть как-то конкурирующие за счет вычислительной мощности шейдеров, остались далеко позади. А NVIDIA занялась разработкой следующей графической архитектуры — Turing. Теперь каждое поколение компания совершенствовала тензорные ядра. Помимо рабочих нагрузок, они пригодились и в играх для технологии повышения производительности DLSS. В 2022 году NVIDIA представила графическую архитектуру Ada Lovelace. Ее тензорные ядра поддерживают вычисления в менее точном формате FP8, но в двойном темпе по сравнению с FP16. Таким образом, даже без учета роста количества тензоров, пиковую производительность обучения удалось удвоить. В следующей архитектуре Blackwell появилась поддержка вычислений FP4, которая в очередной раз удваивает пиковую производительность тензоров.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Сила ГП NVIDIA не только в «железе», но и в программной поддержке. С выходом каждой графической архитектуры компания обновляет API CUDA и предоставляет разработчикам подробные инструкции по работе с ним. Благодаря этому производители ПО своевременно учатся использовать особенности новых чипов, что позволяет «выжимать» из них в реальных задачах практически всю возможную производительность.

NVIDIA и ее конкуренты на рынке нейросетей

На сегодняшний день ГП NVIDIA — самые востребованные чипы для обучения и работы различных нейросетей. Высокая вычислительная мощность и постоянно развивающаяся программная платформа CUDA, совместимая со многими популярными фреймворками вроде TensorFlow и PyTorch, делают их лучшим выбором для вычислений глубокого обучения. И лидер этого рынка в лице Open AI, и недавно «выстрелившая» DeepSeek обучали свои модели именно на чипах от NVIDIA.

Для вычислительных центров компания выпускает отдельную линейку карт GPU Accelerator (бывшая Tesla). Многие из них основаны на тех же графических процессорах, что и игровые видеокарты. Но для наиболее производительных решений NVIDIA в последнее время разрабатывает отдельные чипы, совершенствуя их чуть раньше более доступных решений.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Тем не менее, все основные элементы графической архитектуры даже в таких «больших» чипах схожи с теми, что используются в игровых видеокартах GeForce. Поэтому их тоже можно использовать для несложных задач глубокого обучения, если хватает видеопамяти. В этом кроется огромный плюс: единая графическая архитектура и поддержка CUDA для игровых, профессиональных и вычислительных решений делает ГП NVIDIA доступными как для крупных фирм, так и для небольших стартапов.

В этом плане NVIDIA поступает умно: даже с одной игровой картой вместе с CUDA и ее развитыми инструментами разработчик может получить желаемый результат — пусть и заметно медленнее, чем с вычислительным сервером. При этом он привязывается к API, и при переходе на более производительные решения вновь будет использовать ГП NVIDIA.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Но лавры CUDA не дают покоя многим другим компаниям, в частности — Intel. В ответ она разработала открытый стандарт oneAPI, который призван унифицировать вычисления на различных чипах: центральных и графических процессорах, программируемых матрицах и специализированных ускорителях. В 2024 году Intel вместе с Google, Qualcomm, Samsung, ARM, Fujitsu, Imagination и VMware создали консорциум Unified Acceleration Foundation. Его целью будет дальнейшее развитие инициатив oneAPI.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Изменит ли как-то это баланс оборудования на рынке нейросетей — вопрос будущего, причем не самого ближнего. Сегодня реальный конкурент у NVIDIA на этом направлении все также один: это компания AMD с картами Instinct. С 2020 года «красные» разделили свою графическую архитектуру на две параллельно развивающиеся ветви. RDNA предназначена для игровых и профессиональных видеокарт, а CDNA — для центров обработки данных. Современные чипы AMD используют программный стек ROCm, и могут ускорять вычисления невысокой точности с помощью матричных блоков. Но до возможностей API CUDA и производительности тензорных ядер NVIDIA им все еще далеко.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Возможно, в скором времени определенную конкуренцию NVIDIA смогут предложить и чипы от Huawei. Компания разрабатывает собственные ИИ-ускорители, и последнее решение в лице Ascend 910C выглядит довольно неплохо. Однако стоит учитывать, что Huawei ограничена санкциями и не имеет доступа к самым современным техпроцессам. Поэтому, скорее всего, ускорители компании останутся эксклюзивным решением для китайского рынка, а будущие поколения из-за ограничений техпроцесса не получат существенного роста производительности на чип.

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

А пока лидерство NVIDIA в этой сфере не подлежит сомнению. Благодаря буму нейросетей ее доходы от вычислительных решений впервые превысили аналогичные от игровых видеокарт уже в 2023 году. 2024 год оказался для компании еще более успешным: на оборудовании для вычислений она заработала вчетверо больше, чем на игровом рынке. посмотрим что ей принесет год грядущий. Важно то, что NVIDIA не забывает вкладывать часть полученной прибыли в новые разработки. Каждый год компания представляет их на конференции GPU Technology Conference (GTC), основной темой которой в последнее время является искусственный интеллект. В этом году GTC прошел с 17 по 21 марта. NVIDIA раскрыла подробности о будущих графических архитектурах Blackwell Ultra и Rubin, а также презентовала новый вычислительный чип B300.

К сведению:

В 2006 году на конференции SIGGRAPH, посвященной компьютерной графике, компания ATI представила «Close to Metal»

Самое интересное, что первоначально ATI удалось реализовать вычисления не на универсальных шейдерах, а на пиксельных. Для этого в чипе R580, который стал основой для первой вычислительной карты, они уместили аж 48 (!) пиксельных шейдеров с продвинутым управляющим блоком. 

Технологии: "NVIDIA" доминант на рынке GPU для AI Инженер, Компьютерное железо, IT, Компьютер, Технологии, Искусственный интеллект, Программа, Nvidia, Чип, Электроника, Длиннопост, Видеокарта

Для сравнения: у старшего R520 из того же поколения, который был выпущен на 3 месяца раньше, было всего 16 пиксельных шейдеров, а у G70/G71 от главного конкурента - 24.

Показать полностью 13
Инженер Компьютерное железо IT Компьютер Технологии Искусственный интеллект Программа Nvidia Чип Электроника Длиннопост Видеокарта
3
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии