Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Герои войны — это продуманное сочетание стратегии и RPG. Собери мощнейшую армию и одолей всех противников! В игре представлено 7  режимов — как для поклонников сражений с PvE, так и PvP.

Герои Войны

Стратегии, Мидкорные, Экшены

Играть

Топ прошлой недели

  • cristall75 cristall75 6 постов
  • 1506DyDyKa 1506DyDyKa 2 поста
  • Animalrescueed Animalrescueed 35 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
24
TechSavvyZone
TechSavvyZone

Технологии: "Искусственный интеллект" как обучают нейронные сети⁠⁠

10 месяцев назад

Мы переживаем самый настоящий бум ИИ — чат-боты, нейросети для рисования, продвинутые системы распознавания и не только. Однако для работы с ИИ нужны соответствующие вычислительные мощности. Для этого могут использоваться в том числе нейронные ускорители. Что это за устройства, каковы их особенности и возможности?

Немного про обучение нейросетей

Для начала стоит понять, как именно происходит машинное обучение и почему для этого не подойдет любая вычислительная техника.

Если очень упростить, то нейросетевые операции используют буквально два основных действия — это умножение и сложение. Например, для распознавания каких-либо визуальных образов необходимо предоставить набор изображений и коэффициенты (веса), по которым мы будем искать конкретные признаки. Путем перемножения этих коэффициентов на анализируемое изображение нейросеть получает определенное значение. И если оно больше порогового, то она выдает результат. Например, что перед нами определенная цифра или объект.

Главная проблема в том, что количество этих коэффициентов невероятно больше. Например, нейросеть из 10 нейронов, способная распознавать изображения 28 на 28 пикселей, требует 784 коэффициента для каждого слоя — итого 7840 весов.

Как именно обрабатывать все эти вычисления? На первый взгляд, кажется логичным использовать центральный процессор (CPU). Однако он имеет одно существенное ограничение — низкий параллелизм. В архитектуре фон Неймана арифметико-логическое устройство (АЛУ) выполняет операции последовательно, каждый раз обращаясь к памяти. Да, в процессоре может быть множество ядер и АЛУ, но даже серверные модели предлагают в среднем не больше 64 ядер.

Центральный процессор может похвастаться высокой гибкостью — на нем можно запускать самые разные задачи и ПО. Однако для машинного обучения его архитектура подходит несильно, поскольку процесс требует выполнения множества однотипных задач сложения и умножения.

Куда большим уровнем параллелизма обладают видеокарты — GPU. Современная видеокарта способна выводить за раз 8 294 400 пикселей для разрешения 4K. И так 60 раз в секунду или даже чаще. Все это стало возможным исключительно благодаря многоядерной структуре. В GPU используются тысячи ядер, что и позволяет выполнять параллельную обработку большого объема данных.

Эти вычисления выполняют так называемые CUDA-ядра. Чем их больше, тем выше производительность видеокарты и тем лучше она справляется с высокими разрешениями.

С совершенствованием архитектуры появились так называемые «тензорные ядра». Проще говоря, это вычислительный блок, который способен перемножать сразу целые матрицы.

Предположим, вам необходимо перемножить матрицу А на B:

Расписав все это на шаги умножения и сложения, мы получим вот такой немаленький набор однотипных действий:

Ядро CUDA за один такт может выполнить простейшую операцию вроде 1 x 1. То есть для подсчета всей матрицы нам потребуется множество ядер и несколько тактов. Тензорные ядра работают сразу с матрицами и способны получить результат за один такт. Они как нельзя лучше подходят для машинного обучения.

Зачем в принципе нужны тензорные ядра в видеокартах? Ответ кроется в технологии DLSS (Deep Learning Super Samplin). Это метод масштабирования, использующий возможности нейронных сетей, для которого как раз и нужны тем самые тензорные ядра. Не забывайте, что изображение — это фактически та же самая матрица.

Именно за счет CUDA и тензорных ядер высокопроизводительные десктопные видеокарты вполне можно использовать для тренировки и запуска нейросетей.

Если говорить о сугубо профессиональных решениях, то Nvidia пошла еще дальше, создав специализированные ускорители в том числе для обучения ИИ. Например, линейка устройств Tesla.

Архитектура этих устройств уже учитывает специфику задачи, а также такие платы имеют больший объем видеопамяти и шину по сравнению с десктопными.

Все это дает ощутимый прирост в производительности конкретно под CNN (сверточные нейросети) и трансформеры (глубокие нейронные сети).

Несмотря на главенствующую позицию Nvidia, ее GPU-ускорители являются не единственным решением для обучения и выполнения нейросетей.

Тензорные процессоры Google

Платы Tesla от Nvidia хоть и считаются узкоспециализированными GPU, но все еще относительно универсальные — с их помощью можно вести моделирование погоды, анализ финансового риска и различные научные исследования. С началом активного развития ИИ специалисты задумались: а что, если спроектировать устройство исключительно для работы с машинным обучением. Так появилось понятие TPU — Tensor Processing Unit, а первые наработки представила Google в 2016 году.

Работа с нейросетями обычно включает два основных этапа — обучение и выполнение. Первый процесс самый трудоемкий, поскольку требует множества вычислительных операций с плавающей точкой. Однако для выполнения уже обученной нейронной сети (распознавание объектов, задачи сортировки и поиска) не требуется высокая точность, в приоритете выполнение большого объема операций умножения и сложения. И вот здесь специализированные тензорные процессоры показали свои возможности.

Модель TPU v1 имела довольно скромные характеристики — 28 МБ встроенной памяти и ОЗУ 8 ГБ DDR3. Устройство было ориентировано на работу с фирменной математической библиотекой TensorFlow от Google. Внутреннее применение тензорного процессора показало, что плата более энергоэффективная — производительность на ватт в 25-80 раз больше по сравнению с GPU и CPU. Сравнивали разработку с актуальными на то время Intel Haswell Xeon E5 2699 v3 и NVIDIA K80. Тестировали на примере сверточных (CNN), рекуррентных (RNN) и многослойных нейросетей.

Уже в 2017 году был представлен TPU v2, а дальше — TPU v3, TPU v4 и TPU v5e. Новейший Cloud TPU v5p имеет 95 ГБ памяти HBM3 и производительность в BF16 — 459 Тфлопс.

Ключевой особенностью TPU стала ориентация на обработку матриц. Инженеры сделали упор на множители и сумматоры, откинув все лишнее и сформировав архитектуру конвейерного массива. Например, TPU v2 (4 чипа) использует два конвейерных массива по 128 х 128, что в сумме дает 32 768 ALU. Производительность всего блока уже выросла до 180 TFLOPS. Это позволило не только выполнять обученные нейросети, но и тренировать их с нуля.

Например, один Cloud TPU (8 ядер и 64 ГБ ОЗУ) более чем в 5 раз быстрее Nvidia V100. Эти результаты получены по количеству обрабатываемых изображений в секунду на оптимизированных под TPU моделях.

В TPU v3 увеличили число доступных множителей MXU на ядро, что по заявлению специалистов Google повысило производительность до 8 раз.

Помимо этого инженеры разработали новый формат представления данных. Для машинного обучения обычно используется FP32 — формат с плавающей точкой с одинарной точностью. Однако расчеты в нем требуют повышенной вычислительной мощности. Для оптимизации работы с TPU инженеры разработали формат Bfloat16 для операций умножения. За счет этого удалось снизить объем данных, который передается по каналам связи, повысив производительность системы.

Первоначально тензорные процессоры использовались в системе AlphaGo. Это тот самый компьютер, который обучался игре в «го» и смог победить в 2016 году Ли Седоля — многократного призера различных соревнований. Как выяснилось позже, обыграть корейского мастера смогли всего 50 плат TPU. Позже разработчики провели игру с еще одним мировым профессионалом Кэ Цзе. AlphaGo разгромила его с использованием всего одной платы TPU. Более того, даже пять профессионалов в совместной игре не смогли одолеть компьютер.

Также компания использует тензорные процессоры в сервисе Google Street View, выделяя текст на уличных знаках с фотографий. В Google Фото один тензорный процессор способен обработать до 100 миллионов изображений в день. На текущий момент решения Google TPU — это облачные платформы и сторонним разработчикам по регионам доступны ограниченно в зависимости от версии.

В виду ограничения фотоматериалов

ПРОДОЛЖЕНИЕ СЛЕДУЕТ...

Показать полностью 21
Технологии IT Компьютерное железо Инженер Компьютер Программа Тестирование Искусственный интеллект Нейронные сети Электроника Распределенные вычисления Инновации Длиннопост
3
2
volod64
volod64
Компьютер это просто

Ответ на пост «Folding@Home»⁠⁠1

11 месяцев назад

В Folding@home я с 2015 года.

Начинал с GTX560Ti и 4-ядерного проца A8 5600k.

Охлаждал его - и охлаждает последующие CPU - Zalman CNPS10X Performa

Вертушка была сменена на не гудящий DeepCool UF120

Вертушка была сменена на не гудящий DeepCool UF120

Недавно пятка была почищена

Потом подтянулся до R9 290X, которую приобрёл у товарища по команде

Затем появилась возможность купить GTX970, у которой мало слышно вертушки Palit Jetstream.

Время шло, 4 ядер уже давно не хватало. И платформу обновил на x99. Проц сменил на Xeon 2658v3

Поднялся в рейтингах других проектов (Rosetta, World Community Grid, Sidock - все они тоже биомедицина).

После, купил GTX1070 этого же исполнения: холодная тихоня Palit Jetstream. Суточные очки приблизились к 800 тыс :) GTX1080Ti добавила уже 1,2-1,8 лимонов!

Сейчас считаю на 2680v4 и RTX3070 в режиме экономии мощности - 3,5 миллиона.

Ниже меня конкурентов нет!! 🤩

В чем мораль то? Вряд ли что-то другое мотивировало меня делать апгрейд. Людям нравится думать, что они кому-то помогают. Даже если эти кто-то не пациенты онкодиспансеров — а хитрые дяди программисты, криптовалютчики и фарм-террористы. Нравится кого-то обгонять, быть не одинокими а частью большого коммьюнити. Можете дальше думать что это шпионаж (или прочьяя шляпа), но в глубине души вы согласны, что доверия в наше непростое время не хватает. С Наступающим!🎅

/-Этот пост с фото и скриншотами в формате PDF-/

Показать полностью 1
[моё] Коронавирус Компьютер Folding(at)home Компьютерное железо Видеокарта Распределенные вычисления Ответ на пост
0
16
npocanueHc
npocanueHc
Лига Госзакупок

Как решить проблему с дефицитом центров обработки и хранения данных в России?⁠⁠

3 года назад

Нифига не программист, просто лет 30 постоянно в качестве хобби ковыряюсь с компами, старый фидошник и просто опытный юзверь. Ну и раз пошла такая жизнь с санкциями, ограничениями в IT сфере и безумным ростом цен на сервера возникает мысль, а почему бы не замутить в РФ на государственном уровне сеть распределенных вычислений и хранения данных. Ведь идея висит в воздухе (сериал Кремниевая долина). В свое время многие ставили на ПК программы для распределенных вычислений. Почему бы не запустить похожее на ПК добровольцев готовых выделить 10% процессорной мощности и 100Гб дискового пространства.


В настоящее время в Российской Федерации государственные органы, организации, предприятия и предприниматели испытывают критические проблемы в центрах обработки информации, облачных хранилищах и доступом к ним. Для решения данной проблемы предлагаю организовать на государственной основе (через сайт госуслуги) обработку и хранение данных на личных компьютерах граждан РФ. На добровольной основе гражданин может поставить программу по распределенной обработке данных и выделить определенный процент загрузки процессора и дискового пространства для общего использования. В качестве поощрения ввести таким гражданам определенный социальный рейтинг, отображаемый на сайте госуслуг. По данному рейтингу в дальнейшем возможно предоставление, каких-либо преференций со стороны государства, предприятий с госучастием и банков (сниженный процент по ипотеке например).


Что это даст для страны и так понятно: снижение объема закупки импортного оборудования, повышение уровня отказоустойчивости имеющейся цифровой инфраструктуры за счет распределенных вычислений. Что это даст добровольцам? Ачивку на сайте госуслуг и повышенный социальный рейтинг. Все слышали о социальном рейтинге у китайцев, но почему бы и у нас его не внедрить.  На вопрос почему пишу суда, а не оставляю на сайте госуслуг - да там ошибка постоянно выскакивает и не дает отправить обращение)))

Показать полностью
[моё] IT Распределенные вычисления Социальный рейтинг Компьютер Цод Обработка данных Импортозамещение Инициатива Текст
22
52
Programma.Boinc
Programma.Boinc
Исследователи космоса

Наука@Home: распределенные вычисления на ПК⁠⁠

5 лет назад

Наука@Home: распределенные вычисления на ПК


18.06.2014 Андрей Белокриницкий Андрей


В недалеком прошлом под научные расчеты создавались специальные вычислительные кластеры, однако их мощность не безгранична и ее постоянно не хватает для обработки всех данных. Следовательно, ученым пришлось искать доступ к новым вычислительным ресурсам. Вместо покупки очередных дорогих компьютеров пошли альтернативным путем и начали использовать ПК обычных пользователей, которые те безвозмездно отдавали для расчетов во имя науки.


Сначала эта затея выглядела малоперспективной, ведь в середине девяностых, когда лишь начали появляться первые сети распределенных вычислений в их текущем виде, частота процессоров едва преодолела порог в 100 Мгц, Интернет был редкостью, а о доступе к действительно большому числу компьютеров не шло и речи.


Тем не менее, развитие Всемирной Сети и увеличение производительности процессоров в полном соответствии с законом Мура привело к тому, что сейчас распределенные сети на равных конкурируют с топовыми суперкомпьютерами, причем, в отличие от них, постоянно совершенствуются и не стоят ни копейки.


Если взглянуть на изменения в распределенных сетях за последние несколько лет, то можно сразу отметить несколько ключевых моментов.


Наверное, самым важным и пока еще не до конца раскрывшим себя шагом стал переход на GPU-вычисления, в некоторых случаях ускоряющий расчеты на порядок. Значительную роль сыграла и оптимизация вычислительных алгоритмов под многоядерные процессоры, возможность одновременного выполнения расчетов на CPU и GPU, поддержка 64-битных вычислений, появление клиентов для игровых консолей, поддержка альтернативных операционных систем (Mac OS X, Linux), быстрое распространение Интернета, и что немаловажно, заметное упрощение клиентов, которые больше не требуют от пользователей запуска вычислений через командную строку.


Сравнение с суперкомпьютерами


Сети распределенных вычислений уже называют виртуальными суперкомпьютерами, и приставка «виртуальные» здесь скорее используется для дифференциации от классических суперкомпьютеров, поскольку по скорости работы оба типа вычислительных систем находятся практически на одном уровне.


По состоянию на октябрь 2012 года проект Folding@home «завербовал» 219 тыс. процессоров, 20 тыс. GPU, 16 тыс. консолей PlayStation 3, и его суммарная мощность составила 3.7 petaFLOPS (пиковая мощность 6 petaFLOPS была зарегистрирована в ноябре 2011 г.). По данным за этот же месяц, производительность BOINC (всех проектов, входящих в состав этой сети) составляет 6.6 petaFLOPS (на момент публикации материала — 7.4 petaFLOPS, по данным официального сайта, но эта цифра подсчитывается лишь за последние 24 часа).


Если эти виртуальные вычислительные системы разместить в списке суперкомпьютеров, то они втиснутся между третьей и четвертой строчкой рейтинга, заметно опережая ближайшего конкурента (производительность SuperMUC, занимающего сейчас четвертое место, составляет 3.1 petaFLOPS).


Для того, чтобы подняться на первое место, Boinc необходимо быть быстрее приблизительно в три раза, поскольку рейтинг Sequoia (самого производительного на текущий момент суперкомпьютера в мире) составляет 20.1 petaFLOPS. Учитывая, что этот компьютер в полную мощность заработал лишь летом этого года, можно предположить, что распределенные вычислительные системы смогут вырваться вперед уже в течение нескольких лет, даже с учетом появления новых суперкомпьютеров.


Основные направления исследований


Без сомнения, распределенные вычисления уже стали распространенным феноменом, следовательно, среди них можно отыскать проекты, занимающиеся решением практически любых научных задач. Тем не менее, самые популярные проекты сконцентрированы на решении довольно узкого круга проблем. В первую очередь это медицина (исследование белков и поиск лекарств), предсказание климата, изучение космоса (поиск внеземных сигналов, правильных моделей вселенной, экзопланет), проверка математических и физических теорий.


Как подключиться к сети распределенных вычислений


Если вы решили, что поиск лекарств от неизлечимых пока болезней или предсказание изменения климата Земли – задачи, достойные того, чтобы выделить под них свой компьютер, то добровольно пожертвовать вычислительную мощность под любой из этих проектов совсем не сложно.


Проще всего это сделать, скачав клиент BOINC и запустив мастер добавления нового проекта. На одном из шагов необходимо будет зарегистрироваться (что можно сделать прямо в программе), вот и все трудности. Если возникли затруднения с выбором конкретного проекта, то можно указать сразу несколько, и они будут считаться по очереди.

По умолчанию BOINC использует компьютер все свободное время, однако выставляет для своих расчетов самый низкий приоритет, так что процессорные ресурсы используются клиентом в самую последнюю очередь.


Что касается памяти, то здесь понятие приоритета неприменимо, а поскольку на многоядерных процессорах BOINC запускает сразу несколько копий расчетов, каждая из которых может занимать в памяти несколько сотен мегабайт (такие объемы нужны не для всех проектов), то в играх и других требовательных приложениях все же лучше ставить расчеты на паузу, что можно сделать непосредственно в клиенте.


Более тонкую настройку можно провести в опциях BOINC, указав программе часы использования компьютера, период бездействия ПК, после которого можно запускать расчеты, а также количество процессорной мощности (в процентах), доступной клиенту.


Очки за участие


В большинстве проектов за участие начисляют очки. Их количество напрямую зависит от сложности расчетов, следовательно, чем производительнее компьютер и чем дольше он используется, тем больше очков начисляется. У каждого пользователя есть собственная страница со статистикой, где можно посмотреть личное и командное место в общем зачете (в качестве команды по умолчанию используется страна, указанная во время регистрации).


Популярные проекты Boinc


Boinc — это не распределенная сеть в традиционном понимании, а скорее посредник между проектами и пользователями. Изначально Boinc разрабатывался как клиент для SETI@home, но сейчас с его помощью можно подключиться и к десяткам других проектов.


ClimatePrediction


Самый мощный проект по изучению климата Земли. Занимается моделированием погодных условий будущего (до 2080 года) с учетом различных входных данных. На текущий момент имеет в активе несколько миллионов просчитанных комбинаций. Проект был запущен в 2003 г.


Einstein@home


Проект занимается поиском гравитационных волн, существование которых еще не доказано, но их наличие теоретически было предсказано Эйнштейном почти сто лет назад.

Для обнаружения гравитационных волн обрабатываются данные с радиотелескопов и специальных спутников, наблюдающих за вращающимися нейтронными звездами (пульсарами). За время существования проекта таких объектов было обнаружено более трех десятков.


Результаты проверки, опубликованные в июле 2012 г., свидетельствуют о том, что на текущий момент даже самые чувствительные датчики гравитационных волн не смогли зарегистрировать их наличие, но проект продолжает свою работу, анализируя новые данные и ожидая ввода в эксплуатацию более точных инструментов.


Einstein@home запущен в 2005 г. и на текущий момент его вычислительная мощность составляет приблизительно 0.5 petaFLOPS.


Rosetta@home


Один из наиболее популярных медицинских проектов, занимающихся виртуальным проектированием и изучением свойств новых протеинов, что может способствовать открытию лекарств от неизлечимых на данный момент болезней.


Проект запущен в 2005 г. и по состоянию на октябрь 2011 г. его вычислительная мощность составляла приблизительно 60 teraFLOPS (0.06 petaFLOPS)


Folding@home


Возможно, самый популярный проект распределенных вычислений. По вычислительной мощности уже сопоставим со всеми проектами, входящими в состав BOINC. Занимается практически тем же, что и Rosetta@home, т.е. изучением свойств белка, и с момента запуска благодаря ему были опубликованы более ста научных работ.


Большой мощности проект смог достичь как за счет раннего старта (2000 год), так и за счет выпуска очень производительного клиента для PlayStation 3 (2007 год), а также оптимизации расчетов под многоядерные процессоры и видеокарты, выполняющие вычисления, как правило, в несколько раз эффективнее самых современных CPU.


SETI@home


Один из ветеранов распределенных вычислений. Запущен в 1999 году, и таким образом, после десятилетий поиска внеземных сигналов в застенках научных лабораторий, к дешифровке космических радиоволн подключились и обычные компьютеры.


Несмотря на тринадцатилетний стаж, проект до сих пор не получил ни одного результата, сравнимого по скандальности с сигналом «Wow!», зарегистрированном в 1975 г. Тем не менее, на небе было найдено несколько точек — кандидатов на более тщательное сканирование, в связи с повышенной интенсивностью сигналов на фоне обычного шума. Вычислительная мощность проекта составляет приблизительно 0.5 petaFLOPS.


Milkyway@home


Проект воссоздания трехмерной модели нашей Галактики, позволяющий узнать историю формирования Млечного Пути.


Помимо этого, просчитываются процессы столкновения и слияния Галактик.


Cosmology@home


Проект занимается созданием виртуальных моделей Вселенной и последующим сравнением их свойств со свойствами наблюдаемой Вселенной с целью поиска наиболее соответствующей модели. Полученные данные затем могут использоваться для планирования новых астрофизических исследований и экспериментов, а также для лучшей подготовки к анализу данных, поступающих от новейших космических миссий.


Хотите принять участие в распределенных вычислениях, тогда, Вам сюда:


https://boinc.ru/

Показать полностью 5
Космос Наука Распределенные вычисления ПК Компьютер Закон Мура Длиннопост
12
2
Programma.Boinc
Programma.Boinc

Путь интернет-самаритянина⁠⁠

5 лет назад

Путь интернет-самаритянина


Когда-то люди жили жутко примитивно. Если надо было что-то посчитать — загибали пальцы и складывали палочки. Позже появились продвинутые абаки, на которых можно было подсчитывать десятки, сотни и даже тысячи. Потом научились вычислять в столбик. Прошло еще немного времени, и уже калькуляторы не справлялись с теми числами, которые нужно было складывать, вычитать, умножать, делить, извлекать корни. Зато, когда появились и начали развиваться компьютеры — люди на время успокоились. ЭВМ с лихвой покрывали потребность в вычислении. А там, где один компьютер не справлялся, ставили многопроцессорную станцию.


Понятно, что до бесконечности такая, мягко говоря, лафа продолжаться не могла. Человечество продолжало двигаться по спирали эволюции, и вот уже даже десятипроцессорные станции не справляются с расчетами, которые нам — людям — хочется сделать побыстрее и подешевле. Например, чтобы найти лекарство от рака, надо перебрать миллиарды вариантов веществ. Так ведь еще, оказывается, и рак разный бывает. Да и чтобы геном человека расшифровать, хорошо бы мощностей подтянуть (тут, слава богу, уже справились).


А нельзя ли как-нибудь схитрить?! Воспользоваться мощностями, которые никто не использует. Может, при этом еще и не платить получится? По всему выходило, что не получится, но тут появился интернет — и ситуация изменилась. Почесали ученые и предприниматели тыковку и смекнули: а ведь есть компьютеры рядовых пользователей, а через интернет они теперь как бы объединены в общую сеть. А ресурсы сети — правда, в более миниатюрном варианте — использовать уже научились. Не привлечь ли интернетчиков к решению великих задач?!


Идея — гениальная. Раскручена пока не на все сто, но даже то, что уже есть, внушает уважение. Самый обычный пользователь, практически ничего не делая (нужно-то всего скачать и установить у себя небольшую утилитку да иногда выходить в интернет), может поучаствовать в исследованиях мирового, можно даже сказать — планетарного масштаба. Но давайте обо всем поподробнее.


Принципы работы “распределенок”


Некоторые задачи являются настолько требовательными к вычислительным мощностям, что даже мощнейшие из современных суперкомпьютеров не справляются. Немаловажным фактором является и стоимость оборудования (если требуется создать новую суперсистему) или стоимость машинного времени (в случае использования какого-либо суперкомпьютера). В первом случае стоимость исчисляется сотнями, во втором — десятками... миллионов, разумеется. При таком ценовом раскладе проект имеет все шансы стать нерентабельным и лишиться всякого финансирования.


Изящное решение не заставило себя ждать. Системы распределенных вычислений. В их основу положен принцип разбиения одной задачи на множество подзадач, с решением которых легко справится среднестатистическая система. Данные, подлежащие обработке, рассылаются по Сети, обрабатываются и затем отсылаются на главный сервер, где происходит “сборка” результатов обработки. Преимущества такого подхода очевидны: легкая масштабируемость (читайте — расширяемость) Сети, производительность, соизмеримая с производительностью суперкомпьютеров, размер вложенных средств.

Такие системы применяются не только в интернет-проектах, но и на уровне локальных сетей, например, при сетевом рендеринге. Если требуется отрендерить много больших изображений, то данные рассылаются по сети и рендерингом занимаются сетевые компьютеры, а финальная картинка собирается на сервере.


Исторические тернии


Идея создания систем распределенных вычислений родилась в далеком 1970 году, когда компьютеры занимали комнаты, гудели многоваттными блоками питания, лениво поедали тонны перфокарт и неторопливо подмигивали системщикам лампочками на панелях. Первые эксперименты с сетевыми программами вылились в создание первого вируса, распространяющегося по сети под именем Creeper (“Вьюнок”), и последовавшим за ним его убийцы Reaper (“Жнец” или “Потрошитель”).


Распространяясь по прародителю современного интернета — сети ARPAnet, обе программки эффективно загружали память сетевых машин и отнимали драгоценное процессорное время. “Вьюнок” делал это из вредности, выдавая текстовые сообщения, а “Жнец” сканировал память машины на предмет наличия паразита. Под покровом тайны остался факт, какая же программка больше загружала машину.


В 1973 году детище компании PARC (Xerox Palo Alto Research Center), являвшееся по своей сути первым “червем”, последовательно и обстоятельно загрузило 100 компьютеров в Ethernet-сети компании таким образом, что все свободное (!) процессорное время было отдано под деятельность червя: создание и рассылку себе подобных. Такая на первый взгляд не полезная вещь, как вирус, дала идею для создания систем сетевого рендеринга на базе компьютеров Apple.


Затем последовало затишье... Новый прорыв в области систем распределенных вычислений пришелся на период экспансии интернета в начале 90-х. В первом проекте, получившем широкую огласку, были задействованы несколько тысяч компьютеров по всей глобальной Сети. Целью проекта был взлом алгоритма шифрования методом прямого перебора. Но вторым и значительно более популярным проектом стал SETI@home.


Широта поиска


Под системами распределенных вычислений скрываются крайне любопытные и полезные проекты. Самый известный — SETI@home — призывает простых пользователей искать жизнь в других звездных системах и даже галактиках при помощи радиотелескопа Arecibo Radio Telescope. Это первый проект, использовавший технологию распределенных вычислений, который получил всемирную известность. Второй глобальный проект, набирающий обороты в данный момент, — United Devices Against Cancer. Проект, разработанный компанией United Devices, специализирующейся на системах распределенных вычислений, направлен на поиск лекарства против рака.


Чудо-радиотелескоп


Радиотелескоп, на котором основана программа SETI@home, называется Arecibo Radio Telescope и расположен в Пуэрто-Рико. Радиус этого, с позволения сказать, изделия превышает 300 метров. Вот такой милый блинчик — белоснежного цвета и чертовски фотогеничный.


Ежедневно радиотелескоп отправляет на обработку около 40 гигабайт данных. Даже если учитывать, что из-за интерференции сигналов на первом этапе отсекалось 2,31% поступающих от радиотелескопа данных, с таким потоком информации не справлялись компьютеры, задействованные в проекте. Руководитель проекта обратился за помощью к добровольцам с просьбой пожертвовать свободное процессорное время своих машин во благо науки.


Впрочем, радиотелескоп занимается не только тем, что денно и нощно ищет признаки разумной жизни во Вселенной. В сентябре 2004 года на Arecibo установили четыре новейших скан-модуля, и телескоп приступил к новой задаче — составлению детальнейшей карты нашей с вами Галактики (Млечный путь). Причем на нее будут нанесены даже самые мелкие объекты с указанием всех свойств и характеристик. Программа исследования называется ALFA, время окончания — не определено.


Это что касается настоящего и будущего, а в прошлом с помощью Arecibo уже сделали немало мега важных астрономических открытий. Например, именно с помощью этого телескопа была обнаружена первая планета за пределами Солнечной системы. Через него же удалось “подсмотреть”, что на поверхности Меркурия есть лед.

И, конечно же, такой огромный телескоп не мог не привлечь внимание голливудских режиссеров. Гигантский белый “блин” появлялся на киноэкранах в огромном количестве фильмов.


Есть ли жизнь на Марсе?!


Вопрос “есть ли жизнь на Марсе” да и во Вселенной вообще — занимает умы ученых и простых граждан с незапамятных времен. Построены огромные телескопы, через которые ученые пристально рассматривают доступные оптике участки галактики. Развернуты гигантские радары, сканирующие самые потаенные уголки Вселенной: а, не спрятался ли там в каком-нибудь закоулочке коварный инопланетянин?! И все было бы хорошо, если бы телескопы и радары могли сами оценить полученную информацию и сказать ученым — вот, вот он, коварный зеленый человечек. Ловите его. Но информация от приборов поступает в необработанном виде, и информации этой много. Радары, например, сканируют Вселенную вообще без перерыва. Вот тут-то система распределенных вычислений и понадобилась.


Проект SETI@home - своей задачей как раз и ставит поиск внеземных цивилизаций путем сканирования небосклона радиотелескопом и анализа полученных данных. Просто (на уровне идеи, а не реализации), увлекательно, перспективно... Датой запуска стал май 1999 года, и к настоящему моменту программное обеспечение SETI@home проинсталлировали более 3 млн. добровольцев! Вот и подумайте, какова суммарная производительность такой сети. По данным разработчиков (хотя, и они говорят, что это не точно, возможно, больше) — 14 триллионов операций с плавающей точкой в секунду. Это сухим научным языком. А если попроще, чтобы не пришлось перенапрягать извилины, то за последние полтора года просчитано было столько информации, сколько пришлось бы считать 500000 лет. Если бы считали только на одном современном компьютере. Если бы разработчики вздумали создавать суперкомпьютерную станцию для расчетов, то потребовались бы десятки миллиардов долларов. А так — получается почти бесплатно, а главное — зеленые человечки ищутся значительно быстрее.


Понятно, что для привлечения пользователей-участников нужна была не просто идея ловли зеленых человечков, а что-то еще. И разработчики сделали программу-клиент SETI@home в виде симпатичного скринсейвера. Когда ваш компьютер не занят работой, скринсейвер демонстрирует симпатичные графики обрабатываемых электромагнитных сигналов, производит их перерасчет в понятный формат в виде пиковых, пульсирующих и волновых сигналов. Обработанная информация (пакет) отправляется обратно на сервер.

Один момент даже сложилась ситуация, когда пользователей оказалось больше, чем данных, которые нужно обрабатывать. Но создатели быстро сообразили и подключили дополнительные мощности радара.


Лекарство от рака


Зеленые человечки — это, конечно, очень хорошо. Но любой пользователь все-таки нет-нет, да и задается вопросом “а есть ли она вообще, эта инопланетная жизнь”. Может, зря ищем. Совсем другое дело — рак. Злокачественными опухолями заболевает с каждым годом все больше и больше народа. И если зеленые человечки могут подождать, пока их найдут, то страдающие люди ждать не могут. А что нужно, чтобы успешно лечить рак? В теории — все просто. Нужно подобрать лекарство, которое сможет успешно нейтрализовать патологические белковые молекулы-маркеры патологических раковых клеток. Маркеры, которые иммунная система организма не воспринимает как что-то чужеродное и потому не уничтожает.


Но чтобы найти такое лекарство, надо перебрать многие миллионы и даже миллиарды вариантов химических соединений. Проект United Devices (официальный сайт — www.ud.com) как раз занимается просчитыванием всех этих реакций за счет мощностей компьютеров простых пользователей. UD — на сегодня второй по популярности проект после SETI@home, разработан Оксфордским университетом и спонсируется компанией Intel.

Дистрибутив тоже выполнен предельно симпатично в виде скринсейвера, моделирующего различные химические молекулы. Просчет ведется, только когда вы на машине не работаете, так что не стоит опасаться за снижение производительности — игры будут бегать не менее шустро. После установки клиента его необходимо зарегистрировать на сайте разработчиков, и дальше он начнет планомерно выполнять поставленную задачу: просчитывать химические реакции.


Деятельное участие


Рассказав о таких суперпроектах, было бы странно не упомянуть, как же самому поучаствовать в исследованиях. Сделать это совсем не сложно. Если ваш компьютер — не совсем уж допотопный (все, что выше P-166, подходит). Чтобы принять участие в любом из вышеописанных проектов, необходимо скачать клиентскую программу с соответствующего сайта (адреса приведены при описании проектов) или взять с наших CD/DVD (там лежат дистрибутивы United DevicesSETI@home). Установить программы-менеджеры, подключиться к интернету и зарегистрироваться. После этого утилиты можно либо включить в постоянную фоновую работу, либо определить в качестве скринсейверов. В этом случае вычисления будут проводиться только в “спящем” режиме компьютера.

И не забывайте почаще подключаться к интернету, чтобы программы могли скидывать обработанную информацию на сервер и получать новые данные для расчетов.


Белковые кущи


Еще один забавный проект, пускай и не такой привлекательный, зато великолепно оформленный графически, — Distributed Folding (официальный сайт — www.distributedfolding.com). Ученые ведут исследования в области белковых структур. Исследуются в основном вторичная и третичная структура протеинов. Компьютеры интернета используются для моделирования миллионов возможных конфигураций.

На первый взгляд смущает достаточно объемный дистрибутив (около 7 Мб), но когда видишь красоту, происходящую на экране во время работы программы, про все объемы забываешь. Объемные многоцветные молекулы парят в пространстве, поворачиваясь то одним боком, то другим. В общем, лучше один раз увидеть.


Дела статистические


За время существования проекта SETI@home было обработано:

445800039 положительных результатов (в среднем — 107,93 результат на пользователя);

2647483147 пиковых сигналов (6,39 на пользователя);

231759222 гаусс-сигналов (0,51 на пользователя);

212191970 пульс-сигналов (0,47 на пользователя);

226136809 строенных сигналов (0,50 на пользователя);

Сложите все цифры слева и получите количество вычислений, которые провели машины интернетчиков, участвующих в проекте. Цифра, мягко говоря, впечатляет.


Итог:


Системы распределенных вычислений находятся только на ранней стадии развития. Самый первый виток эволюции. Можно сказать, они еще не осознали себя, а их создатели до конца не поняли, какие на самом деле мощности открывает перед ними интернет. Рекламные акции во всех случаях проводились довольно скромные, и при этом удалось набрать такое количество добровольных помощников. А если провести нормальную рекламную кампанию, снабдить дистрибутивы аналитических программ какими-нибудь вкусностями вроде мини-игр или бесплатного доступа к какому-нибудь музыкальному серверу... Придумать более рациональную систему сбора информации и задействовать компьютеры не только простых пользователей, но и учреждений, которые, как показывает практика, большую часть времени все равно стоят без дела... В любом случае — в будущем, возможно, не самом близком, но и не таком уж далеком, подобные виртуальные сети будут расти и множиться, а наука получит отличное подспорье для новых важных открытий.


Удачи вам в благом самаритянском труде. Возможно, благодаря именно вашему участию в одном из проектов, в самом ближайшем будущем тысячи больных раком людей смогут излечиться или на Землю наконец-то высадится миротворческий десант рыбочервебабуинов из соседней галактики с плазмаганами наперевес и дружественными улыбками на мордах.


Хотите принять участие в распределенных вычислениях, тогда, Вам сюда:

https://boinc.ru/

Показать полностью 6
Наука Компьютер Длиннопост Развитие Распределенные вычисления
5
11
GaMooMoo
GaMooMoo

Теперь любой желающий может помочь в поиске лекарства от коронавируса!⁠⁠

5 лет назад

Хочешь спасти мир, но умеешь только смотреть мемы и играть на компьютере? Тогда настало твое время! Самый известный проект распределённых вычислений для проведения компьютерного моделирования Folding@Home добавил в свою базу вирус SARS-CoV-2, который так сильно напугал весь мир. Если кто-то не знает, то поясню — проект Folding@Home позволяет объединять через интернет домашние компьютеры в единый супер-компьютер и задействует эту мощь на поиски лекарства. Ну если быть совсем точным, то запускает моделирование процессов свертываемости молекул белка, что потом, в теории, и позволит создать лекарство! Это похоже на майнинг криптовалют, но только с реальной пользой, при этом, мощности компьютера можно задействовать лишь тогда, когда он включен, но им не пользуются. В проекте пока еще не выделили отдельную категорию для коронавируса, поэтому в вэб-мониторе надо выбрать «Any disease» - «Любое заболевание» или просто «Any» в «продвинутых» настройках. Сразу оговорюсь: конечно же, не факт, что они быстро найдут лекарство или вообще его найдут, так как этот проект с помощью распределенных вычислений уже много лет ищет лекарства от рака, Альцгеймера, Паркинсона, диабета 2 типа и т.д., но пока без серьезных успехов, хотя по итогам работы и было создано уже более 200 научных работ. Но все же, сама мысль — просто поставить на компьютер программу и этим приблизить победу над болезнями — вызывает положительные эмоции в море негатива от коронавируса!

Теперь любой желающий может помочь в поиске лекарства от коронавируса!
Показать полностью 1
[моё] Коронавирус Пандемия Компьютер Наука Распределенные вычисления
16
Programma.Boinc
Programma.Boinc

Установка BOINC на компьютер⁠⁠

6 лет назад

Установка BOINC на компьютер

Показать полностью 24
Наука Установка Компьютер Распределенные вычисления Boinc Длиннопост
8
2
Programma.Boinc
Programma.Boinc

История распределённых вычислений.⁠⁠

6 лет назад

История распределённых вычислений.

По самым смелым оценкам, начало распределенным вычислениям было положено два столетия назад. Безусловно, ни о каких компьютерах тогда не могло быть и речи, но это было время, когда перед учеными уже ставили задачи крупномасштабных вычислений. И эти задачи нужно было решать. Догадываетесь каким образом? Вот именно! Применяя принцип распределенных вычислений.


В конце 18-го века правительство Франции решило существенно улучшить логарифмические и тригонометрические таблицы. Работа была связана с огромными по тем временам объемами расчетов, а потому ее поручили профессионалу, барону Гаспару де Прони, состоявшему главным вычислителем при французском правительстве в 1790-1800 гг. В результате появилась знаменитая "вычислительная мануфактура" барона де Прони.


Барон смело взял на вооружение идею о разделении труда и перенес ее принципы на вычислительный процесс. Исполнители проекта были распределены на три уровня. Низший уровень в системе занимали обыкновенные люди-вычислители ("компьютеры" , от которых требовалось только производить аккуратные арифметические действия. На втором уровне стояли образованные технологи ("серверы" проекта), которые организовывали рутинный процесс, распределяя задания и обрабатывая полученные вычислителями данные. Высшую ступень занимали выдающиеся французские математики ("администраторы-программисты" проекта), среди которых были Адриен Лежандр и Лазар Карно. Они готовили математическое обеспечение - по существу писали "программы". В результате барону де Прони удалось организовать процесс таким образом, чтобы свести очень сложные задачи к набору рутинных операций, благодаря четкой системе контроля и хорошо отлаженной системе распределения работы между вычислителями.


Идеи де Прони подтолкнули Чарльза Бэббиджа к созданию первой в истории вычислительной машины, а основанные на прототипе барона "вычислительные мануфактуры" использовались в исследовательских проектах вплоть до середины 20 века, с их помощью, в частности, рассчитывались первые ядерные бомбы в США, Великобритании и Советском Союзе.


Впервые задача совместного использования свободных вычислительных ресурсов компьютеров была оригинальным образом решена вначале 1970-х гг. учеными из исследовательского центра PARC (Xerox, Palo Alto), занимавшихся разработкой программ для первых компьютерных сетей. В 1973 г. Джон Шох и Жон Хапп написали простую программу, которая запускалась по ночам в локальную сеть PARC, расползалась по работающим компьютерам и заставляла их выполнять вычисления.


Следующий качественный скачок в техническом решении задачи совместной работы многих компьютеров над единой сложной задачей произошел к концу 1980-х гг., когда появились персональные компьютеры и электронная почта. В 1988 г. Арьен Ленстра и Марк Менес, работавшие на компанию DEC (Palo Alto), написали программу для факторизации (разбиения на множители) длинных чисел. Для скорейшего завершения поставленной задачи программа могла запускаться на нескольких не связанных друг с другом машинах, каждая из которых обрабатывала свой небольшой фрагмент числа. Новые блоки заданий рассылались на компьютеры участников (также как посчитанные результаты принимались) с помощью центрального сервера проекта по обычной электронной почте. Для успешного разложения на множители числа длиной в сто знаков этому сообществу потребовалось два года и несколько сотен персональных компьютеров.


Таким образом, именно проект Ленстра-Менеса продемонстрировал не только принципиальную возможность распределенной вычислительной сети, но и высокую эффективность в выполнении поставленных перед таким проектом задач. По сути, именно отсюда нужно начинать историю публичных Internet-проектов распределенных вычислений (Distributed Computing).


В случае же с более ранним "червем" из исследовательского центра PARC, это было скорее начало другого направления распределенных вычислений, кластерного, позже названного Grid Computing (параллельные вычисления или "решетки" вычислительных ресурсов). Ведь в лаборатории PARC машины были связаны первой Ethernet-сетью и постоянно обменивались данными на большой скорости, синхронизируя свою работу над отдельными фрагментами задания.


Позже, в 1994 г., появилось первое техническое воплощение технологии Grid Computing - виртуальный кластер "Беовульф", организованный Дональдом Бекером и Томасом Стерлингом на основе 16 обычных компьютеров 486DX4, объединенных в единую 10Мбитную сеть с постоянным обменом информации между процессорами. Результат превзошел все ожидания. Фактически была доказана возможность построения сетей любой необходимой вычислительной мощности на базе обычных машин без использования дорогих суперкомпьютеров.


Теперь необходимо дать отличительные признаки двух направлений распределенных вычислений. Понятия Distributed Computing и Grid Computing зачастую смешивают, но это неправильно.


Задачи, которые реализуются с помощью Grid Computing, требуют активного межмашинного взаимодействия и синхронизации, реализуемого с помощью специальных библиотек MPІ, PVM, BSPlіb и др. Эти библиотеки обычно применимы только в кластерних системах, поскольку требуют высокой скорости сетевых взаимодействий и, соответственно, большого объема непрерывного сетевого трафика. Тот факт, что сетевые взаимодействия осуществляются между всеми машинами, задействованными в вычислениях, также означает запрет на использование межсетевых экранов или других средств ограничения сетевых потоков. Также это обычно означает, что абсолютно все машины должны быть доступны с начала до конца решения задачи. Поэтому, реализованная на таких принципах вычислительная сеть возможна чаще всего в пределах некоторой замкнутой организации. В силу этих ограничений, задачи, которые требуют использования этих библиотек, обычно не подходят для крупномасштабных распределенных проектов.


Вычислительные задачи, которые не требуют никакой координации или синхронизации между машинами, и не нуждаются в дополнительном управлении в процессе работы, обычно решаются с помощью технологии Distributed Computing. Этот тип задач очень подходит для больших Internet-проектов распределенных вычислений, реализуемых посредством связки "сервер - компьютер участника", поскольку отдельные фрагменты задачи могут выполняться в любом порядке, и могут быть перераспределены по другим машинам, если какой-нибудь из результатов не удалось получить с первого раза. Отсюда, кстати, проистекает необходимость избыточности вычислений, когда один и тот же блок задания рассылается нескольким участникам. Это необходимо, чтобы гарантировать получение результатов вычисления отдельного блока, что не всегда возможно, учитывая пестроту участников и установленного на их компьютерах программного обеспечения.


Конечно, технология Distributed Computing накладывает серьезные ограничения на спектр решаемых с ее помощью задач, но также очевидны и преимущества. Некоторым исследовательским организациям, особенно некоммерческим, зачастую недостаточно финансирования для приобретения или аренды специальных ресурсов - тех же суперкомпьютеров или кластерных вычислительных сетей. К тому же суперкомпьютеры и кластеры требуют постоянного обслуживания, модернизации и обучения ответственного персонала. Распределенные вычисления посредством армии пользователей Internet лишены этих недостатков и зачастую подключенные к проекту вычислительные мощности сопоставимы и даже превосходят мощности современных суперкомпьютеров.


Высказываются оптимистические прогнозы, что в скором времени в строй войдет новая архитектура Distributed Computing, которая позволит компьютерам-участникам обмениваться данными непосредственно между собой, несмотря на сложности и эпизодичность подключения к сети Internet. Более того, проводятся активные исследования возможности использования в вычислениях графических процессоров (GPU) видеокарт. О планах по запуску клиента для GPU уже объявлено руководством проекта Folding@Home уже запущено в 2007 году. Это позволит не только расширить область применения публичных распределенных вычислений, но и значительно увеличит емкость ее вычислительного потенциала.


Но вернемся к истории Distributed Computing - времени выхода распределенных вычислений на широкую арену.


После успешного окончания проекта Ленстра-Менеса в ходу были проекты различных математических исследований. В 1993 г. участники одного из таких проектов факторизовали число длиной 129, потом 130 знаков. Затем пошла мода на поиск простых чисел (т.е. делящихся только на единицу и на самих себя), новых чисел Серпинского, Мерсенна и пр. в том же духе. Эти проекты не отличались ни технической проработанностью, ни размахом, ни большим количеством участников. Но так продолжалось не долго.


28 января 1997 г. стартовал конкурс RSA Data Security на решение задачи взлома 56-битного ключа RC5-32/12/7 методом простого перебора. Благодаря хорошей технической и организационной подготовке проект быстро получил невиданную до этого известность, привлек внимание мировой общественности к распределенным вычислениям и заложил основы последующих проектов Distributed Computing. Этот и последовавшие за ним проекты и конкурсы подобного рода (RC5-64, RC5-72, OGR и др.) организованы при активном участии Джеффа Лоусона и основанного им некоммерческого объединения distributed.net, которому удалось разработать наиболее совершенное программное обеспечение под математические задачи, решаемые с помощью Distributed Computing. В проектах distributed.net RC5-72 и OGR участвуют сильные украинские команды.


13 мая 1999 г. Дэвид Гиди и Крэйг Кэснов запустили проект поиска сигналов внеземных цивилизаций SETI@Home (SETI - Search for Extraterrestrial Intelligence), который стал наиболее массовым проектом распределенных вычислений всех времен. Огромной популярности (более 5 млн. участников) способствовало то, что проект впервые переложил на рельсы Distributed Computing интригующую научную задачу далекую от скучной факторизации или взлома очередного ключа. Оглушительный успех проекта (в плане привлеченных вычислительных мощностей) убедил ученых активнее использовать незадействованный потенциал компьютеров рядовых пользователей всемирной паутины во многих областях научных исследований.


1 октября 2000 г. под руководством Виждая Панде, основателя академического учреждения Pande Group при Стенфордском университете, стартовал проект Folding@Home. Благодаря четким практическим целям, хорошему научному основанию и реальным результатам проект получил массовую поддержку (более полумиллиона участников за все время работы проекта) и серьезные вычислительные ресурсы (более 200 тысяч процессоров, постоянно или временно подключенные сейчас к проекту).


Наконец, в 2004 году командой во главе с Дэвидом Андерсоном, возглавляющим также SETI@home, из Space Sciences Laboratory Калифорнийского университета в Беркли был разработан BOINC ( Berkeley Open Infrastructure for Network Computing — открытая программная платформа (университета) Беркли для распределённых вычислений) — некоммерческое межплатформенное программное обеспечение для организации распределённых вычислений. Первоначально BOINC разрабатывался для крупнейшего проекта распределённых вычислений — SETI@home, но впоследствии разработчики сделали платформу доступной для сторонних проектов. На сегодняшний день BOINC является универсальной платформой для проектов в области математики, молекулярной биологии, медицины, астрономии, физики, химии, климатологии и искусственного интелекта.


BOINC даёт исследователям возможность задействовать огромные вычислительные мощности персональных компьютеров со всего мира. На 7 апреля 2008 BOINC являл собой распределённую сеть из более чем 565000 активных компьютеров со средней производительностью, равной 1 PFLOPS (1 квадриллион операций с плавающей запятой в секунду). Платформа работает на различных операционных системах, включая Microsoft Windows и варианты юниксоподобных GNU/Linux, FreeBSD, NetBSD, OpenBSD, Solaris и Mac OS X.


Сейчас ведутся успешные работы по использованию в вычислениях графических процессоров (GPU) видеокарт, обладающих гораздо большей вычислительной мощностью, чем центральный процессор компьютера. Это позволит не только расширить область применения публичных распределенных вычислений, но и значительно увеличит емкость ее вычислительного потенциала.


P. S. По крайней мере этот текст примерный и если найдете какие-нибудь ошибки то пишите исправлю. По крайней мере из нескольких мной вариантов истории развития РВ эта более приемлемая. Ну и малость подредактирована в плане того, что убрал вроде всё о командах. По крайней мере выношу данную историю на форум для того, что бы она была вами всеми рассмотрена и по возможности, что-нибудь добавить, убрать и подредактировать.

История распределённых вычислений.
Показать полностью 1
История Распределенные вычисления Компьютер Seti Boinc Длиннопост
0
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии