Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Онлайн-РПГ в формате коллекционной карточной игры. Собери свою уникальную колоду из фэнтезийных героев и брось вызов игрокам другим в дуэлях и масштабных битвах на арене!

Повелители стихий

Карточные, Мидкорные, Ролевые

Играть

Топ прошлой недели

  • cristall75 cristall75 6 постов
  • 1506DyDyKa 1506DyDyKa 2 поста
  • Animalrescueed Animalrescueed 35 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
441
Vselenziaurum
Vselenziaurum
Осознание собственного сознания — необходимое условие качественного познания реальности.
Будущее - рядом
Серия NooTech

D-Wave заявила о квантовом превосходстве: новая эра вычислений или маркетинговый ход?⁠⁠

3 месяца назад
D-Wave заявила о квантовом превосходстве: новая эра вычислений или маркетинговый ход?

Канадская компания D-Wave Systems объявила о достижении «квантового превосходства» на практически значимой задаче. Их новейший квантовый компьютер Advantage2 смог за считанные минуты выполнить сложную симуляцию магнитного материала — задачу, которая, по оценкам, заняла бы у самых мощных классических суперкомпьютеров миллионы лет.

Прорыв был достигнут при моделировании поведения так называемого «спинового стекла» — экзотического магнитного состояния вещества. Эта задача имеет прямое отношение к разработке новых материалов, созданию лекарств и оптимизации сложных систем. Используя метод квантового отжига, процессор D-Wave с более чем 5000 кубитов смог найти решение, точность которого недоступна для классических алгоритмов при таком масштабе. По расчетам исследователей, для достижения аналогичного результата суперкомпьютеру Frontier потребовалась бы энергия, превышающая годовое мировое потребление.

Редакция канала считает, что оценка времени для классических компьютеров преувеличена, и с помощью более совершенных алгоритмов они могли бы справиться с задачей быстрее. Квантовый отжиг — это специализированный метод, который подходит не для всех типов вычислений, в отличие от универсальных квантовых компьютеров, разработкой которых занимаются Google и IBM.

Тем не менее, это событие является важной вехой в развитии квантовых технологий. Впервые продемонстрировано, что квантовое устройство способно не просто конкурировать, а превосходить лучшие классические системы при решении реальной, а не сугубо академической проблемы. Это открывает путь к практическому применению квантовых вычислений в науке и промышленности уже в ближайшие годы.

Показать полностью
[моё] Квант Компьютер Технологии Прорыв Наука Симуляция Превосходство Физика Вычисления Инновации Будущее Материал Открытие Ученые
133
193
Vselenziaurum
Vselenziaurum
Наука | Научпоп
Серия NooTech

Прорыв к отказоустойчивым квантовым компьютерам: учёные впервые очистили магические состояния⁠⁠

3 месяца назад
Визуализация открытия.

Визуализация открытия.

Команда учёных из компании QuEra Computing, Гарварда и MIT объявила о прорыве на пути к созданию мощных и отказоустойчивых квантовых компьютеров. Впервые в истории им удалось экспериментально провести «дистилляцию магических состояний» — ключевой процесс для выполнения сложных вычислений — на основе защищённых от ошибок логических кубитов.

Для выполнения любых, а не только базовых, задач квантовому компьютеру необходимы специальные ресурсы — так называемые «магические состояния». Однако их создание подвержено ошибкам. Продемонстрированный учёными процесс дистилляции, или «очистки», решает эту проблему: он позволяет из нескольких несовершенных, «шумных» состояний получить одно — высокого качества, с минимальным уровнем ошибок. Это открывает дорогу к универсальным квантовым вычислениям.

Главная новизна эксперимента заключается в том, что дистилляция впервые проведена не на обычных, физических кубитах, а на логических. Логический кубит — это система из нескольких физических кубитов, которая способна самостоятельно обнаруживать и исправлять ошибки. Успешно реализовав протокол на своём квантовом компьютере Gemini, исследователи доказали, что вся цепочка — от защиты информации до создания ресурсов для сложных вычислений — может работать как единый отказоустойчивый механизм.

Это достижение устраняет один из ключевых барьеров на пути к масштабированию квантовых систем. Оно на практике подтверждает жизнеспособность теоретических концепций, разработанных два десятилетия назад, и доказывает, что создание мощных и одновременно надёжных квантовых компьютеров является достижимой инженерной задачей. Прорыв приближает эру, когда квантовые вычисления смогут решать практические задачи, недоступные классическим суперкомпьютерам.

Показать полностью 1
[моё] Квант Компьютер Вычисления Технологии Наука Прорыв Физика Mit Гарвард Кубит Ошибка Алгоритм Природа Будущее Научпоп
58
hitasu
hitasu
СловоТвор

ВЫЧИСЛИТЕЛЬ⁠⁠

5 месяцев назад
ВЫЧИСЛИТЕЛЬ
Компьютер Вычисления ЭВМ Этимология
51
Photonprocessor
Photonprocessor

Процессор из плазмы?⁠⁠

11 месяцев назад
Процессор из плазмы?

Недавно думая о квантовых компьютерах начал интересоваться аналоговыми компьютерами.

И вариантов есть много и радиация и ионы и гравитация и много чего еще. Но мне показалось плазма в теории может быть интересным вариантом?

Потенциал плазмы

Высокая скорость: Плазма, представляющая собой ионизированный газ, способна обрабатывать информацию с чрезвычайно высокой скоростью благодаря высокой подвижности электронов и ионов.

Параллельность: Вычисления в плазме могут осуществляться параллельно во множестве точек, что позволяет значительно ускорить обработку данных.

Масштабируемость: Плазменные вычисления потенциально могут быть масштабированы до очень больших размеров, создавая мощные суперкомпьютеры.

Новые парадигмы вычислений: Плазма может открыть новые пути для решения сложных задач, таких как моделирование физических процессов и искусственный интеллект.

Рассмотрим несколько перспективных технологий, которые могли бы стать основой для плазменного процессора:

Плазменные осцилляторы:

Принцип работы: Используют колебания электронов в плазме для выполнения вычислений.

Преимущества: Высокая скорость, возможность параллельной обработки.

Применение: Могут использоваться для реализации логических операций и хранения данных.

Плазменные волноводы:

Принцип работы: Используют распространение электромагнитных волн в плазме для передачи информации.

Преимущества: Высокая скорость передачи данных, возможность создания сложных нейронных сетей.

Применение: Могут использоваться для связи между различными элементами плазменного компьютера.

Плазменные кристаллы:

Принцип работы: Изучают упорядоченные структуры, возникающие в плазме под воздействием электрических полей.

Преимущества: Высокая плотность хранения информации, возможность создания энергоэффективных устройств.

Применение: Могут использоваться для создания долговременной памяти.

Плазменные диоды и транзисторы:

Принцип работы: Аналогичны полупроводниковым приборам, но используют плазму в качестве рабочего тела.

Преимущества: Высокая скорость переключения, возможность работы при высоких температурах.

Применение: Могут использоваться для создания логических элементов и усилителей.

Думаю вы понимаете что он не будет похож на обычный компьютер и обычные программы на нем наверно запустить не получиться?

Показать полностью
Инженер Физика Технологии Компьютер Процессор Плазма Наука Изобретения Инновации Компьютерное железо Развитие Техника Программа IT Вычисления Математика Алгоритм Информатика Теория
16
11
TechSavvyZone
TechSavvyZone
Про железо
Серия Немного истории

Закон Амдала⁠⁠

1 год назад

Родился 16 ноября 1922 года в городе Фландро, штат Южная Дакота, а умер 10 ноября 2015 года в городе Пало-Альто, Калифрния, немного не дотянув до 93 лет. Он был главным конструктором и разработчиком легендарных компьютеров – IBM 704, 709, 7030, 7090 и архитектором компьютерного семейства третьего поколения IBM System360. После уйдя из IBM организовал собственную фирму Amdahl Corp. которую называли Красным Гигантом или BIG RED, где в 1975 году создали первый в мире компьютер Amdahl 470 V/6 целиком построенный на БМК, обратите внимание, что старик Сеймур Крей в то время свой CRAY-1 на рассыпухе голимой, используя только элементы 5 ИЛИ/ИЛИ-НЕ сделал. SIC! Прочувствовайте разницу в уровне технологии! Создание семейства IBM/360 оказало огромное влияние на весь ход развития истории. Структуру и архитектуру этих вычислительных машин воспроизвели в многих странах.

IBM1401 часто использовали как принт сервер с его машинами

IBM1401 часто использовали как принт сервер с его машинами

Нужно обратить внимание на благотворное влияние агрессивной армии США в его судьбе, ибо он поступил в колледж штата Южная Дакота (будущий университет Южная Дакота) осенью 1941 года и учился здесь до весны 1943 года, когда посреди учебы был отправлен изучать физику и электронику по специальной учебной программе армии США, чем занимался с середины 1944 года по 1946 год, вернувшись в свой колледж получил степень бакалавра как инженер-физик спустя два года. Но не остановился на этом.

В Висконсинском университете в 1950 году он получил задание от своего профессора сообразить на троих вместе с двумя другими выпускниками: может ли внутриядерная сила частиц отразить предельное состояние между тремя простейшими ядерными частицами. В течение месяца Амдал и два его товарища по несчастью работали с арифмометром и логарифмической линейкой, чтобы получить всего две наиболее значимых цифры, и вычислить самый низкий энергетический уровень для любой величины параметров. Они были в печали, когда обнаружили, что существует почти предельное состояние, но не само предельное состояние. Короче говоря, предполагаемая внутриядерная сила не могла адекватно отразить состояние ядра атома. Тогда не зная сомнений Джин Амдал решил построить компьютер для коротких расчетов который он собрал, и был он назван Wisconsin Integrally Synchronized Computer— WISC (Висконсинский интегрально синхронизированный компьютер). Его докторская диссертация была отчетом о разработке этого компьютера.

В феврале 1952 года он получил степень доктора философии по теоретической физике в Висконсинском университете и в июне того же года устроился работать в IBM, где сначала работал над проектированием машин для распознавания символов. Когда Джин перешёл на завод IBM в Поукипси, в штате Нью-Йорк, где делали IBM 701 широко известный в агресивной армии США и близких к ней структурам под именем Defense Calculator. В ноябре 1953 года Амдал назначается главным проектантом компьютера IBM 704, который в основном использовался в мирных целях. Это был первый компьютер, на котором был реализован первый, в общечеловеческом смысле слова, язык программирования высокого уровня FORTRAN. После Джин Амдал становится главным разработчиком следующей машины — IBM 709. Компьютер IBM 709 в архитектурном плане приближался к машинам второго и третьего поколения. В этой машине впервые была применена косвенная адресация и впервые появились каналы ввода-вывода. IBM 709 позже был переведён с ламп на транзисторы и стал называться IBM 7090.

Из-за разногласий с руководством Голубого гиганта во время его работы над Stretch Амдал уходит из IBM. С 1956 года он работает в фирмах Thomson Ramo Wooldridge и Aeronutronic Systems, но в 1960 году возвращается в исследовательский центр IBM в Йорктаун-Хайте, штат Нью-Йорк, где становится директором отдела экспериментальных вычислительных машин, и руководит работами по созданию ставшей легендарной серии System 360. В начале апреля 1964 года фирма IBM объявила о выпуске шести моделей 30, 40, 50, 60, 62, 70 своего семейства IBM System 360. Кроме них к началу продаж IBM выпустила ещё 19 новых систем памяти и 26 устройств ввода-вывода совместимых между собой в рамках этой единой системы. IBM System 360 — это первое семейство, в котором было применено микропрограммирование, что сделало эти различные машины совместимыми между собой. За 6 лет до конца 60-х IBM выпустила более 33 тысяч таких машин.

О время работы над проектом System 360 он написал свою основополагающую статью “Новые концепции в разработке вычислительных систем”, в которой декларировал:

— развитие техники программирования и компилирования для увеличения эффективности и гибкости вычислительных устройств;

— повышение быстродействия вычислительных машин с целью увеличения производительности и снижения стоимости выполняемых операций;

— мультипрограммирование (разделение во времени) и мультиобработка (разделение вычислений) для увеличения количества одновременно используемого оборудования вычислительной системы;

— развитие системы обмена результатами вычислений для большей гибкости в составе и размещении устройств вычислительной системы.

В феврале 1965 года стал членом научного общества IBM, где ему было разрешено заниматься следующие 5 лет любыми проектами, которые ему понравятся. Там он стал директором лаборатории перспективных компьютерных систем в Менло-Парк. В 1969 году Амдал и руководство IBM поссорились из-за стратегии по созданию мейнфреймов. В IBM устанавливали цены на свою технику, исходя из её производительности, а не из затрат на производство, поэтому любое предложение по созданию большого компьютера в компании отклоняли, поскольку его высокая цена исходя из такой ценовой политики сократит рынок, и не оправдает затрат на разработку. Он попросил о встрече с руководителями IBM. “Они изобразили графически на доске, почему IBM была права, что компьютер, который я хочу построить, обойдется им очень дорого”. System 360, которую разработал Амдал, хорошо продавалась, и IBM не имело причин вмешиваться в сбыт. “В основном, я ушел из IBM во второй раз, потому что я хотел работать с большими компьютерами. В случае если бы я остался в IBM, я должен был изменить свою карьеру, не получая личного удовлетворения от работы”.

Летом 1970 года в IBM узнали, что некая компания Compata разработала мини-компьютер, что являлось со стороны Амдала нарушением закона IBM о столкновении интересов. Когда позже разобрались, что данная фирма Compata не имеет ничего общего с фирмой отца Амдала и тоже называвшейся Compata, перед ним извинились, но настаивали на его уходе из Compata. (извените за тавталогию с Compata) В это время Compata переживала финансовые трудности и благородный Джин чувствовал, что должен помочь своему бате. Поэтому он решил уйти из IBM и основать свою собственную фирму Amdahl Corp. Дабы не плодить лишних кривотолков. В октябре 1970 года, Амдал решил создать мэйнфреймы, совместимые по разъемам с IBM, чтобы они могли работать с оборудованием и системами, созданными другими изготовителями. И так появился на свет Big Red. На всех машинах Амдала стоял красивый красный знак “Amdahl”, вместо голубого полосатого, и в течение 15 лет мэйнфреймы его компании были совместимыми по разъемам и софту с компьютерами IBM. Нет сомнений в том, что он хотел этим красным словом что-нибудь сказать голубым гигантам. А чего ещё можно ожидать от человека, фамилия которого происходит от имени великого норвежского троля?

Фрагмент платы AMDAHL (12 Мб), первой в мире машины на БМК

Фрагмент платы AMDAHL (12 Мб), первой в мире машины на БМК

С конца 1971 года Джин Амдал приступил к проектированию и разработке своего первого семейства Amdahl 470. Amdahl 470 V/6 появилась в середине 1975 года и это был первый в мире компьютер четвертого поколения, построенный полностью на БИС и заказных БИС на основе БМК, его производительность была 5,4 млн. операций в секунду, она достигалась за счёт конвейерной обработки команд. Исполнение команд разбивалось на 12 стадий, каждая новая команда выбиралась через два такта длительностью 64 нc, до шести команд одновременно могли находиться в различных стадиях конвейера в случае его бесконфликтной работы.

Оцените баланс цена/производительность, которой удалось найти Амдалу, хоть в его конструкции использовали десятки заказных БИС, и их монтировали на 14 слойные печатные платы по 42 штуки, машина работала с воздушным охлаждением, и была много дешевле CRAY-1, который был собран на обычных ИС по 144 штуки на 5 слойных платах и требовал охлаждения фреоном. Применение в Amdahl 470 V/6 быстродействующей биполярной кэш-памяти емкостью 16 Кбайт сокращало время обращения к основной памяти 8 Мбайт собранной на более медленных МОП микросхемах позволило построить достаточно быструю, более ёмкую и дешёвую систему по сравнению с IBM или CRAY-1 которая увидела свет в следующем году. Этот компьютер Amdahl 470 V/6 имел в 2 раза большую производительность, в 2 раза большую емкость памяти и занимал в 3 раза меньшую площадь чем самый мощный — IBM 370/168 у IBM в то время, и великолепно с ним конкурировал. К весне 1977 года фирма Amdahl Corp. установила полсотни этих компьютеров, ещё понизила цену на 470 V/6 и сделали две новые машины 470 V/5 и 470 V/7, которые были совместимыми с IBM 370/168 и IBM 3033, но были на треть быстрее оных и дешевле при этом.

В ответ на это IBM убедила покупателей, что ее новые мэйнфреймы будут дешевле, чем у любых конкурентов. Fear, uncertainty, and doubt (страх, неуверенность, сомнение) – FUD этот новый акроним в технику ввёл Амдал описывая действия голубых гигантов в отношении своих потенциальных заказчиков. И после этого был логичный шаг в схватке бегемотов, Амдал потерял контроль над Amdahl Corp. продав большую часть своих акций японской фирме Fujitsu. Назвав себя BIG не всегда как правило получается стать настоящим гигантом.

В августе 1980 Амдал основал новое предприятие Trilogy Systems. Её основателями стали трое: Джин Амдал, его сын Карлтон (бывший главный проектировщик Magnuson Computer) и бывший финансист Амдала Клиффорд Мэден, отсюда и логичное название. После этого он попал в больницу, и там разрабатывал проект СБИС для своей новой машины, но к зиме 1983—1984 года, стало ясно, что с оценкой параметров будущего суперкомпьютера Акела Амдал промахнулся, и ему пришлось расстаться с грандиозными планами завоевания рынка. Как следствие весной 1985 года Trilogy приняла решение слиться с Elxsi и пойти по пути нашего МЭП, делать машины совместимые с VAX-11. Новый компьютер от Амдала был мощнее VAX-11, совместим с ним на программном уровне, но стоил дороже родного VAXa. Народ этого не понял, раньше было быстрее и дешевле, а тут ...

В конце концов, фирма Trilogy обанкротилась, a Elxsi стала заниматься ресторанным бизнесом и превратилась в холдинговую компанию.

С 1987 года Амдал работал в фирме Andor System, производящей системы промежуточного уровня, но в 1994 году она также обанкротилась.

В 1994 году Джин Амдал вошёл в совет директоров компании Commercial Data Servers (CDS). Первой разработкой CDS стал небольшой мэйнфрейм CDS 104 с производительностью 7 млн. операций в секунду. Заниматься железом они закончили в 1997 создав ESP/490 с которым конкурировали с IBM System/390. Сейчас эта компания известна как Xbridge Systems и занимается очень серьёзным софтом для работы с базами даных на мейнфреймах. В 2005 году он покинул руководство этой компании.

В ноябре 2004 Амдал был назначен в совет консультантов компании Massively Parallel Technologies про которую ничего к сожалению рассказать не могу. Вскоре после этого к нему в дом пришёл наглый старик Альцгеймер, который каждый день стал привносить в жизнь заслуженного человека много нового и интересного, но не смотря на свою заслуженную дурную славу последнею точку в жизни Джина Амдала поставила банальная пневмония, а не этот наглый старик Альцгеймер.

PS Продолжает действовать выведенный им еще в конце 60-х годов XX века закон – закон Амдала, и как минимум думаю он сможет пережить память большинства легендарных машин созданных этим великим человеком.

ЗАКОН АМДАЛА

Ускорение, которое может быть получено на вычислительной системе из p процессоров при доле последовательных вычислений – α , по сравнению с однопроцессорным решением не будет превышать величины

Из таблицы видно, что только алгоритм, вовсе не содержащий последовательных вычислений (α = 0), позволяет получить линейный прирост производительности с ростом количества вычислителей в системе. Если доля последовательных вычислений в алгоритме равна 25 %, то увеличение числа процессоров до 10 дает ускорение в 3,077 раза (эффективность 30,77 %), а увеличение числа процессоров до 1000 даст ускорение в 3,988 раза (эффективность 0,4 %). Отсюда же очевидно, что при доле последовательных вычислений α общий прирост производительности не может превысить 1 / α. Так, если половина кода — последовательная, то общий прирост никогда не превысит двух.

Достижение параллелизма возможно только при выполнимости следующих требований:

  • независимость функционирования отдельных устройств ЭВМ (устройства ввода-вывода, обрабатывающие процессоры и устройства памяти),

  • избыточность элементов вычислительной системы

  • использование специализированных устройств (например, отдельные процессоры для целочисленной и вещественной арифметики, устройства многоуровневой памяти),

  • дублирование устройств ЭВМ (например, использование нескольких однотипных обрабатывающих процессоров или нескольких устройств оперативной памяти),

Дополнительная форма обеспечения параллелизма - конвейерная реализация обрабатывающих устройств

Необходимость параллельных вычислений:

  • Опережение потребности вычислений быстродействия существующих компьютерных систем

  • Моделирование климата

  • Генная инженерия

  • Проектирование интегральных схем

  • Анализ загрязнения окружающей среды

  • Создание лекарственных препаратов и др.

Оценка необходимой производительности – 1012 операций (1 Tflops)

  • Теоретическая ограниченность роста производительности последовательных компьютеров

  • Резкое снижение стоимости многопроцессорных (параллельных) вычислительных систем

    • ПК на базе четырехядерного процессора Intel Core 2 Quad – 20 GFlops ($1500),

    • Персональный мини-кластер T-Edge Mini на базе четырехядерных процессоров Intel Xeon – 240 GFlops ($20000)

  • Смена парадигмы построения высокопроизводительных процессоров - многоядерность

  • Принятие обоснованных решений практически в любой сфере человеческой деятельности с необходимостью предполагает проведение расширенного математического моделирования с тщательным исследованием возможных вариантов деятельности с помощью вычислительных экспериментов

  • При этом, появление столь радикально возросших возможностей суперкомпьютерных технологий позволяет разрабатывать углубленные математические модели, максимально точно описывающих объекты реального мира, и требующие для своего анализа проведения масштабных вычислений.

Показать полностью 8
Технологии IT Вычисления Процессор Ученые Наука Компьютер Изобретения Стартап Инновации IBM История развития Инженер Кластер Сервер Длиннопост
0
8
WhiteHats
WhiteHats
Top 1%

Кислотные вычисленияПочему не получились ДНК-компьютеры⁠⁠

3 года назад

Скорый кризис транзисторных процессоров в начале 1990-х казался неизбежным. И пока в одних лабораториях альтернативу искали, проектируя квантовые алгоритмы и экспериментируя с кубитами, в других — двигали компьютеры на биомолекулах. В 1994 году практически одновременно ученые собрали первый квантовый вентиль и решили первую задачу с помощью ДНК. Но к тому, чтобы двигаться дальше, одни «альтернативные айтишники» были готовы лучше, чем другие. Проектировать квантовые компьютеры начали задолго до появления кубита. Еще в 60-х теоретики занялись квантовой информатикой, а к 80-м уже думали о квантовых алгоритмах, возможном устройстве логических вентилей на кубитах, а экспериментаторы собирали разнообразные прототипы кубитов. А над теорией ДНК-вычислений никто специально не работал. Там сразу начали решать конкретные вычислительные задачи.


К концу XX века биохимики научились проводить с молекулами ДНК уже довольно много процедур. Считывать с них информацию, расплетать двойную цепочку, сплетать обратно, добавлять к последовательности новые нуклеотиды, заменять один нуклеотид на другой, резать цепочку в нужном месте и сшивать. На транзисторы классических компьютеров, равно как на кубиты квантовых и их логику, вся эта биохимия непохожа. Но не видеть вычислительного потенциала в таком «натуральном» способе работы с информацией ученые не могли.

Леонард Адлеман и задача коммивояжера


В последовательности химических реакций можно разглядеть логическую схему. На входе одно вещество, на выходе — другое. Или несколько, но в определенном соотношении. Поэтому если правильно подобрать реакции, то строение и количество получившихся молекул может кодировать решение какой-то задачи.


Первым, кто понял, что имеющихся у биологов инструментов уже хватает для вычислений, стал математик Леонард Адлеман, один из создателей системы шифрования RSA (Rivest — Shamir — Adleman). Познакомившись в начале 1990-х с миром ДНК, ученый, по его собственным словам, «отчетливо увидел» аналогию между нуклеиновой логикой и транзисторной логикой компьютерных процессоров — и уже в 1994 году опубликовал статью об эксперименте, в котором нуклеиновые кислоты решили задачу о гамильтоновом цикле на графе.


Это частный случай NP-полной задачи коммивояжера (о полиномиальных и неполиномиальных задачах мы говорили в материале «Удаленное доказательство»). В задаче коммивояжера определенное количество точек на карте надо соединить самой короткой траекторией, ни одну из них при этом не пропустив. В задаче поиска гамильтонова пути надо просто доказать, что траектория, которая соединяет все точки и проходит через каждую ровно один раз, существует. Вычислитель Адлемана искал решение для графа с семью узлами.

В этом ДНК-вычислителе каждому из узлов графа соответствовала случайная молекула из 20 нуклеотидов. Соответственно, ребра графа, то есть соединения узлов, складывались из двух половинок: первые десять звеньев — 3′-хвост молекулы одного узла, а вторые десять — 5′-хвост второй. Ребра таким образом становились векторами: i→j-последовательность нуклеотидов отличалась от j→i-последовательности. Это и нужно для того, чтобы синтезировать непрерывные траектории, последовательно идущие через узлы графа.


Биопроцессор Адлемана использовал ДНК в качестве носителя информации, а для операций над ней — полимеразу и лигазу, которые, соответственно, синтезировали новые цепочки нуклеиновых кислот и сшивали их друг за другом.


Расчеты, которые сам Адлеман в уме производил за минуту, у его компьютера заняли неделю. Это был успех — наивный эксперимент продемонстрировал принципы ДНК-вычислений. Работа стала основополагающей для всего направления «дезоксирибонуклеинового IT» и следующие несколько лет вдохновленные примером Адлемана ученые строили аналогичные ДНК-схемы для решения похожих комбинаторных задач.


Оценки показывали, что если правильно спроектировать эксперимент и минимизировать потери времени на лабораторные процедуры, то для решения NP-полных задач компьютер на ДНК может оказаться эффективнее классической машины. Компьютер Адлемана проводил больше тысячи операций с производительностью 100 терафлопс — классические компьютеры достигли таких показателей только к 2005 году.


Квантовые машины в те времена ничего решать не умели, так что даже компьютерами называться не могли. И ДНК-вычислители, несмотря на отсутствие теоретической базы (которая у квантовых как раз была), оказались на несколько шагов впереди. Их архитектура позволяла проводить огромное число параллельных вычислений в виде одновременных реакций молекул друг с другом. Оставалось найти под такие возможности подходящие задачи.

Логические вентили


Эстафету у Адлемана принял информатик-теоретик Ричард Липтон. В 1995 году он приспособил еще одну NP-полную задачу для вычисления в пробирке. В его эксперименте перед нуклеиновыми кислотами ставился вопрос о выполнимости булевых формул — нужно было доказать, что формулу, в которой есть только булевые переменные (то есть которые могут принимать значение 0 или 1), скобки и операторы И, ИЛИ и НЕ, можно выполнить. То есть найти набор значений, при которых формула оказывается верной.


Эта задача отличается от задачи с графом, которую решал вычислитель Адлемана. Но Липтон не придумал ничего нового в архитектуре ДНК-процессора. Вместо инженерной задачи он решил чисто математическую — как свести задачу выполнимости к задаче на графе. Так что никаких принципиальных модификаций в оригинальный ДНК-вычислитель вносить не пришлось.


Классическая машина решает задачу о выполнимости булевой формулы с n переменными, просто перебирая по очереди 2n ее вариантов на истинность. Алгоритм Липтона делает ровно то же самое, никакого процедурного ускорения в нем нет: ДНК-процессор справляется быстрее просто потому, что распараллеливает этот перебор.


В 1996 году нуклеотидный процессор научили складывать двоичные числа. В 1997 — он решил задачу поиска в графе максимальной клики — то есть такого набора вершин графа, в котором все со всеми попарно соединены. В 2001 году Эхуд Шапиро, еще один классик теории программирования, запатентовал полноценную машину Тьюринга, основанную на ДНК-вычислениях с помощью ферментов. Построена она на тех же принципах, которые развивали Адлеман, Липтон и другие энтузиасты.

Перспектива проводить параллельные ДНК-вычисления сразу на триллионах или даже квадриллионах молекул вселила в ученых надежду на решение NP-полных задач, слишком тяжеловесных для последовательных вычислений на классическом компьютере.


Все задачи, которые к тому моменту решили нуклеиновые кислоты, брались из классической информатики. Поэтому и ставились перед нуклеотидами на языке двоичной логики — и решались, соответственно, на нем же. Хотя, как и для квантовых вычислений, двоичная система для ДНК-платформы не очень естественна: в молекулах ДНК четыре разных нуклеотида, а не два.


Но полноценно возможности четверичной нуклеотидной логики в этих схемах не использовались. Если проблему перевода информации из двоичного кода в четверичный в контексте ДНК вскоре изучили довольно подробно, то вопрос о том, как из четверичных элементов строить логические вентили, оставался совсем мало проработанным. Молекулы были способом представления битов. Много молекул с нужной структурой — единица, мало — ноль.

Разочарование


Скептические комментарии по поводу будущего ДНК-платформ зазвучали еще в 1994 году, сразу после выхода статьи Адлемана. И во многом были справедливы. К 2000 году проблем с ДНК-процессорами накопилось достаточно много, чтобы перспективы нуклеотидных вычислителей перестали казаться радужными. Их можно разделить на четыре группы.


Физические ограничения. Адлеман решил задачу поиска гамильтонова цикла на семи узлах за неделю в нескольких пробирках. Чтобы решить такую же задачу хотя бы на двух десятках узлов, по расчетам, нужны уже килограммы ДНК. А универсальному вычислителю для решения комбинаторных задач, по некоторым оценкам, нужно еще почти на 50 порядков больше олигонуклеотидов — примерно 1070 молекул.


Область применения. Физические ограничения сужают и горизонт возможностей молекулярных машин: задачи, которыми изначально планировали их загружать, вероятнее всего, для них неподъемны. Так, дешифрование данных, закодированных по классическим протоколам, — задача, которую сейчас хотят решать на квантовых вычислителях, — для ДНК не под силу. На взлом 256-байтного ключа будет нужно 10^1233 цепочек ДНК — и компьютер объемом примерно 10^1216 литров. Это примерно 10^1199 Каспийских морей. Стало понятно, что вместо прямого переноса известных задач для нуклеиновых кислот надо искать другие.

Накопление ошибок. О том, что ошибки могут заглушить всю процедуру вычислений, беспокоился еще Липтон — в своей пионерской статье он назвал их основной проблемой на пути к созданию полноценного ДНК-компьютера. Годы спустя эти вычислители так и остались очень плохо масштабируемыми. 99-процентная точность, которая для одной операции кажется более чем приемлемой, для сотни последовательных действий становится уже меньше 40 процентов.


Неуниверсальность. Каждая из предложенных схем ДНК-процессора в лучшем случае была машиной Тьюринга, собранной под одну конкретную логическую задачу. В каждой есть определенный набор элементов, определенный протокол действий, они не ограничены во входной информации — и способны уверенно решать конкретную логическую задачу. Но только ее.


В то же самое время забуксовали и квантовые соперники ДНК-вычислителей. В конце 90-х лидерами квантовой гонки были компьютеры, которые производили вычисления с опорой на ядерно-магнитный резонанс. А в итоге столкнулись примерно с теми же проблемами. В 2001 году на ядерных спинах собрали схемы для выполнения алгоритма Шора сразу из семи кубитов — значительно больше, чем у всех альтернативных квантовых платформ. Но дальнейшее масштабирование оказалось невозможным из-за слишком высокого уровня шума. Сейчас о квантовых вычислителях на ядерно-магнитном резонансе вспоминают лишь как об историческом казусе — весь дальнейший прогресс связан с системами, которые в начале века сильно отставали.

В итоге об универсальных ДНК-компьютерах в начале 2000-х говорить перестали, а теоретики компьютерных наук постепенно переключились на другие задачи. Адлеман выпустил в XXI веке всего несколько статей про ДНК-вычисления и самосборку биомолекул в компьютерном контексте, Ричард Липтон сфокусировался на чисто математических и компьютерных исследованиях, а Эхуд Шапиро, хотя и продолжил выпускать статьи по «живой» логике, со временем переключился с ДНК на другие био-логические элементы — клетки.

Параллельные ошибки


Область, несмотря на общий пессимизм, не зачахла. Но фокус исследований сместился. В вычислениях на молекулах оставалось слишком много ошибок, и все еще оставалось непонятно, как их масштабировать и универсализировать. Поэтому на место математиков пришли биохимики, молекулярные биологи и биоинформатики, которые вместо того, чтобы работать над базовыми принципами логических схем ДНК-вычислителя, занялись усовершенствованием молекулярного инструментария.


В частности, для решения некоторых комбинаторных задач стали активнее использовать прикрепление олигонуклеотидов к подложке. Это позволило упростить масштабирование логических схем: после логической операции нужные олигонуклеотиды остаются пришитыми к твердой поверхности и их можно использовать дальше, а лишнее просто вылить вместе с раствором. А негибридизованные одноцепочечные молекулы (то есть тоже лишние) отдать на съедение экзонуклеазам кишечной палочки.


Впрочем, полностью избавиться от ошибок таким образом не удалось. Больше пяти процентов лишних цепочек оставались на поверхности после нескольких циклов очистки. Поэтому главная проблема, присущая ДНК-вычислителям, оставалась нерешенной.

Другие ошибки, мутационные, также продолжали накапливаться в ходе многостадийных вычислений. Бороться с ними ученые предлагали двумя способами: либо всеми возможными способами предотвращать их, либо брать работающие с ошибками схемы и устранять в них последствия этих ошибок.


Для сокращения их числа пытались подбирать оптимальную скорость реакций, управляя температурой и концентрацией реагентов, или, например, отсеивать олигонуклеотиды с ошибками. Эти варианты, впрочем, также не были универсальными, а придумывались под конкретные задачи и сильно зависели от процедуры и от платформы, на которой работает вычислитель (а к тому времени типов ДНК-процессоров было уже не меньше пяти).


Исправлять мутационные ошибки предлагали либо на этапе работы с ДНК, либо при секвенировании, либо во время обработки информации уже в цифровом виде. В отдельных случаях справляться с последствиями естественных мутаций и паразитного сигнала удавалось довольно успешно, но и придумать универсальные методы так и не удалось: для каждой конкретной задачи приходилось разрабатывать свой способ устранения проблемы.

В поисках более универсального и точного способа считать на ДНК биохимики стали перебирать альтернативы гибридизации, которой пользовались Адлеман и Липтон.


Некоторые ученые отказались от ферментативных реакций. Сначала Милан Стоянович и Дарко Стефанович стали вместо ферментов использовать дезоксирибозимы — олигонуклетиды с функциями ферментов. Например, с помощью дезоксирибозима с функцией рибонуклеазы, способного разрезать молекулы РНК, они сделали вычислитель с 23 последовательными логическими вентилями и научили его играть в крестики-нолики на поле три на три.

Замещая замещением


А затем биохимики придумали логику на каскадах замещения цепи (strand displacement cascades). Эта схема основана на самосборке молекул ДНК и обратимом комплементарном связывании одноцепочечных олигонуклеотидов, и если все пройдет как надо, то пробирка с ДНК начнет светиться. Медиаторы в этой схеме — не ферменты, а другие нуклеотидные последовательности. Рабочий олигонуклеотид, который несет нужную информацию, присоединяется к вспомогательным олигонуклеотидам, которые работают вентилями.


Олигонуклеотид, который попадает в систему в форме ввода, запускает каскад реакций замещения цепи между теми реагентами, уже находящиеся в системе, и передает таким образом сигнал. Конечным шагом этой цепочки реакций становится связывание одной из нуклеиновых кислот с красителем, в результате которого устройство начинает светиться. Ничего резать или копировать в такой схеме не нужно, а значит не нужны и ферменты. Оттого и дополнительные ошибки от работы ферментов в процессе вычислений не возникают.


Такая платформа удовлетворяет базовым критериям архитектуры логической цепи: здесь реализованы логические функции И, ИЛИ и НЕ, они могут выполнять разветвленные и каскадные алгоритмы, имеют блочную структуру и могут восстанавливать сигнал. Это уже не однозадачная машина Тьюринга. А в 2011 году ученые еще и показали, как эту схему можно масштабировать, добавив в нее «качельные» (toehold) вентили, которые за счет обратимой реакции замещения цепи в нужный момент переносят статус «активного» с одного олигонуклеотида на другой. И если до этого начальное состояние вычислителя включало не больше 12 разных молекул ДНК, то за счет модификации это число увеличилось до 74. Таким образом удалось значительно увеличить производительность вычислителя: схема, в которой суммарно на разных стадиях было 130 разных олигонуклетодов, могла уже считать квадратные корни четырехзначных двоичных чисел.

Нейросеть из ДНК сделали в том же 2011 году на базе уже существующих логических вентилей в каскаде замещения. Она извлекала нули и единицы из концентрации олигонуклеотидов с определенной последовательностью: выше порога 1, ниже — 0. По мнению авторов, эта нейросеть должна была в результате производить реагенты для последующих биохимических реакций. Но конструкция оказалась слишком громоздкой и сложной, поэтому серьезного развития эта идея не получила. По данным Google Scholar, у этой работы почти тысяча цитирований, но в большинстве из них она упоминается как красивая работа с необычным подходом. Вернулись к идее нейросетей из ДНК только на фоне ажиотажа уже в конце 2010-х, но не для логических задач: использовать нуклеиновые нейросети сейчас предлагают для распознавания молекул или диагностики болезней.

Но на фоне этих успехов число энтузиастов ДНК-вычислений продолжало неумолимо сокращаться. Никаких значительных прорывов ни в бесферментных, ни в гибридизационных вычислениях не произошло. После 2010 года цитировать классические статьи Адлемана и Липтона в научной периодике стали все меньше и меньше.

Сейчас одни ученые продолжают совершенствовать качельную логику и каскадные схемы, другие вернулись к идее использования ферментов, третьи объединяют эти подходы. Например в 2019 году биохимики собрали из полимеразы и нескольких ДНК-вентилей единый арифметический элемент и частично решили проблему сборки интегральных схем. А другие научили свой процессор считать квадратные корни из 900.


Но судя по количеству публикаций, от прежнего воодушевления уже ничего не осталось. Несмотря на отдельные успехи, вычислительные возможности логических элементов из ДНК так и остаются крайне ограниченными, и никаких чудес от технологии никто не ждет. Она просто продолжает тихо развиваться как независимая логическая платформа.


Подходящие информационные задачи всё же нашлись
Нуклеиновые кислоты остаются очень эффективным способом кодирования информации — на элементах сразу с четырьмя возможными значениями: А, Т, Г и Ц. Поэтому вместо того, чтобы строить на ДНК компьютеры, молекулярный биолог Джордж Черч предложил использовать их в качестве носителя информации. В простейшей схеме каждой паре двоичных чисел — 00, 01, 10, 11 — сопоставляется один нуклеотид. Одно только это дает возможность сократить запись в два раза, а если перейти к кодированию информации в четверичной системе счисления — по числу различных нуклеотидов — то паковать данные можно будет еще плотнее. Пока что чаще используется промежуточный вариант: двоичный код переводят в ДНК с помощью системы кодирования, используя троичную систему счисления.
Молекулы нуклеиновых кислот, если их не перегревать, очень устойчивы. Поэтому если не давать им участвовать ни в каких реакциях, случайных ошибок в них не возникнет. Переносить данные с полупроводниковых носителей на нуклеотидные и обратно можно практически со стопроцентной точностью — в 2016 году на ДНК записали 200 мегабайт данных, а в 2018-м Massive Attack переиздала свой альбом Mezzanine в виде пробирки с ДНК.

Биологика


Все вычислительные задачи для ДНК за тридцатилетнюю историю так и не вышли толком за пределы бинарификации последовательности биохимических реакций. Несмотря на обилие технических ухищрений, широкий арсенал операций и внушительную информационную емкость носителя, логика задач, предлагаемых нуклеиновым кислотам, сводилась к двоичной, а сигнал — к бинарному выводу, много ли в итоговой смеси нужных молекул (1) или мало (0).


Квантовые компьютеры благодаря суперпозиции не только расширили возможности двоичной логики просто за счет того, что не нужно перебирать огромное число вариантов, а еще и предложили принципиально новые алгоритмы. С ДНК ученые фактически просто ускорили этот перебор за счет параллельных вычислений.


Помимо этого, квантовые процессоры используют не только для того, чтобы сконструировать универсальный вычислитель. Сегодня они в первую очередь занимаются тем, что транзисторам дается с трудом: например моделированием квантовых систем и решением оптимизационных задач. Аналогичную нишу искали и для ДНК-процессоров.


Логика ДНК строится на химических реакциях, поэтому и применять ее логично не где-то для алгебраических вычислений, а где-то в области химии. А с учетом того, что базовая вычислительная логика молекулам ДНК тоже уже доступна, можно использовать их как промежуточное звено между цифровым интерфейсом и молекулами-участниками химической реакции и управлять таким образом молекулярными машинами и нанороботам.


Например, с помощью той же самой схемы каскадного замещения биохимики научились управлять белковыми нанороботами. На выходе в ДНК-логической цепи получаются аптамеры, небольшие олигонуклеотидные молекулы, которые связываются с целевыми белками и управляют ими. Из небольших олигонуклеотидных молекул делают программируемые химические контроллеры, «ДНК-роботов» используют для сортировки молекул, для управления роем микротрубочек или биороботами.


Когда в 90-е годы «информатики-теоретики» в предвкушении кризиса полупроводниковых компьютеров стали искать новые платформы для вычислений, они решали свои, вполне конкретные, проблемы, а не придумывали задачу для нового инструмента. Реальность же оказалась немного иной. Современные квантовые компьютеры, которые удается интегрировать с классическими, конечно, помогают и в вычислениях. С задачами оптимизации квантовые компьютеры справляются увереннее классических (подробнее об этом читайте в тексте «Разминка для кубита»). И пользу от квантовых компьютеров извлекают физики, а не информатики, — моделируя на них квантовые системы.


Решение вычислительных задач на биомолекулярных компьютерах выглядит еще более неуклюжим, чем на квантовых. И их будущее — скорее за молекулярными роботами и системами биохимического контроля. За биомолекулярным превосходством тоже охотятся, но уже на более высоком уровне. Например, в синтетической биологии в качестве вычислительных элементов биомолекулярных компьютеров предлагают использовать искусственные клетки, а возможность на них решать более сложные задачи называют «клеточным превосходством». Это значительно более сложные системы: на молекулы ДНК здесь ложится информационная нагрузка, а за логику отвечают клетки. Но и они нужны далеко не за тем, чтобы что-то считать.


Собрать из нуклеиновых кислот суперкомпьютер мы не смогли. Зато научились использовать то, что они совершенно точно делают очень хорошо. Возможно и впредь, вместо того, чтобы переучивать кого-то, стоит внимательнее изучить их возможности — и потребности.

Источник

Показать полностью 4
IT Будущее Изобретения ДНК Компьютер Вычисления Хранение данных Длиннопост
1
1
Programma.Boinc
Programma.Boinc

Применение распределенных вычислений в астрономии⁠⁠

8 лет назад

Применение распределенных вычислений в астрономии


В настоящее время астрономия активно развивается не только благодаря использованию

прямых наблюдений в разных диапазонах электромагнитного спектра. Многие объекты и процессы непосредственно зафиксировать бывает довольно затруднительно. Поэтому используются различные методы косвенного обнаружения и исследования на основании имеющихся данных. И тут без анализа больших объёмов информации не обойтись. В таких случаях на помощь приходят распределённые вычисления, суть которых состоит в том, что объёмная вычислительная задача делится на множество небольших заданий, которые раздаются на компьютеры пользователей через интернет, вычисления производятся локально, после чего готовые результаты отправляются обратно на сервер научного центра.


История применения распределённых вычислений в области астрономии начинается с 17

мая 1999 года, когда был запущен знаменитый проект SETI@Home, который занимается поиском сигналов внеземных цивилизаций. Основатели проекта – Д. Геди и К. Кэснов из лаборатории космических исследований Калифорнийского университета в Беркли. На радиотелескопе обсерватории Аресибо (Пуэрто-Рико) записывается космический шум. Любой пользователь, подключенный к сети интернет, может установить на свой компьютер программу-клиент для проекта SETI@Home. Эта программа скачивает через интернет с серверов проекта небольшую порцию данных, записанных с радиотелескопа, и в течение нескольких часов обрабатывает их. Обработка заключается в попытке выделить из космического (и техногенного) шума сигналы, возможно принадлежащие внеземным цивилизациям.


Следующим большим шагом в истории развития распределённых вычислений стал момент, когда разработчики из того же самого университета


Беркли решили создать для своего проекта SETI@Home программную платформу BOINC. А после появления универсальной версии этой платформы, вслед за SETI@Home на её основе возникло множество проектов распределённых вычислений из различных областей науки. Да и сам проект SETI@Home за несколько лет значительно видоизменился. Постоянно совершенствуется и оптимизируется счётный модуль. Основная работа по совершенствованию счётного модуля велась в направлении, чтобы счётный модуль смог игнорировать помехи и сигналы земного происхождения.


В 2008 году помимо основного приложения, которое анализирует данные в диапазоне частоты 1420 МГц, было запущено ещё и новое, дополнительное приложение Astropulse, которое в рамках этого же проекта изучает данные в значительно более широком диапазоне частот. До середины 2011 года проект SETI@Home анализировал данные, просто записанные радиотелескопом с различных участков неба. Однако с середины 2011 года проект начал исследовать звёздные системы, где были открыты экзопланеты.


Для исследований были выбраны 86 планет, ранее обнаруженных космическим телескопом Kepler. Из множества открытых экзопланет, для исследований были отобраны именно те 86, температура поверхности которых от 0 до 100 градусов, т.е.

подразумевает наличие воды в жидкой фазе. Таким образом, поиски в SETI@Home стали более целенаправленными.


Наконец, в проекте SETI@Home, помимо счётных приложений для центрального процессора, были созданы и запущены в работу приложения, использующие для счёта графические процессоры видеокарт NVidia и ATI. У современных видеокарт имеются десятки и даже сотни графических процессоров и разработаны библиотеки (CUDA, OpenCL), позволяющие задействовать их не для обработки графических изображений, а для параллельных математических вычислений. Приложения для видеокарт в проекте распределённых вычислений SETI@Home предоставляют возможность в десятки раз ускорить выполнение задания по анализу сигнала, записанного с радиотелескопа.


До сих пор в мире проект SETI@Home остаётся одним из самых популярных среди всех (не только астрономических) проектов добровольных распределённых вычислений. К концу июня 2014 года в проекте приняло участие свыше 1,4 миллиона человек со всего мира, было подключено свыше 3,6 миллионов компьютеров. В начале 2012 года, после того, как полгода производился анализ сигналов из звёздных систем, где есть экзопланеты, было обнаружено несколько подозрительных сигналов, однако пока нет точной уверенности, что они произведены именно внеземным разумом, а не являются земными помехами. Телескоп Kepler открывает по многу экзопланет в день, поэтому вероятность обнаружения внеземных цивилизаций все же пока остается весьма низкой.


Но рассмотрим и другие проекты распределённых вычислений, ведущие исследования

в области астрономии. Вторым по популярности среди пользователей является проект Einstein@Home (см. рисунок в начале статьи). Этот проект был запущен в 2005 году. Проект координируется Университетом Висконсина-Милуоки (Милуоки, США) и Институтом гравитационной физики имени Макса Планка (Ганновер, Германия). В проекте поставлено несколько задач. Ведётся обработка данных, поступающих сразу из нескольких обсерваторий. Данные, идущие с двух интерферометров обсерватории LIGO (Лазерно-интерферометрической гравитационно-волновой обсерватории) и интерферометра GEO600 анализируются проектом с целью проверки гипотезы Эйнштейна о существовании гравитационных волн. С 2009 года в рамках проекта начался поиск радиопульсаров. Для решения этой задачи анализируются данные, полученные с радиотелескопа обсерватории Аресибо (Пуэрто-Рико) и радиотелескопа обсерватории Паркс, которая находится в Австралии. Открывшему пульсар в Einstein@Home высылается именной сертификат в рамочке от руководителя проекта Брюса Аллена. К настоящему времени (август 2017 года) проектом обнаружено 54 новых радиопульсаров (1 в 2010 году, 15 в 2011, 30 в 2012, 1 в 2013, 1 в 2014 и 5 в 2015 году).


Также в рамках этого проекта производится поиск гамма-пульсаров, для чего анализируются данные, полученные в гамма-обсерватории Fermi. При анализе данных с гамма-телескопа GLAST за 4 прошедших года были открыты 18 гамма-пульсаров.


Две другие активные задачи этого проекта в настоящее время являются поиск гравитационных волн от направления, соответствующего сверхновой Кассиопея A и подробное исследование рукава Персея на предмет поиска радиопульсаров. Прочитать подробнее о проекте и ознакомиться с его открытиями Вы можете на странице


http://ru.wikipedia.org/wiki/Einstein@Home.


Совсем недавно, летом 2012 года, в Международном центре радиоастрономических


исследований (The International Centre for Radio Astronomy Research) стартовал новый проект the SkyNet POGS. Цель этого проекта – создать многоволновый атлас ближайшей Вселенной в ультрафиолетовом, оптическом и инфракрасном диапазонах. Для этого на компьютерах добровольцев обрабатываются данные, полученные с трёх разных телескопов (GALEX – орбитальный космический телескоп, работающий в ультрафиолетовом диапазоне; система оптических телескопов PanSTARRS1; инфракрасный космический телескоп WISE). Проектом изучаются такие физические параметры, как звёздная масса галактик, поглощение излучения пылью, масса пылевой компоненты, скорость образования звёзд. Адрес, который нужно ввести в BOINC для подключения к проекту the SkyNet POGS следующий: http://pogs.theskynet.org/pogs/ Также интересно отметить, что программа-планетарий Stellarium может показать пользователю все галактики, которые были обработаны на его компьютерах.


Также недавно теми же разработчиками, что и theSkyNet POGS, был запущен новый проект theSkyNet Sourcefinder https://sourcefinder.theskynet.org/duchamp/ . Он занимается моделированием поиска расположения радиоисточников в определённом заданном кубе

данных. Пока проект находится в стадии тестирования (на смоделированных данных

тестируется счётное приложение), но в будущем этот проект будет вести уже анализ реальных полученных данных. Однако этот проект для расчётов помимо BOINC использует ещё и виртуальную машину Oracle VirtualBOX, а, следовательно, очень требователен к оперативной памяти компьютера и потребляет большой Интернет-трафик.


Также недавно был запущен новый проект Asteroids@Home. Его цель – определение формы, параметров вращения и направление оси вращения астероидов по данным фотометрических наблюдений. Проект обрабатывает данные из Центра малых планет (MPC). Уже получены первые научные результаты, которые опубликованы на странице проектаhttp://asteroidsathome.net/scientific_results.html. Чтобы присоединиться к проекту Asteroids@home, в BOINC нужно ввести адрес: http://asteroidsathome.net/boinc/ .


В начале января 2014 года в проектеAsteroids@Home помимо счётного приложения для

центрального процессора было выпущено счётное приложение, которое не использует центральный процессор, а считает только на видеокартах NVidia.


Это приложение во много раз позволяет ускорить время расчёта одного задания.


Помимо основных проектов распределённых вычислений есть также вспомогательные, тестовые проекты. Это два проекта – SETI@Home Beta (адрес для подключения: http://setiweb.ssl.berkeley.edu/beta/) и Albert@Home (адрес для подключения: http://albert.phys.uwm.edu/). Они не занимаются научными расчётами, а ведут расчёты только для теста новых программных счётных модулей, недавно разработанных. Соответственно, SETI@Home Beta тестирует новые счётные модули для основного проекта SETI@Home, а проект Albert@Home занимается тестом новых счётных модулей для проекта Einstein@Home. Однако участие пользователей в этих двух проектах также очень важно и интересно. Ведь чем быстрее будут протестированы и отлажены новые счётные модули в тестовом проекте, тем быстрее они будут выпущены в основной проект, и тем быстрее он будет продвигаться. Поэтому сейчас присоединиться к счёту проектов SETI@Home Beta и особенно Albert@Home может быть также интересно для многих пользователей, желающих внести вклад в развитие астрономии с помощью распределённых вычислений. Также из области астрономии существует проект Orbit@home, который изучает траектории движения всех малых тел, проходящих рядом с Землёй. В 2008 году проектом смоделировано падение астероида 2008 TC3 на теневую сторону Земли. Однако в настоящее время проект временно приостановлен. Но его в ближайшем будущем всё же планируют запустить снова. Следите за новостями на сайте проекта http://orbit.psi.edu/ и сайтах статистики распределённых вычислений (например,http://boincstats.com/ ), когда он будет снова запущен и какой будет его новый адрес.


Принять участие в проектах распределённых вычислений может каждый. Для этого достаточно иметь современный компьютер и постоянное подключение к Интернету (желательно по безлимитному тарифу, поскольку, например, проекты Albert@Home и Einstein@Home потребляют достаточно большой трафик для загрузки данных для

анализа). На компьютер нужно установить программную оболочку BOINC, которую можно загрузить с официального сайта по ссылке

http://solidstate.karelia.ru/~yura/pyldin/yura/ekrans2/boinc... приведена иллюстрация процесса установки программы BOINC, она достаточно проста и сложностей не вызывает. После подключения к проекту можно зайти в созданный аккаунт на его сайте и выбрать настройки, такие, как например, получать ли задания для видеокарты или только для

центрального процессора и другие.


Помимо астрономических проектов можно также подключить в BOINC и поддержать несколько отечественных российских проектов, ведущих исследования в других областях науки, например: Acoustics@home http://www.acousticsathome.ru/boinc/ - проект для решения обратных задач в подводной акустике. SAT@home http://sat.isa.ru/pdsat/ - различные задачи в области математики. XANSONS for COD http://xansons4cod.com/xansons4cod/ - проект из области материаловедения. Все заинтересовавшиеся могут получить ответы и поддержку на многих русскоязычных сайтах и форумах, посвящённых распределённым вычислениям. Основная мотивация к участию в проектах распределённых вычислений – это помощь науке, стремление принять участие в научных исследованиях, тем более что в данном случае от пользователя практически ничего не требуется (задания на компьютере выполняются в фоновом режиме на низком приоритете и поэтому незаметно для пользователя). Кому-то может быть будет даже интересно посоревноваться в количестве выполненных заданий с другими участниками или командами. Но основное – это привлечь практически неиспользуемый во время набора текста или использования интернета процессор и видеокарту на решение многих интересных научных задач в области астрономии.

Показать полностью
Наука Вычисления Россия Астрономия Компьютер Длиннопост Текст
5
Programma.Boinc
Programma.Boinc

World Community Grid: сеть распределенных вычислений⁠⁠

8 лет назад

World Community Grid: сеть распределенных вычислений


Задумывались ли Вы когда-нибудь о том, как Вы можете внести свой персональный вклад в борьбу с онкологическими заболеваниями, СПИДом или малярией?


Корпорация IBM предоставляет Grid-технологии для проведения глобальных исследовательских проектов!


World Community Grid


World Community Grid – это глобальное сообщество пользователей ПК, которые предоставляют неиспользуемое время своих вычислительных систем для реализации глобальных исследовательских инициатив (борьбе со СПИдом и онкологическими заболеваниями, моделированию и прогнозированию природных явлений и др.).

Т.е. grid-вычисления – это технология, сводящая вычислительные ресурсы тысяч и миллионов отдельных компьютеров в гигантскую единую «виртуальную» систему с огромной вычислительной мощью.


Глобальный гуманитарный проект World Community Grid запущен IBM в 2004 году при поддержке крупнейших исследовательских центров мира. ИТ-ресурсы World Community Grid позволяют проанализировать за один день такое количество данных, обработка которых на обычном компьютере заняла бы около 130 лет.


На сегодняшний день по всему миру в сети WCG насчитывается 604 494 пользователей, задействовавших 2 175 094 ПК. Общее время вычислений – 661 296 лет.

Для участия в проектах достаточно зарегистрироваться на сайте и загрузить бесплатную программу.

В инфраструктуру World Community Grid могут быть подключены компьютеры, работающие на ОС Windows, Mac и Linux.

После регистрации участник выбирает проект, для которого он хочет предоставить свои компьютерные ресурсы. Проекты отбираются независимым Экспертным советом, в который входят ведущие ученые разных стран.


Присоединившись к сети, пользователь получает на свой компьютер отдельное вычислительное задание (проект разделяется специалистами IBM на миллионы подзадач). Выполнив задание, ПК передает результаты вычислений на сервер и получает новое задание. Вычисления выполняются лишь тогда, когда компьютер не задействован (таким образом участие в проекте не мешает выполнению основных задач). Результаты вычислений, отправленные на сервер, автоматически соединяются с результатами других заданий, и формируют общий результат.


Ниже описание нескольких проектов, в которых можно принять участие.


Computing for clean water/ Вычисления ради чистой воды


Цель проекта заключается в исследовании молекулярных механизмов прохождения воды через углеродные нанотрубки, которые могут стать недорогой и эффективной заменой «начинки» современных фильтров для очистки воды.


Во всем мире более 1,2 млрд. людей не имеют доступа к чистой питьевой воде, а 2,6 млрд. не имеют в жилищах канализации. В результате этих проблем ежегодно расстаются с жизнью миллионы людей. Проблема усугубляется относительной дороговизной технологий фильтрации загрязненной воды, особенно для социально незащищенных слоев населения. Опреснение морской воды — еще менее доступная вещь, хотя потенциально способная решить проблему с питьевой водой во многих регионах.


На мощностях WCG планируется провести всестороннее молекулярное моделирование динамики движения и взаимодействия молекул воды с нанотрубками.


Компьютерное моделирование поможет, в частности, внести ясность в вопрос о необычном поведении молекул воды при контакте с нанотрубками, когда вода начинает вести себя как лед. Разобравшись с этой проблемой, можно добиться минимального сопротивления молекул воды при прохождении через нанотрубки и другие нанопористые материалы, и, таким образом, — увеличить скорость очистки воды.


Discovering Dengue Drugs – Together/ Поиск лекарств от лихорадки


Проект призван обнаружить потенциальные лекарственные соединения, которые блокируют размножение в организме человека вирусов семейства Flaviviridae. К ним относятся вирусы, вызывающие такие опасные заболевания, как лихорадка Денге, желтая лихорадка, лихорадка Западного Нила, гепатит С и пр.

Около 40% населения Земли проживают в регионах, где высока вероятность заразиться одним из перечисленных вирусов. К сожалению, эффективных препаратов для лечения этих заболеваний не существует, а паллиативная терапия обходится слишком дорого и при этом способна лишь ненамного снизить показатели летальности среди больных.


В рамках проекта Discovering Dengue Drugs – Together ученые делают ставку на поиск ингибиторов вирусной протеазы NS3.


В августе 2009 года закончилась первая фаза проекта. Вычисления проводились с помощью специализированной программы для молекулярного докинга – AutoDock, разработанной доктором Олсоном и его сотрудниками из Научно-исследовательского института Скриппса.


В ходе вычислений было произведено моделирование взаимодействия с протеазой NS3 около 3 млн потенциально эффективных малых молекул, из которых было отобрано несколько тысяч самых перспективных. Но, к сожалению, 90-95% соединений оказались неэффективными в лабораторных условиях.

На второй фазе проекта Discovering Dengue Drugs – Together планируется отсеять ложноположительные соединения, найденные в первой фазе, с помощью еще одной программы для молекулярного докинга – CHARMM, разработанной Мартином Карплюсом и его сотрудниками в Гарварде.


Help Conquer Cancer


Миссия проекта заключается в том, чтобы улучшить результаты исследований белков методом рентгеновской кристаллографии (X-ray Crystallography), что поможет исследователям понять, как образуется рак, как он развивается, и как на него можно повлиять.

Для того чтобы существенным образом повлиять на понимание рака и на его лечение, нужно не только открыть новые терапевтические подходы, нацеленные на исследование метастаз (процесс распространения рака на другие органы тела), но и найти некие маркеры или структурные метки, с помощью которых можно было бы провести раннюю диагностику.


Во время изучения многих форм рака, исследователи смогли сделать несколько открытий, имея ограниченное представление об участвующих в образовании рака белках. Но для того, чтобы глубже понять и найти более эффективные способы лечения, необходимо исследовать все вовлеченные в процесс белки, их структуру и функции.

С помощью рентгеновской кристаллографии исследователи смогут получить более точные данные о структуре этих белков. Это должно привести к более глубокому пониманию функций ракообразующих белков, и позволит найти потенциальные лекарства от смертельной болезни.


В проекте обрабатывается более 105 млн. изображений.


С подробной информацией по всем проектам можно познакомиться на сайте World Community Grid.

Глобальное сотрудничество и партнерство


IBM ставит задачу расширения сети World Community Grid путем привлечения новых участников из разных стран.


В России на данный момент насчитывается 3 603 участника, задействовавших 21 717 компьютеров. Общее время вычислений – 5 656 лет.


Помимо новых участников IBM ищет исследовательские проекты из России для предоставления grid-технологий.


Предпочтение отдается проектам, связанным с изучением и охраной окружающей среды. Это может быть моделирование стихийных явлений, природных катастроф, изменений климата, оценка запасов природных ресурсов, охрана и восстановление ландшафтов и т.д. Критерии для отбора проектов – научная значимость, глобальный характер проблемы и возможность разделить задачу на множество подзадач.


Исследователи, заинтересованные в использовании ресурсов WCG для выполнения своих проектов, могут получить консультацию по адресу: info@ru.ibm.com. Заявки на участие в проекте оформляются на сайте World Community Grid.


По самым скромным оценкам проектам в среднем необходимо 184 тысячи лет процессорного времени, а если брать по максимуму – в 10-100 раз больше.


Но сколько бы в итоге ни понадобилось вычислительных ресурсов, можно с уверенностью сказать — не поставлена еще такая задача, с которой бы не справилась многомиллионная добровольческая армия владельцев персональных компьютеров, жертвующих свои кровные гигагерцы и киловатты во имя науки :)


Желаете поучаствовать? Тогда подключайтесь к World Community Grid, чтобы сделать мир чуточку лучше!


http://www.boinc.ru

http://forum.boinc.ru/default.aspx?g=mytopics

http://boinc.berkeley.edu/download.php

http://www.boinc.ru/doc/boinc/boinc_setup.htm

Показать полностью
Россия Компьютер Вычисления Наука Длиннопост Текст
14
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии