Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Бесплатная браузерная игра «Слаймы Атакуют: Головоломка!» в жанре головоломка. Подходит для мальчиков и девочек, доступна без регистрации, на русском языке

Слаймы Атакуют: Головоломка!

Казуальные, Головоломки, Аркады

Играть

Топ прошлой недели

  • AlexKud AlexKud 35 постов
  • Animalrescueed Animalrescueed 52 поста
  • Webstrannik1 Webstrannik1 50 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
57
PalHal
PalHal
8 лет назад

Дата-центр ВКонтакте⁠⁠

Вещаю от лица ВКонтакте.



Все знают, что сердце ВКонтакте — дом Зингера на Невском проспекте. Сегодня мы расскажем и покажем, где находится и как выглядит его мозг — дата-центр ИЦВА.

Как построить дата-центр?

ЦОД (центр хранения и обработки данных, он же дата-центр) — это совокупность нескольких инфраструктурных систем, которые обеспечивают надёжность и отказоустойчивость работы серверного и сетевого оборудования.


Нельзя просто поставить кучу серверов и коммутаторов. Нужно создать и поддерживать оптимальные условия для их работы. Если Вы хотите построить свой ЦОД, Вам потребуются:


• Система электроснабжения. Тут всё ясно — серверы работают на электричестве, и их много. Стало быть, обычной розетки на 220В, скорее всего, будет маловато.

• Система охлаждения. Даже игровая видеокарта в продвинутом компьютере требует мощного кулера. Что уж говорить о сотнях и тысячах высокопроизводительных устройств.

• Структурированная кабельная система (СКС). Что-то должно соединять все элементы в единое целое. Вам потребуется очень много кабелей и пылкая любовь к процессу их педантичной укладки.


Это основные системы «жизнеобеспечения», самый минимум, который нужен, чтобы просто запустить оборудование. Но для настоящего полноценного дата-центра нужно кое-что ещё. А именно:


• Система пожаротушения. Важно позаботиться о том, чтобы случайная искра не превратила Ваш новенький ЦОД в руины.

• Система мониторинга. Вы должны вовремя узнать, если что-то пошло не так.

• Система контроля и управления доступом (СКУД). Не стоит оставлять двери открытыми для всех желающих.

• Охранная сигнализация. На случай, если вместо пропуска кто-то решит использовать лом.

• Система видеонаблюдения.


Добро пожаловать в ИЦВА

Почему ИЦВА, что за название такое? ИЦВА — это исследовательский центр высоковольтного аппаратостроения, который раньше находился в здании дата-центра и работал на благо энергетической промышленности. В наследство нам достались антиутопического вида ангары с потолками на уровне пятого этажа и загадочные помещения со стенами толщиной в метр.


В четырёх машинных залах размещены 640 стоек — это более 20000 серверов и более 200 коммутаторов, роутеры и DWDM-системы ёмкостью свыше 4 Тбит/c. Здесь установлен роутер ASR9000 с серийным номером 1 — в своё время это была первая коммерческая установка такого устройства во всём мире.


В пике дата-центр генерирует более 1 Тбит/c внешнего трафика. К нашим DWDM-системам подключены более 10 крупнейших международных провайдеров и международных центров обмена трафиком, а также около 40 крупных операторов РФ.

Первый машинный зал. Возможно, именно здесь лежит Ваше любимое видео.

Электроснабжение

Все элементы системы электроснабжения резервируются как минимум N+1.

Буквально напротив здания дата-центра находится подстанция «Восточная», от которой питание подаётся в ЦОД по двум вводам 6кВ. Далее через распределительную подстанцию и автоматический ввод резерва питание подаётся по двум независимым вводам. Вот как это выглядит на схеме (для простоты — с одним машинным залом из четырёх):

Схема электропитания в штатном режиме

Каждый узел дублируется и в норме работает под половинной нагрузкой. В случае аварии питание дойдёт до машинного зала в обход вышедшего из строя участка. Например, мы потеряли один 6кВ ввод:

Схема электропитания при аварии на вводе

Если всё совсем плохо и на вводы от магистральной сети рассчитывать не приходится, в дело вступают источники бесперебойного питания. Их задача — обеспечить питание машинных залов на то недолгое время, пока запускаются дизель-генераторные установки.

Источники бесперебойного питания
А это аккумуляторы для них — внешне очень похожи на автомобильные…
...только занимают несколько больших помещений

Дизель-генераторные установки (ДГУ) поддерживают жизнь в дата-центре в случае затяжной аварии или плановых работ в системе электроснабжения. Кроме топливных баков в самих ДГУ установлена автоматическая контейнерная заправочная станция большой ёмкости. Топливо из резервуара подаётся автоматически во все ДГУ, запас рассчитан минимум на сутки. В случае необходимости бензовоз с дизельным топливом прибудет в течение двух часов.

Дизель-генераторные установки

Каждый сервер и каждый коммутатор подключены к двум вводам питания. Как правило, в современном оборудовании такая возможность предусмотрена производителем. Для серверов с одним вводом питание дублируется с помощью вот такого устройства:

Статический переключатель нагрузки + ручной байпас Digital Energy

(прим. ред. Байпас – это режим питания нагрузки сетевым напряжением в обход основной схемы системы бесперебойного питания (СБП). Например, в обход ИБП, стабилизатора или дизель-генератора. Часто байпасом называют саму обходную защитную линию (цепь) и её сопутствующие коммутационные устройства).

Система охлаждения

Для комфортной жизни оборудования в машинных залах нужно поддерживать определённый температурный диапазон. Вот почему компании по всему миру всё чаще строят свои ЦОДы где-нибудь неподалеку от полярного круга — в таких условиях можно использовать наружный воздух для охлаждения серверов. Это называется «фрикулинг», и такой подход по праву считается самым энергоэффективным (зачем тратить энергию на охлаждение тёплого воздуха, если можно сразу взять холодный?).


У нас фрикулинг тоже используется, правда, с некоторыми оговорками. Несмотря на легендарную питерскую прохладу, летом температура воздуха всё-таки иногда поднимается выше заветных 20-25°, и его приходится дополнительно охлаждать. В зимний период, напротив, воздух слишком холодный, чтобы его можно было сразу использовать. Кроме того, что серверы могут просто переохладиться, изменение температуры приведёт к сдвигу точки росы — а конденсат такому оборудованию противопоказан. Вдобавок, воздух при такой схеме попадает с улицы, а значит, его нужно дополнительно очищать.


Фрикулинг используется в одном машинном зале из четырёх, в остальных система охлаждения работает по классической схеме с использованием прецизионных кондиционеров.

Внутренние блоки прецизионных кондиционеров
Внешние блоки прецизионных кондиционеров

Холодный воздух из камеры смешения или кондиционера через фальшпол или воздуховод подаётся в так называемый «холодный коридор». Это изолированное пространство между лицевыми сторонами двух рядов стоек. Вот такое:

Холодный коридор машинного зала

С обратной стороны отработанный нагретый воздух попадает в «горячий коридор» — а оттуда отправляется обратно на охлаждение фреоном во внутренние блоки кондиционеров. Так достигается циркуляция чистого (без пыли) воздуха в машинном зале.

Горячий коридор машинного зала

Структурированная кабельная система

Километры бережно уложенных проводов. Здесь не нужны слова.

Система пожаротушения

В нашем ЦОДе предусмотрена система газового пожаротушения. Собственно газ (хладон) хранится под давлением в баллонах. В случае пожара по сигналу с датчика в машинном зале клапан будет приведён в действие, и газ по трубам устремится к источнику возгорания.

Баллоны с хладоном
Манометр

Мониторинг

Все показатели здоровья дата-центра отслеживаются в режиме реального времени. Это температура (с датчиков оборудования и внутри помещений), электроснабжение, нагрузка на сетевое оборудование — данные выводятся на дисплеи дежурных и контролируются автоматикой. Если что-то пошло не так, система мониторинга сама пришлёт инженерам сообщение о проблеме (ВКонтакте и по СМС).

Мониторинг электроснабжения

Мониторинг системы охлаждения

Система контроля доступа и охрана

На территорию могут попасть только сотрудники, любая дверь снабжена электронным замком со считывателем карты доступа. ИЦВА охраняется в режиме 24/7, в каждом помещении ведётся видеонаблюдение.


Подведём итоги

ИЦВА имеет очень удачное расположение: всего в нескольких километрах от родного города ВКонтакте и рядом с надёжным источником электроэнергии.


Здесь непрерывно продолжается процесс модернизации оборудования и повышения энергоэффективности. PUE (Power Usage Effectiveness), или коэффициент эффективности использования электроэнергии — ключевой показатель оценки ЦОД. Он считается как соотношение всей энергии, потребляемой дата-центром, и фактического потребления серверов и сетевого оборудования. Как ясно из этого определения, PUE идеального дата-центра в вакууме равен 1.0. ИЦВА — не идеальный дата-центр в вакууме, но мы планомерно работаем над снижением этого показателя.


Команда сотрудников ИЦВА и сетевых инженеров ВКонтакте делает всё, чтобы Вы каждый день могли наслаждаться своими любимыми роликами, смотреть новые фотографии друзей и не задумываться о том, какая сложная инфраструктура при этом используется.

Взято отсюда.


Спасибо за внимание!

Показать полностью 20
ВКонтакте Длиннопост Цод Дата-центр
34
7
BADTOUCH
BADTOUCH
8 лет назад

«Мегафон» угрожает повысить цены на связь из-за закона Яровой⁠⁠

«Мегафон» угрожает повысить цены на связь из-за закона Яровой

Финансовый директор «Мегафона» Геворк Вермишян дал интервью «Интерфаксу», в котором рассказал о новой стратегии компании и о том, что «Мегафон» ни в коем случае не собирается интегрироваться с Mail.ru, чей пакет акций они недавно купили. Он рассказал о новой дивидендной политике и осветил другие вопросы. Но самое интересное он рассказал, когда его спросили об оценке затрат на реализацию «закона Яровой».


Финансовый директор сказал, что внедрение дополнительной инфраструктуры для соответствия требованиям законодательству «однозначно повлияет на тарифы».


Насколько сильно повысятся цены — зависит от технических условий и точных расчётов затрат. Сейчас компания занимается такими расчётами.


Геворк Вермишян сказал, что в «законе Яровой» по-прежнему много неопределённостей. Самое главное, что до сих пор не утверждены технические требования, так что точные суммы никто не может назвать.


«Мегафон» обращался к производителям с запросом о наличии технических решений для соответствия требованиям «закона Яровой», но они не могут назвать примерную стоимость реализации, пока не утверждены технические требования. «Вопрос нельзя считать закрытым. В информационном поле была масса субъективных оценок от разных лиц и от разных компаний, но опираться на них нельзя: без окончательных технических условий и схемы реализации закона очень сложно посчитать точную сумму», — сказал Геворк Вермишян.


Но уже сейчас можно назвать несколько последствий того, что операторов заставляют хранить архив трафика своих абонентов.


Во-первых, цены на мобильную связь и на доступ в интернет однозначно вырастут.


Во-вторых, очевидно потенциальное негативное влияние на телеком-отрасль и существенное сокращение количества мелких игроков, которые просто не потянут такие расходы, сказал финансовый директор «Мегафона».


Скорее всего, слежка за гражданами будет оплачена самими гражданами: «В контексте исполнения требований закона мы готовы тратить на безопасность, например, 1% выручки. Если исполнение закона потребует более значительные суммы, то тогда нужно регламентировать размер увеличения тарифов для абонентов», — сказал финансовый директор «Мегафона».


Пакет антитеррористических поправок Яровой и Озерова принят летом 2016 года. Он обязывает российских операторов связи и интернет-провайдеров с июля 2018 года хранить трафик пользователей до шести месяцев. Окончательные параметры хранения — сроки и типы трафика— должно определить правительство, но пока этого не сделано. Минкомсвязи разработало подзаконные акты с параметрами хранения шесть месяцев и 2 Пб на каждый 1 Гбит/с пропускной способности узла связи, но Минэкономразвития дало на них отрицательное заключение.


По оценке Российского союза промышленников и предпринимателей (РСПП), предложения Минкомсвязи по реализации «закона Яровой» увеличивают расходы участников рынка вдвое — до 10 трлн руб. По оценкам РСПП, с 2019 года крупным операторам придётся хранить по 20 эксабайт информации. Это может привести подорожанию услуг связи в несколько раз и повышению уровня инфляции в стране на 1-2 процентных пункта.


Взято с geektimes

Показать полностью
Пакет Яровой Прослушка Хранение данных Дата-центр Мегафон Рост цен Geektimes Длиннопост
19
17
Advantages
8 лет назад

"Апокалипсис" или реклама Apple о мире без приложений⁠⁠

Стоило только выдернуть один шнур в серверной Apple, как жизнь на планете превратилась в хаос...

Apple IT Дата-центр Видео
19
2
PeacePez
PeacePez
8 лет назад

Изменения климата и ЦОД: хорошего мало⁠⁠

Говоря об изменениях климата, ученые часто приводят в пример влияние таких изменений на жизнь целых городов и стран. Эту тему изучают уже много лет, и, конечно, у специалистов есть много информации по этому вопросу. Климатические изменения — очень сложная проблема, которую разделяют на несколько составляющих. Что касается ИТ-сферы, здесь тоже много всего интересного. В частности, можно обсудить не слишком освещаемую тему влияния таких изменений на ЦОД.


А влияние может быть очень сильным. Ведь у любого дата-центра есть собственный микроклимат, который не изменяется годами. Смена каких-то внешних факторов может привести к необходимости модификации инфраструктуры ЦОД либо же уходу оператора дата-центра из региона, где все стало слишком сложно. В ином случае может увеличиться время простоя даже самых надежных ДЦ. А это повлияет, в свою очередь, на доступность IT-услуг, повысит эксплуатационные расходы и вообще отразится на телекоммуникационной сфере не слишком хорошо. Климат постепенно изменяется и сейчас ученые и технические специалисты решили прояснить, что именно может произойти с дата-центрами, работающих в регионах с изменяющимся климатом.


Повышение уровня воды

В ряде регионов Земли уровень воды постепенно поднимается. Это связано, в основном, с потеплением климата, в результате чего тают льды, увеличивается количество осадков в некоторых зонах. Все это может привести к повреждению основных элементов ЦОД, которые размещаются в регионах, подверженных изменениям.


Примеры сказанному уже есть. Например, в прошлом году на северо-востоке Великобритании наблюдались наводнения. Они привели к затоплению большого количества важных элементов инфраструктуры ЦОД в некоторых городах страны. В итоге тысячи пользователей остались без доступа к своим интернет-сервисам. В числе прочих пострадали клиенты компаний T-Mobile, Optus, BT и Vodafone.


Проблемой является еще и возможное смешивание пресных водоносных горизонтов с морской водой. Повышается уровень солености, и такая вода может стать непригодной для использования в дата-центре.


По мнению специалистов, именно наводнения — один из важнейших негативных факторов влияния на работу ЦОД. В таких странах, как Великобритания, Нидерланды, Япония вероятность наводнений будет увеличиваться с течением времени. Единственным вариантом для стран, на которые наступает вода, может быть разработка распределенных платформ, с дублированием критических элементов инфраструктуры. Это поможет нивелировать увеличение количества даунтаймов какое-то время.


Засухи

Проблему представляют не только наводнения, но и отсутствие воды. Длительное отсутствие осадков чревато усадкой грунта, и весьма значительной. А это может привести к разрушению важных элементов инфраструктуры дата-центров. Например, в результате такой усадки могут разрушаться подземные коммуникации, водопроводные трубы, электрические кабеля или газопровод.


Если температура в определенном регионе значительно повысилась и держится некоторое время, это увеличивает расходы ЦОД на охлаждение, плюс увеличивается нагрузка на сами системы. В итоге все может просто выйти из строя, в результате чего дата-центр останавливается.


Как уже говорилось выше, микроклимат дата-центра должен быть стабильным в течение долгого времени. Значительные перепады температур и влажности снаружи дата-центра может приводить к проблемам с оборудованием. Плюс ко всему, если засуха продолжается долго, то в таком регионе может просто не хватать воды, и ЦОД с водной системой охлаждения попадает в сложную ситуацию.


Загрязнение атмосферы

В таких городах, как Лос-Анджелес, Москва, Пекин, Токио оборудование в дата-центрах зачастую изнашивается и выходит из строя гораздо быстрее чем в дата-центрах, расположенных подальше от источников загрязнения атмосферы. Хуже всего то, что подавляющее большинство дата-центров размещаются как раз рядом с мегаполисами. Примеров размещения дата-центров компаний вдали от них немало, но все же это лишь малая толика.


Загрязнение атмосферы может влиять и на здоровье персонала, и на состояние оборудование. Загрязняющие атмосферу вещества — относительно непредвиденный фактор внешнего влияния на оборудование дата-центра.


Ряд химических соединений оказывают разрушающее влияние на электронное оборудование. Речь идет о коррозии, которая может быть незаметной, но в конце концов дает о себе знать. Проблемой могут быть механические повреждения, приводящие к сбоям инфраструктуры.

Современные системы забора воздуха оснащаются фильтрами. Но все же чаще всего атмосферный воздух, забираемый извне, не очищается. Кроме того, внутрь дата-центра загрязненный воздух проникает и другими путями — например, через двери, во время их открытия-закрытия. Наиболее серьезным загрязнителем являются диоксид серы, сероводород и мелкие фракции пыли.


Просто огромная концентрация всего этого есть в Пекине, где власти чуть не каждую неделю объявляют тревогу из-за загрязнения воздуха. Такой воздух разрушает не только электронное оборудование, он провоцирует и ускоряет коррозию элементов стоек, отдельных элементов энергетической инфраструктуры.


Исследования на тему негативного влияния загрязненного промышленными выбросами воздуха на серверное оборудование и дата-центры в целом проводятся уже давно. Одно из наиболее масштабных исследований проведено компанией Intel. Результаты этого исследования — простая констатация факта того, что загрязненный воздух увеличивает скорость износа оборудования в ряде регионов. Более продуктивным можно назвать исследование компании Baidu относительно своих дата-центров, которые расположены в Пекине. Надо сказать, что этой компании нужны ДЦ в этом регионе, но проблем в результате едва ли не больше, чем преимуществ. И Пекин — далеко не единственный мегаполис, где нормальное функционирование ЦОД становится проблемой.


Другие факторы

К ним можно отнести шторма и сильный ветер. В некоторых регионах изменение климата приводит к смене розы ветров, увеличению количества штормов и бурь. Как результат — проложенные над землей силовые и сетевые кабели обрываются.


Ну, а в ряде случаев происходят и вовсе непредвиденные ситуации. К ним можно отнести повреждение телекоммуникационной или энергетической инфраструктуры животными. В США недавно была опубликована интересная статья, согласно которой животные очень часто повреждают энергосети.


Изменение климата приводит к бурному размножению того либо иного вида животных, что может привести к увеличению случаев повреждения энергосетей. Самыми опасными «саботажниками» считаются белки, но на самом деле животных-вредителей гораздо больше.


Понятно, что операторы дата-центров не могут ничего сделать с изменениями климата. Но подготовиться к ним вполне возможно. И если сделать это сильно заранее, то потом не будет мучительно больно.


Хабрахабр

Показать полностью 4 1
Исследования Блог Дата-центр Климат Изменения климата Видео Длиннопост
5
12
v0x0
v0x0
8 лет назад

Как нагреть воду? Построить дата-центр Яндекса⁠⁠

А насколько сильно нагревается ваш компьютер?

Сервер Дата-центр Финляндия Яндекс Видео
9
4
rootie
rootie
8 лет назад

Аварии в дата-центрах, которые было (почти) невозможно предусмотреть⁠⁠

Несмотря на все старания проектировщиков обеспечить дата-центры надежной системой защиты от сбоев и аварийных ситуаций, аварии все же случаются, причем их появлению может предшествовать целая цепочка событий. Это иногда приводит к сбою в самых надежных системах защиты от «неприятностей», и работа ДЦ прекращается


В продолжении — несколько случаев, как давних, так и произошедших совсем недавно, которые показывают, что некоторые ситуации просто невозможно предусмотреть.

Ураган Сэнди: отказ генератора


Когда на всем Западному Побережью США бушевал ураган Сэнди, в этом регионе, практически везде, отключилось электричество (октябрь 2012). Кроме ливня и ураганного ветра, ситуация усугублялась и массами соленой воды, заливающей Манхэттен и многие другие регионы и города.


На 18 этаже высотного здания по 75 Broad Street, Нижний Манхэттен, стояли аварийные генераторы, готовые обеспечить дата-центр Peer 1 электричеством в случае выхода из строя основной системы энергоснабжения. Генераторы начали работать сразу же после того, как соленая вода залила подвалы высотки и ее лобби.


К сожалению, вода вывела из строя еще один критический для всей системы элемент — топливный насос, который подавал горючее наверх. Дело в том, что после 9/11 в Нью-Йорке были введены новые правила хранения топлива в зданиях, хранить дизель, бензин или любое другое топливо на верхних этажах можно было только в ограниченном количестве. Поэтому, как только генераторы на 18-м этаже исчерпали запасы топлива, вся система остановилась, поскольку новое горючее не подавалось.


Вместо того, чтобы остановить систему, команда Peer 1 начала вручную доставлять топливо, поднимая его на 17-й этаж, где размещался бак для топлива. А уже оттуда горючее поднималось на 18-й этаж, к генераторам.


Эта работа продолжалась несколько дней, пока не удалось запустить основную систему энергоснабжения. Стоит отметить, что клиентами Peer 1 были такие компании, как SquareSpace и Fog Creek Software.


Работа дата-центра поддерживалась только благодаря находчивости команды, хотя ручная доставка топлива, конечно, не предусматривалась ни одним из планов.


Все работает, и это отлично

Летающий внедорожник и Rackspace


Еще более необычный случай произошел в 2007 году, 13 ноября. Тогда в дата-центр Rackspace влетел внедорожник. Водитель, страдающий диабетом, потерял управление, потеряв сознание. Внедорожник ускорился (видимо, водитель в бессознательном состоянии надавил на педаль газа), вылетел за пределы дороги, и врезался (будучи в воздухе) в строение, где размещалась энергетическая система дата-центра Rackspace.


Система охлаждения дата-центра перешла на вспомогательную систему энергоснабжения, и работа продолжалась без проблем. Основное оборудование также без проблем перешло на аварийное энергоснабжение. Но потом начались проблемы — как оказалось, массивные охладители не перезапустились, остановившись еще во время первого сбоя электроснабжения. Два охладителя так и не заработали, и работники дата-центра не смогли их ввести в строй в течение в нужное время.


В результате оборудование начало перегреваться, и команда инженеров приняла решение выключить ДЦ, чтобы оборудование не вышло из строя.


Остановить оборудование пришлось на пять часов, в течение которого сайты и сервисы клиентов дата-центра не работали. В результате Rackspace пришлось компенсировать своим клиентам убытки, в размере 3,5 миллионов долларов США.

Проблемы у Samsung


20 апреля 2014 года случилось возгорание в офисном здании в г. Гвачон (Gwacheon), Южная Корея. Пламя быстро распространилось по всему зданию, не обойдя и ДЦ Samsung SDS. Огонь и дым вышли за пределы здания, и были хорошо видны издалека.


Всех сотрудников Samsung, а также сотрудников других компаний, работавших в этом здании, эвакуировали. Пожар не уничтожил ДЦ полностью, но нанес ущерба достаточно, чтобы пользователи гаджетов от Samsung не могли получить доступ к своим данным.


Доступ к данным пользователи получили только после того, как вошел в строй вторичный дата-центр в этом же городе. После этого последовали официальные извинения от руководства компании.

Возгорание кабельного канала


Еще одно короткое замыкание с последующим возгоранием обшивки кабельного канала в Fisher Plaza, Сиэттл, привело к неработоспособности ряда сервисов, включая Authorize.net, Bing Travel, Geocaching.com, AdHost и ряда прочих ресурсов. Локализовать проблему удалось только к утру (все случилось 3 июля 2009 года).


При этом ряд сервисов возобновил работу в 10 утра, прочие сервисы не работали еще несколько часов. Компания Fisher Communications, которой принадлежал пострадавший дата-центр, потратила более $10 млн на ремонт и замену оборудования.

Пламя в Айове


Днем 18 февраля 2014 года дата-центр, обслуживающий работу государственных сервисов и служб, работал вполне нормально. В этот день штат должен был осуществить ряд платежей государственным сотрудникам, в размере $162 млн. По иронии судьбы, именно в этот день в дата-центре случилось короткое замыкание.


При этом команда инженеров несколько дней подряд готовила объект к встрече с совсем другой неприятностью — последствиям снежной бури, предсказанной на вечер 18 февраля.


После того, как случилось короткое замыкание, дым распространился по всему зданию, и сотрудников эвакуировали. Сработала противопожарная система FM-200, в результате чего пожар был локализован. При этом система, ответственная за контроль поступления энергии в ДЦ, перегрелась и расплавилась.


Сотрудники смогли быстро наладить поставки энергии по другому каналу, и энергоснабжение возобновили через несколько часов. Тем не менее, без доступа к инфраструктуре ДЦ возобновить его работу было невозможно. А пожарные и полиция не пускали саппорт в здание, поскольку внутри было много дыма. Только через 3,5 часа сотрудники смогли зайти в ДЦ. Все это время ничего не работало, платежи не ушли.


Восстановить работу ДЦ удалось только в 9 вечера (сам пожар начался в 3 вечера), и после этого можно было начать проводить платежи.

Amazon и сварка


9 января 2015 года в большом здании, где строился дата-центр Amazon, случился пожар. Проблема возникла из-за сварщика, который случайно поджег стройматериалы, находящиеся рядом. Небольшое пламя быстро превратилось в огенный шторм третьей категории, который пришлось долго тушить. Султан дыма был виден на много километров от дата-центра. Общий ущерб, причиненный компании, составил $100000.


Правда, клиенты Amazon не пострадали, поскольку объект еще не был введен в эксплуатацию.

Вместо вывода


В большинстве случаев аварийная ситуация возникла очень неожиданно, выходя за рамки действий, предусмотренные планом и инструкциями. Тем не менее, в некоторых случаях с проблемой удалось справиться, но в других — компании, как владельцы ДЦ, так и клиенты, терпели существенные убытки.


А какие у вас возникали проблемы и аварийные ситуации? Как вы с ними справлялись?


Источник: https://habrahabr.ru/company/kingservers/blog/260357/

Показать полностью 7
Дата-центр Авария Катастрофа Происшествие Длиннопост
8
12
LennyTZ
LennyTZ
9 лет назад

Pionen — дата-центр в ядерном бункере времен Холодной войны⁠⁠

Pionen — дата-центр в ядерном бункере времен Холодной войны
Показать полностью 1
Длиннопост Pionen Дата-центр Бункер
7
146
KRua
KRua
9 лет назад

Дата-центр Facebook.⁠⁠

Марк Цукерберг показал футуристические фото дата-центра Facebook, находящегося на севере Швеции, в городе Лулео.

От Лулео до Полярного круга всего 100 километров, и это дает возможность не пользоваться кондиционерами для охлаждения серверов. Площадь здания примерно равна площади шести футбольных полей.


Самое поразительное то, что обслуживает этот проект всего 150 человек.

http://rb.ru/story/facebook-in-sweden/
Показать полностью 4
Фото Facebook Дата-центр Марк Цукерберг Швеция Длиннопост
21
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии