Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Погрузись в удивительный мир настоящей рыбалки! Лови живую рыбу в естественных водоёмах, открой для себя новые рыбные места и поймай свой долгожданный трофей!

Реальная Рыбалка

Симуляторы, Мультиплеер, Спорт

Играть

Топ прошлой недели

  • cristall75 cristall75 6 постов
  • 1506DyDyKa 1506DyDyKa 2 поста
  • Animalrescueed Animalrescueed 35 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
39
YoBlin
YoBlin
Лига Сисадминов

Как использовать эффективно много разных дисков⁠⁠

2 дня назад

Речь пойдет о технологии Storage Spaces (Дисковые пространства (SS) в Windows начиная с 10 или сервер 2016. Это полезная функция, которая позволяет объединить несколько физических жестких дисков в один большой виртуальный диск, обеспечивая при этом защиту данных от сбоев.

Для создания SS подойдут ЛЮБЫЕ внутренние или внешние HDD/SSD-накопители с ЛЮБЫМИ интерфейсами даже через USB. Это особенно актуально если у вас есть много старых дисков которые хотелось бы использовать. Если у вас есть SSD он будет автоматически выступать скоростным кэшем при записи на SS.
Я вам покажу в картинках на виртуальной машине с Windows 10. (VM под vmware)

Шаг 1: Подготовка дисков
Подключите диски к компьютеру и убедитесь, что Windows их видит.

Шаг 2: Открытие инструмента "Управление хранилищами"
Нажмите на "Поиск" на панели задач (рядом с кнопкой "Пуск").
Начните вводить "хранилищами" и выберите соответствующий результат из списка.

Шаг 3: Создание пула и пространства хранения
В открывшемся окне выберите "Создать новый пул и дисковое пространство".
Система покажет список доступных дисков. Выберите те диски, которые вы хотите объединить, поставив галочки напротив них.
Нажмите кнопку "Создать пул".

Шаг 4: Настройка нового диска
После создания пула появится окно настройки виртуального диска. Здесь вам нужно:
Присвоить имя и букву новому диску (например, "Мои данные" и букву D:).
Выбрать файловую систему: Обычно подходит NTFS.
Выбрать тип устойчивости (схему размещения) данных:
Простой (Simple): Объединяет диски для максимальной производительности, но не защищает данные в случае сбоя диска. Требует минимум два диска.
Двустороннее зеркалирование (Two-way mirror): Создает две копии данных. Позволяет пережить отказ одного из дисков. Требует минимум два диска.
Трехстороннее зеркалирование (Three-way mirror): Создает три копии данных. Позволяет пережить отказ до двух дисков. Требует минимум пять дисков.

Шаг 5: Наслаждайтесь!

1/2

Это был пересказ нормальных статей для любителей!


PS
У меня , по бедности, в полу-промышленной среде на на обычной десктоп машине (ASRock B660M Steel. + Intel 12600 + 4х16 GB) установлен сервер 2019 к этому подключено сочетание 2х20тб. HDD Seagate Exos X20 + 2х0,5 тб. SSD apacer. сырой объем доступный 20,5 тб. по сути это RAID 10. На нем живет несколько виртуальных машин не высокой загружённости (реплика файловой шары, один DC, видеонаблюдение и еще по мелочи) скорости хватает.

Выход из строя любого одного носителя допустим, заменить можно любым равного или большего объема.

Показать полностью 7
[моё] Компьютерное железо Сборка компьютера Компьютер Windows Ноутбук Компьютерная помощь SSD Оперативная память Intel Длиннопост Сервер Хранение данных
37
2
NeprChic
NeprChic
Видеохостинг на Пикабу

К выходу GTA 6 готов) Интересно, сколько стоит это всё⁠⁠

6 дней назад
Перейти к видео
Компьютер Игровой ПК Сервер Видеокарта Сборка компьютера Юмор Компьютерное железо Видео Вертикальное видео Короткие видео
7
17
mknews
mknews

Шум вашего интернета | Как работает дата-центр?⁠⁠

1 месяц назад

Мы побывали в одном из самых продвинутых московских ЦОД и пообщались с его инженерами. Рассказываем, как работает большой дата-центр, по каким принципам устроено охлаждение и сколько энергии он потребляет. Посмотрим что внутри серверной стойки, что такое роторные ИБП, чиллеры и фрикулинг.

Версия во вконтакте и на рутуб.

[моё] Компьютер Компьютерное железо Сервер Дата-центр Цод Сети Сисадмин Серверная Видео YouTube
3
9
TechSavvyZone
TechSavvyZone

Энтропия информационной инфраструктуры: Стратегии противодействия хаосу в серверных экосистемах корпоративного уровня⁠⁠

2 месяца назад

Аннотация: В современной бизнес-среде серверная комната или дата-центр перестали быть просто техническими помещениями. Они превратились в сложные, динамичные экосистемы, где физические и логические компоненты находятся в постоянном взаимодействии. В данной статье проводится глубокий анализ ключевых аспектов жизни такой экосистемы: энергопотребления и охлаждения, кабельной инфраструктуры, физической безопасности и мониторинга. В противовес описательному подходу, мы предлагаем системный взгляд, основанный на международных и отечественных стандартах (ГОСТ, TIA-942, ISO/IEC 27001). Для каждого аспекта детально разбираются типичные ошибки специалистов, приводятся яркие примеры их катастрофических последствий для бизнеса и предлагаются конкретные, реализуемые на практике варианты решений, направленные на достижение максимальной отказоустойчивости, эффективности и предсказуемости работы всей информационной структуры предприятия.

Введение: От «серверного парка» к «серверной экосистеме»

Бродя по просторам «ИНТЕРНЕТА» наткнулся на довольно неплохое чтиво в виде Статьи «Прогулки по серверному парку», которая была опубликована в далеком 2004 году, по моему мнению она была своего рода гидом по terra incognita для многих молодых IT-специалистов того времени которые только начинали свою карьеру. Она фиксировала состояние индустрии, где серверы были громоздкими, а их размещение зачастую напоминало скорее складское хозяйство, чем инженерное сооружение. Прошедшие два десятилетия кардинально изменили ландшафт. Виртуализация, облачные технологии, контейнеризация и экстремальный рост плотности вычислений на единицу площади превратили серверные помещения в критически важные центры жизнеобеспечения бизнеса. Я решил немного обновить и проанализировать ситуацию и обновить «Гайд» для новичков профессии, «Возможно пригодиться»! Старичкам профессии!, буду очень признателен, за комментарии и возможные дополнения, особо ценные обязательно попадут в продолжение, так как планирую в дальнейшем выпустить цикл статей если аудитория заинтересуется.

Понятие «парк» implies нечто пассивное, статичное. Сегодняшняя реальность требует более динамичной метафоры – «экосистема». Это живой, дышащий организм, где изменение одного параметра (например, температуры на одном стойко месте) немедленно сказывается на других (потреблении энергии, шуме вентиляторов, надежности соседнего оборудования). Основной закон термодинамики – энтропия, стремление системы к хаосу – в полной мере применим и к ИТ-инфраструктуре. Без целенаправленных усилий по ее поддержанию и развитию, инфраструктура неуклонно движется к состоянию беспорядка: кабели спутываются, документация устаревает, системы охлаждения не справляются с нагрузкой, а политики безопасности становятся формальностью.

Цель данной статьи – предложить не просто описание лучших практик, а целостную философию управления этой экосистемой. Мы перейдем от вопроса «Что это?» к вопросам «Почему это важно?», «Что будет, если этим пренебречь?» и «Как сделать это правильно, опираясь на мировой опыт?». Анализ будет строиться на сопоставлении хаотичного, «энтропийного» подхода с системным, стандартизированным, основанным на таких документах, как ГОСТ Р 56952-2022 (аналогичный EN 50600 по дата-центрам), серия стандартов ISO/IEC 27000 по безопасности, TIA-942 для телекоммуникационной инфраструктуры и других.

Раздел 1. Энергоснабжение и тепловой менеджмент: Основа стабильности экосистемы

Электричество – это кровь серверной экосистемы. Его качество, бесперебойность и распределение определяют возможность существования всей системы. Тепло – это ее естественный метаболический продукт, который должен быть эффективно отведен. Дисбаланс в этой паре – самая частая причина катастрофических сбоев.

Анализ текущей ситуации и проблемы

Многие организации, особенно на этапе роста, относятся к энергетике по остаточному принципу. Типичные ошибки включают:

Отсутствие резервирования: Подключение всей критической нагрузки к одной линии электропитания без источника бесперебойного питания (ИБП) или с ИБП, не рассчитанным на длительную работу.

Неправильный расчет мощности: Подключение нового мощного оборудования к уже загруженным электрическим цепям, что приводит к перегрузкам и срабатыванию автоматических выключателей.

Хаотичное размещение оборудования: Установка серверов с высокой тепловой нагрузкой в верхней части стойки, где скапливается горячий воздух, или создание «горячих островков» из-за непродуманной расстановки стоек.

Игнорирование холодных и горячих коридоров: Смешивание потоков холодного и горячего воздуха, приводящее к резкому снижению эффективности системы охлаждения.

Варианты решений для специалистов на основе стандартов

1.  Внедрение системы бесперебойного питания с многоуровневым резервированием (N+1, 2N).

Стандарт: ГОСТ Р МЭК 62040-3-2014 (Системы бесперебойного питания. Часть 3). Определяет методы определения производительности и испытаний.

Решение: Для малых и средних серверных достаточно ИБП с топологией VFI (двойное преобразование), обеспечивающего чистую синусоиду и защиту от всех видов помех в сети. Для ЦОДов корпоративного уровня обязательна схема резервирования 2N (два полностью независимых модуля питания, каждый из которых способен нести полную нагрузку). Это защитит от отказа одного из ИБП, а также позволит проводить его плановое обслуживание без прерывания работы.

2.  Проектирование и строгое соблюдение организации холодных и горячих коридоров.

Стандарт: TIA-942-B (Telecommunications Infrastructure Standard for Data Centers). Детально описывает требования к компоновке, включая ширину коридоров, высоту фальшпола, размещение перфорированных плит.

Решение: Стойки должны быть установлены фронтами друг к другу, образуя «горячие» коридоры, где горячий воздух отводится к кондиционерам. Тыльные стороны образуют «холодные» коридоры, откуда оборудование забирает охлажденный воздух. Холодные коридоры должны быть герметизированы (с помощью заглушек на пустых юнитах, боковых панелей на стойках и, в идеале, физических потолков). Это повышает температурный дифференциал и эффективность охлаждения на 15-40%.

3.  Внедрение системы мониторинга потребляемой мощности (PDU с измерением) и температуры в режиме реального времени.

Стандарт: ГОСТ Р 56952-2022 (Центры обработки данных. Требования к телекоммуникационной инфраструктуре). Рекомендует мониторинг ключевых параметров среды.

Решение: Использование интеллектуальных блоков распределения питания (PDU), которые предоставляют данные о токе, напряжении и потребляемой мощности на уровне каждой розетки или ветви. Датчики температуры должны размещаться не только на входе кондиционеров, но и на входе в стойки, а также на выходе из серверов (в горячих коридорах). Это позволяет строить тепловые карты и прогнозировать перегревы.

Последствия ошибок: Яркие примеры

Пример 1: «Эффект домино» из-за перегрузки цепи. В крупном интернет-магазине перед распродажей в стойку с существующим оборудованием был установлен новый мощный сервер СУБД. Инженер не проверил нагрузку на цепи PDU. Во время пиковой нагрузки автоматический выключатель на PDU сработал. Сервер БД отключился, что привело к падению сайта на 4 часа. Прямые убытки от потерянных продаж составили несколько миллионов рублей, а репутационные потери были еще значительнее.

Вывод: Каждое добавление оборудования должно сопровождаться проверкой нагрузки на электрическую цепь. Интеллектуальные PDU с пороговыми предупреждениями могли бы предотвратить инцидент.

Пример 2: Лавинообразный перегрев из-за нарушения циркуляции воздуха. В дата-центре финансовой компании сервер, расположенный в верхней части стойки, вышел из строя из-за перегрева и отключился. Его вентиляторы перестали работать. Этот сервер создавал значительное аэродинамическое сопротивление. После его остановки горячий воздух от нижестоящих серверов изменил поток и начал засасываться ими же на вход, создавая рециркуляцию. В течение 10 минут последовательно перегрелись и отключились еще 5 серверов, что привело к остановке биржевых торговых роботов. Расследование показало, что в стойке отсутствовали blanking-панели (заглушки), усугублявшие проблему.

Вывод: Физическое расположение оборудования и аэродинамика стойки не менее важны, чем работа кондиционеров. Заглушки – это не «косметика», а обязательный элемент системы охлаждения.

Раздел 2. Кабельная система: Нервная система экосистемы

Кабельная инфраструктура – это нервная система, связывающая все компоненты экосистемы воедино. Ее состояние напрямую определяет производительность сети, простоту управления и скорость реагирования на изменения.

Анализ текущей ситуации и проблемы

«Кабельный спагетти» – бич многих старых и даже не очень старых серверных. Проблемы возникают из-за:

Отсутствие проекта СКС: Прокладка кабелей «по мере необходимости», без единого плана и цветовой маркировки.

Смешение типов кабелей: Силовые и патч-корды, проложенные в одном лотке, что приводит к электромагнитным помехам.

Игнорирование правил прокладки: Резкие изгибы кабелей, превышающие минимальный радиус, что повреждает жилы и ухудшает характеристики.

Отсутствие документации: После ухода администратора, который «все держал в голове», новый специалист тратит недели на распутывание клубка.

Варианты решений для специалистов на основе стандартов

1.  Внедрение структурированной кабельной системы (СКС) с четкой иерархией.

Стандарты: ISO/IEC 11801 (Information technology — Generic cabling for customer premises), TIA-942. ГОСТ Р 53245-2008 (Информационная технология. Структурированные кабельные системы. Монтаж и приемка основных узлов).

Решение: СКС должна быть спроектирована с выделением главного кроссового поля (MC), кроссовых полей оборудования (EC) и горизонтальных кроссов (HC). Использование патч-панелей вместо прямого подключения кабелей к коммутаторам. Это создает точку стабильности (стенд с патч-панелями) и точку изменений (патч-корды). Все кабели должны быть промаркированы с двух сторон в соответствии с единой схемой именования.

2.  Разделение силовых и слаботочных кабельных трасс.

Стандарт: ГОСТ Р 53246-2008 (Информационная технология. Проектирование основных узлов систем...). Прямо указывает на необходимость разделения трасс или обеспечения расстояния не менее 30 см между силовыми и информационными кабелями при параллельной прокладке.

Решение: Использование раздельных лотков для силовых кабелей и кабелей СКС. Если разделение невозможно, следует использовать экранированные кабели (F/UTP, S/FTP) и заземлять экран. Пересечение трасс должно осуществляться строго под прямым углом.

3.  Применение систем управления кабелями (кабельные органайзеры, направляющие).

Стандарт: Рекомендации производителей телекоммуникационных шкафов (например, APC, Rittal) и лучшие практики, описанные в TIA-942.

Решение: Установка вертикальных и горизонтальных кабельных органайзеров на стойках. Использование патч-кордов фиксированной длины (0.5м, 1м, 2м). Это исключает образование свисающих петель и избыточного запаса, которые мешают циркуляции воздуха и доступу к оборудованию.

Последствия ошибок: Яркие примеры

Пример 1: Случайный обрыв критического соединения. В колокейшн-центре технический специалист, пытаясь добавить новый сервер, зацепился ногой за клубок неорганизованных кабелей. Это привело к выдергиванию патч-корда из коммутатора агрегатного уровня. Этим кабелем обеспечивалась связь между основным и резервным центром обработки данных. Сработал механизм репликации, который, столкнувшись с потерей связи, перевел систему в аварийный режим, ошибочно зафиксировав катастрофу в основном ЦОДе. Начался неплановый переход на резервный сайт, который занял 30 минут и привел к недоступности критичных приложений для сотен клиентов.

Вывод: Аккуратная кабельная разводка – это не эстетика, а вопрос отказоустойчивости. Вероятность случайного повреждения правильно организованных кабелей стремится к нулю.

Пример 2: Тайная деградация производительности сети. Компания жаловалась на периодические «зависания» сети хранения данных (SAN) в ночное время, во время выполнения задач резервного копирования. Логи серверов и коммутаторов не показывали явных ошибок. После многомесячного расследования приглашенный эксперт с помощью рефлектометра обнаружил, что один из волоконно-оптических кабелей, проложенных с резким изгибом за стойкой, имел микротрещины. Под нагрузкой (интенсивный трафик бэкапов) оптический сигнал деградировал, вызывая рост количества ошибок и повторных передач, что и проявлялось как «зависание». Проблема была решена заменой кабеля, проложенного с соблюдением минимального радиуса изгиба.

Вывод: Физические дефекты кабеля могут вызывать прерывистые и трудно диагностируемые проблемы. Соблюдение правил монтажа с самого начала сэкономило бы компании десятки тысяч рублей на диагностике и простое.

Раздел 3. Физическая безопасность и контроль доступа: Иммунная система экосистемы

Серверная комната – это сейф, где хранится самый ценный актив компании – ее данные. Физическая безопасность является фундаментом, на котором строится вся кибербезопасность.

Анализ текущей ситуации и проблемы

Ошибки в этой области часто происходят из-за недооценки человеческого фактора:

Упрощенный контроль доступа: Ключ от серверной, который хранится в незапертом ящике, или единый код на двери, известный десяткам людей.

Отсутствие аудита и сегрегации обязанностей: Один и тот же специалист имеет неограниченный физический доступ ко всему оборудованию, может самостоятельно вносить изменения без согласования.

Пренебрежение видеонаблюдением: Отсутствие архивов записей, фиксирующих кто, когда и что делал в помещении.

Варианты решений для специалистов на основе стандартов

1.  Внедрение многофакторной системы контроля доступа.

Стандарт: ISO/IEC 27001:2022 (Информационная безопасность, кибербезопасность и защита конфиденциальности — Системы менеджмента информационной безопасности — Требования). Контроль A.7.3 «Физический доступ в зоны безопасности».

Решение: Отказ от механических ключей в пользу электронных систем (карты доступа, брелоки). Обязательное использование двухфакторной аутентификации для доступа в зоны повышенной критичности (например, карта + PIN-код или биометрия). Система должна вести детальный журнал всех событий входа/выхода.

2.  Реализация принципа минимальных привилегий и сегрегации обязанностей.

Стандарт: Требованиям отечественного Федерального закона № 152-ФЗ «О персональных данных» (для обработчиков ПДн) и внутренним политикам безопасности.

Решение: Разграничение зон доступа. Например, специалист по сетевым оборудованием имеет доступ только к стойкам с коммутаторами, а администратор СУБД – только к стойкам с серверами баз данных. Физический доступ к ленточным библиотекам с архивными бэкапами должен быть предоставлен крайне ограниченному кругу лиц. Любое изменение в коммутациях (переключение патч-корда) должно фиксироваться в системе заявок.

3.  Организация круглосуточного видеонаблюдения с архивом.

Стандарт: Лучшие отраслевые практики, часто требуются стандартами PCI DSS (для платежных систем) и др.

Решение: Установка камер высокого разрешения с охватом всех критических зон: вход, коридоры, лицевые и тыльные стороны стоек. Видеоархив должен храниться не менее 90 дней. Камеры должны быть интегрированы с системой контроля доступа, чтобы событие доступа сразу привязывалось к видеофрагменту.

Последствия ошибок: Яркие примеры

Пример 1: Кража данных уволенным сотрудником. Сотрудник, уволенный из IT-отдела крупного ритейлера, воспользовался тем, что его карта доступа была деактивирована с задержкой в один день. Ночью он прошел в серверную, к которой имел доступ, и, зная пароли (которые не были изменены вовремя), подключился к серверу, скопировал базу данных с персональными данными и платежными реквизитами нескольких сотен тысяч клиентов. Эти данные были затем проданы на черном рынке. Компании пришлось уведомлять клиентов, менять платежные системы и заплатить многомиллионный штраф по 152-ФЗ.

Вывод: Процедура увольнения должна включать мгновенное отключение всех видов доступа – физического и логического. Журналы контроля доступа должны проверяться регулярно.

Пример 2: Саботаж и вывод из строя оборудования. В рамках корпоративного конфликта недовольный системный администратор, имеющий единоличный доступ в серверную, в выходной день отключил питание на нескольких стойках, вызвав остановку производственного конвейера на 12 часов. Убытки от простоя исчислялись десятками миллионов рублей. Так как видеонаблюдение велось только на входе, а журнал доступа не анализировался, доказать умысел сразу не удалось. Только косвенные улики и последующая исповедь самого администратора позволили установить истину.

Вывод: Отсутствие сегрегации обязанностей и полноценного наблюдения внутри помещения создает колоссальные операционные риски. Ни один сотрудник не должен обладать неконтролируемой властью над всей инфраструктурой.

Раздел 4. Мониторинг, документация и управление жизненным циклом: Сознание экосистемы

Способность экосистемы к самодиагностике, прогнозированию и планированию – признак ее зрелости. Это достигается за счет комплексного мониторинга и безупречного ведения документации.

Анализ текущей ситуации и проблемы

Самая распространенная болезнь – «выгорание» процессов документирования:

Документация отстает от реальности: Схемы, нарисованные пять лет назад, не соответствуют текущему состоянию.

Мониторинг «всего подряд» без реакции: Система генерирует тысячи событий, но большая часть из них игнорируется, так как не настроены пороги и приоритеты.

Отсутствие реестра активов и их жизненного цикла: Компания продолжает эксплуатировать сервер, гарантия на который истекла 3 года назад, и узнает об этом только в момент его отказа.

Варианты решений для специалистов на основе стандартов

1.  Внедрение системы централизованного мониторинга и управления событиями (SIEM).

Стандарт: ISO/IEC 27035 (Управление инцидентами информационной безопасности).

Решение: Использование систем типа Zabbix, Prometheus, Nagios для сбора метрик (температура, загрузка CPU, свободное место на дисках) и систем типа ELK Stack (Elasticsearch, Logstash, Kibana) или коммерческих SIEM-решений для агрегации и корреляции логов. Настройка правил, чтобы критичные события (например, отказ диска в RAID-массиве, срабатывание пожарной сигнализации) немедленно вызывали реакцию (уведомление по SMS, email, в мессенджер).

2.  Ведение единого реестра активов (CMDB - Configuration Management Database).

Стандарт: ITIL 4 (библиотека инфраструктуры IT). Практика «Управление активами и конфигурациями».

Решение: Создание базы данных, где каждый актив (сервер, коммутатор, ИБП) имеет свою запись с указанием производителя, модели, серийного номера, даты ввода в эксплуатацию, гарантийного срока, ответственного, связей с другими активами (какой сервер на каком коммутаторе висит). CMDB должна быть «единственным источником истины».

3.  Автоматизация документирования изменений.

Стандарт: Внутренние регламенты компании, интегрированные с ITSM-системами (ServiceNow, Jira Service Desk).

Решение: Любое изменение в инфраструктуре (добавление сервера, смена патч-корда) должно инициироваться через заявку на изменение (Request for Change, RFC). После выполнения изменения ответственный специалист обязан обновить соответствующие схемы в CMDB или системе документооборота. Это делает процесс необременительным и частью рабочего потока.

Последствия ошибок: Яркие примеры

Пример 1: Многочасовой простой из-за отсутствия актуальной схемы. В результате аварии на коммутаторе агрегатного уровня отключилась половина серверов. Команда администрирования начала восстановление, но столкнулась с тем, что схема сетевых подключений была устаревшей. Физическое распутывание кабелей, чтобы понять, какой сервер куда подключен, заняло 4 часа. Вместо потенциально быстрого восстановления путем переключения на резервный коммутатор, простой критически важных систем длился более 6 часов, что привело к остановке онлайн-торговли и срыву сроков по ключевым проектам.

Вывод: Актуальная документация – это не отчет для начальства, а инструмент для аварийного восстановления. Ее стоимость несопоставима со стоимостью простоя.

Пример 2: Цепная реакция отказов из-за пропущенных предупреждений мониторинга. Система мониторинга в течение двух недель генерировала предупреждения о постепенном снижении емкости аккумуляторных батарей в ИБП. Однако эти предупреждения имели низкий приоритет («Warning») и терялись среди сотен других сообщений. Никто на них не отреагировал. Во время плановых работ в городской электросети произошло короткое отключение питания. ИБП должен был обеспечить работу на 15 минут, но батареи отработали менее 2 минут. Серверы аварийно отключились, что привело к повреждению файловых систем на нескольких виртуальных машинах. Их восстановление из бэкапа заняло сутки.

Вывод: Мониторинг без настройки правил эскалации и реакции бесполезен. Критичные для инфраструктуры компоненты (ИБП, охлаждение) должны мониториться с высочайшим приоритетом.

Заключение: От борьбы с хаосом к управляемой эволюции

Серверная экосистема современного предприятия – это сложный организм, требующий не сиюминутных «латаний дыр», а продуманной стратегии управления, основанной на международных и отечественных стандартах. Каждый рассмотренный аспект – энергетика, кабельная система, безопасность, мониторинг – является неотъемлемым звеном в цепи надежности.

Ошибки на любом из этих этапов, как показали примеры, имеют далеко идущие последствия: от прямых финансовых потерь и репутационного ущерба до полной остановки бизнес-процессов. Стратегия, построенная на стандартах (ГОСТ, TIA-942, ISO/IEC 27001, ITIL), – это не бюрократия, а практический инструмент, позволяющий перевести инфраструктуру из состояния непредсказуемого хаоса в состояние управляемой, предсказуемой и надежной системы.

Ключевой вывод заключается в том, что инвестиции в порядок и стандартизацию «железного» уровня многократно окупаются за счет снижения рисков, уменьшения времени простоя и упрощения масштабирования. Борьба с энтропией информационной инфраструктуры – это непрерывный процесс, но именно он позволяет бизнесу не просто выживать, а уверенно развиваться в цифровую эпоху.

Показать полностью 18
[моё] Инженер Статья IT Серверная Сервер Цод ГОСТ Проектирование Технологии Компьютерное железо Автоматизация СКУД Охлаждение Система охлаждения Стандарты Закон Требования Нормы Длиннопост
0
11
Pups.oid
Pups.oid
Серия Сисадминство в маленьком городке)

Моя домашняя лаборатория (HomeLab). Часть 1⁠⁠

5 месяцев назад

Всем Ку!

Я Пупсик, и это мой относительно первый длиннопост, 35 годиков, стаж общения с нашей любимой техникой и ПО - 28 лет и хотелось бы поделиться набором ПО и железа для скромной домашней лабы. Везде всё постараюсь описать своими словами.

Очень прошу дать обратную связь в комментариях о чем бы Вы хотели узнать или потестировать!

Давайте поговорим для чего и кому это всё вообще нужно?

Конкретно в моём случае это хранение критичной информации моей и не только, тесты "чего то новенького", или когда охото с чем то разобраться получше, но при этом не сломать то что уже работает. Плюс открывается куча возможностей для домочадцев, будь то своё локальное хранилище фото или свой медиасервер для просмотра всякого на телевизоре и куча всего другого о чем чуть позже. Сегодня мы не будем касаться настроек конкретных компонентов лаборатории, а разберём основные части.

Собрал для Вас свой "мастхев" и расскажу для чего тот или иной компонент или виртуалка. А так же жду конструктивной критики и интересных вопросов по теме.


  • Железо

Итак, первое и самое важное без чего существование лабы не возможно в принципе. Зимой 22-23 г. в условиях непонятных цен "завтра" на Али прикуплена на всякий случай "китайская" мать QD4 с процессором Xeon 2670v3 (2.3 ГГц 12 ядер - 24 потока) и оперативкой DDR4 16 гб. И кулёк-башенка с шестью трубками. Бюджет около 9000 за всё. Парочка NVMe накопителей были в наличии. Сейчас едет ещё 2 плашки по 32гб, потому что памяти уже не хватает, по приезду для текущих задач будет более чем достаточно. Корпус, 3 HDD по 1 ТБ и хороший блок питания Thermaltake так же были в наличии.


  • Гипервизор

    Т.к. отдавать всё ресурсы на одну ОСь и работать только с ней-более чем глупо. Воспользовался одним из моих любимых гипервизоров ProxMox. Можно долго петь ему деферамбы, но я не буду, знающие люди и без меня прекрасно понимают всю его мощь и прелесть.

    На данный момент запущено и стабильно работают с аптаймом 200+ дней 6 виртуальных машин и 10 LXC контейнеров. Почему именно LXC, а не тот же Докер? Лично для меня некоторые вещи удобнее именно в LXC контейнерах чем в Докере, хоть он так-же присутствует и о нем поговорим чуть дальше. (бекапы, скрипты автоматических установок, перемещения между гипервизорами, токая настройка сети и Vlan'ов, да и принцип +- одинаковый, да и не сильный проигрыш в ресурсах).


  • Программный роутер

Немного о построении домашней сети. Имеется в наличии две квартиры и дача. На всех трёх в качестве "перимитральной защиты" используются Микротики HAP AC Квадрат. Очень любимые мною железки и как по производительности и как по соотношению цена-качество. Все три точки объедены посредством WireGuard (в данный момент один из самых достойных протоколов за скорость работы и простоту настройки) напрямую. Плюс каждая отдельно соединенна "звездой" через VPS в Нидерландах. Думаю в наше время никому не надо объяснять для чего это нужно?)))

В таком случае логично было бы поставить в качестве программного роутера CHR. Но нет))) тут в бой вступает:

Для тех кто не знает, PFSense это очень мощный программный роутер основанный на FreeBSD и имеющий на борту кучу плагинов для работы со всеми существующими сетевыми задачами, а так же много дополнительных пакетов работающих "из коробки", установил-настроил-забыл.

Моё знакомство с ним произошло в 2010 году, использую его везде где возможно до сих пор, очень советую хотя бы "поковырять и посмотреть что под капотом"

Так для чего он в домашней лабе если на "периметре" есть Микрот? всё просто, во всех учебниках по построению сетей и не только сказано: Разделяй и властвуй! Чем больше сеть разбита на сегменты и чем больше настроено правил прохождения трафика между ними чем надёжнее и защищённее вся сеть в целом.

Например те-же китайские и не только IoT устройства (лампочки, пылесосы, умные холодильники и чайники, Алисы и иже с ними, хабы умных домов, в общем всё что подключается в основном по WiFi и каким либо образом управляется) постоянно сканируют сеть в которой они находятся и засылают "статистику" своим хозяевам. Про телевизоры Самсунг вообще молчу, один из главных врагов в домашней сети)))

Именно для этого делается внутри основной сети закрытый периметр в которые входят виртуалки и контейнеры. Для которых применены определенные политики и правила прохождения трафика.


  • DNS

Думаю не для кого не секрет, с чего начинается доступ в интернет домашних устройств и не только. Любому устройству выходящему "наружу" нужно сделать преобразование доменных имён в понятный для устройства IP адрес и установить связь с конечной точкой.

Многие провайдеры после установки ТСПУ начали делать "подмену" ответов DNS серверов для блокировок. Да и вообще, зачем и провайдеру и властям знать какие запросы вы посылаете на общедоступные DNS?

Именно тут в бой вступает ADGuard Home. Главная задача у него "резать рекламу" на всех устройствах которые запрашивают DNS у него. Конкретно у меня это абсолютно все устройства находящиеся в моей домашней сети.

Вторая задача, это шифрование запросов к внешним DNS серверам. В таком случае провайдер и "контора солнышек" (РКН) не смогут узнать запрос имени к какому именно ресурсу осуществляется.

Третья задача, это обращение по локальным "общепонятным" адресам внутри сети, например чтобы не запоминать у кого какие IP адреса, перехожу просто в адресной строке dns.loc и попадаю в интерфейс управления Adguard, удобно и экономит время.


  • Мониторинг

Когда сервисов или устройств в домашней сети больше чем несколько, желательно настроить систему мониторинга, чтобы знать где-что отвалилось или работает не так как должно, а так же предотвращать будущие проблемы, например переполнение дисков логами, критическое повышения температуры отдельных устройств и тд.тп, данная тема как и предыдущие пункты заслуживают отдельного поста и разборов компонентов "по полочкам".

Для себя давно выбрал Zabbix как универсальный-надёжный "комбаин" для мониторинга всего и вся вообще. Есть куча шаблонов как для оборудования так и для ПО или ОС. Он всегда оповестит меня если в сети появится новое устройство которого там не должно быть или если на даче отвалилась камера, если честно применения систем мониторинга очень много, и все не обхватить.

Но иногда, когда не охото разворачивать с нуля этого монстра, на помощь приходит маленький-удобный-интуитивно понятный UptimeKuma. Если что-то надо быстро "помониторить" использую его как альтернативу. А в лабе поднято и то и то)))


  • Хранилище (Облачко, файлопомойка, ftp-сервер, хранилище фотографий, хранилище бекапов, медиасервер и тд.)

Один из основных компонентов, ради которого в принципе всё это и начиналось)

Если честно, для хранилок перепробовал много чего, и TrueNAS и FreeNAS и OpenMediaVault, но стоило пару раз поюзать железки NAS Synology как они мне запали в душу)))

В связи с этим, выбор для дома не заставил себя ждать и появилась виртуалка с Xpenology DSM. Это тоже "комбаин" который включает в себя множество отдельных функций.

В том же яндекс-диске у меня почти пол террабайта (когда то давно они потеряли мои данные и начислили много места + выслуга лет ящика), но пользовать их полноценно без оплаты невозможно, ограничение по скорости и размеру файла 1гб на "бесплатных" тарифах иногда просто убивает(((

Именно по этому наличие своего места без всяких ограничений было жизненно необходимо. Плюс ко всему есть клиенты, базы которых надо было тоже куда-то сливать в отдельное место на случай пожаров и шифровальщиков.

В принципе в заголовке списка написано для чего он используется, отдельно хочу отметить работу с видеонаблюдением, surveillance station заслуживает отдельных похвал!!!


  • Маленький подытог

    Думаю для первой части достаточно. В следующей части разберем всё остальное)

    Спасибо за внимание, чукча не писатель)

Показать полностью 4
[моё] Linux Microsoft Сервер Windows Компьютерное железо Длиннопост
9
24
Gray.Mage

Ответ на пост «Сервер за копейки»⁠⁠2

5 месяцев назад

Имеем 2 блейд сервера

С каждого снимаем и продаем на авито

9 шт ddr ecc reg ddr3 по 300р = 2700р

2 шт sas 300gb по 250р = 500р

2 шт e5645 по 300р = 600р

Итого 3800р *2 = 7600р

Добавляем деньги на покупку фирменного разъема и sfp модуля. Блока питания 12в. Ну пусть еще 1000р

На получение бабки идем на то же авито и покупаем мини пк на intel N97 или n100.

В идеале берем s1 и получаем

2 сетевых порта 2.5g

2 полноценных разьема m2

За эти бабки 16-32gm оперативки и 256gb SSD.

По итоговым характеристикам получаем решение

- меньше

- тише

- холоднее

- быстрее

Ах да сервер будет потреблять в месяц электричества на сумму около 1000р против 100р для мини ПК.

Из минусов пожалуй меньшее количество оперативной памяти.

К сожелению сейчас реалии таковы что старое железо если его эксплуатировать 24/7 невыгодно. Даже если рассматривать всего год эксплуатации то экономически оправдана покупка чего то более свежего и более энергоэффективного.

Зы как "мужской конструктор" это очень интересная железка. И в исследованиях безусловно поддерживаю автора.

Показать полностью
[моё] IT Техника Электроника Timeweb Компьютерное железо Программирование Микроконтроллеры Сервер Длиннопост Ответ на пост Текст
18
49
user9583706
TECHNO BROTHER

Ответ на пост «Сервер за копейки»⁠⁠2

5 месяцев назад

Самой главной проблемой блейд досок являются не только размеры (они зачистую не встают никуда кроме спец корзин), и не комплектующие коих на просторах интернета за копейки просто завались. Проблема в блоках питания. 1. Распиновка разъема питания на плате не такая как у стандартных ПК 2. На платах (если мы хотим мооооощь сииллааа власть) два процессора(к которым не подходит обычный охлад), соответственно два разъема питания. 3. Питание платы преимущественно 12В, что делает использование стандартных БП проблемой (перекос по одному напряжению и уход БП в защиту) 4. Использование серверных БП это жопа, звук реактивного самолета в помещении вряд ли кто долго сможет терпеть.

Периферия)))) На платах или мало, или вообще нет USB, PCI-E расположены так, что без razer кабеля Вы не подключите(не закрепите) видеокарту. А так да, камп получается огонь, и не как некоторые пишут, производительности хватает за глаза.

P.S. Лучше искать платы от рабочих станций, они хоть и больше, но имеют стандартизацию как обычные, питание хоть и х2, но стандартные. У меня Z9 PE D8 WS от ASUS, на самых мощных(по частоте) E52687W v 2 , и 8 каналов (В ВОСЬМИКАНАЛЬНОМ РЕЖИМЕ) оперативка 1866 samsung, этот монстр уделает DDR4 на любой частоте по пропускной способности, а по цене вообще молчу.

IT Техника Электроника Timeweb Компьютерное железо Программирование Микроконтроллеры Сервер Длиннопост Ответ на пост Текст
16
1934
Timeweb.Cloud
Timeweb.Cloud

Сервер за копейки⁠⁠2

5 месяцев назад

Автор текста: zatim

Обычно сервер ассоциируется с чем-то дорогим и недоступным обычному человеку. Даже на вторичном рынке они пока еще стоят весьма существенно (если не рассматривать совсем уж допотопные экземпляры). Однако, есть и такие, которые можно приобрести весьма недорого.

Это, так называемые, блейд-серверы. Блейд-сервер (от англ. blade — лезвие) – концепция использования нескольких компактных серверов в одной общей корзине (шасси). Некоторые узлы сервера (такие как блоки питания, охлаждение, сетевые адаптеры, управление) вынесены за пределы сервера и сделаны общими для всех. Благодаря этому исключается излишнее дублирование и, соответственно, уменьшаются габариты и общее энергопотребление всей сборки. Увеличивается плотность вычислительной мощности на единицу объема серверной стойки. Из-за того, что единичный блейд-сервер бесполезен без корзины, а в корзине избыточен, они не пользуются спросом на вторичном рынке, а потому стоят весьма недорого.

Сервер со снятой крышкой

Сервер со снятой крышкой

Мне удалось приобрести пару таких серверов за сумму всего порядка 1200 р. за шт. Это китайские серверы BH620 фирмы Huawei. Что же мы получаем за эти деньги? В каждом сервере имеется по 2 процессора Intel Xeon E5645, работающих на частоте 2,4 ГГц и имеющие по 6 ядер и 12 потоков. Сервер укомплектован 9-ю планками памяти DDR3 по 8 Гб (всего 72 Гб), дисковым RAID массивом из двух SAS дисков объемом по 300 Гб и 6-ю гигабитными Ethernet адаптерами. Даже сейчас это весьма неплохая вычислительная мощь, если сравнивать с бытовым сегментом, особенно, если принять во внимание копеечную цену всего этого добра. На одной плате-мезонине в передней части платы располагается RAID-контроллер дисков фирмы LSI, в задней части платы на двух мезонинах располагаются Ethernet-контроллеры на микросхеме Broadcom BCM5715. Каждая микросхема обеспечивает по 2 гигабитных порта. Еще одна такая же микросхема распаяна непосредственно на материнской плате, итого 6 интерфейсов.

Фото задней части платы

Фото задней части платы

Сам сервер весьма компактен. Ширина всего 31 см, длина 48 см, толщина 4 см. В корзине они стоят вертикально в количестве 10 шт. Спереди располагаются 4 отсека для SAS дисков формата 2,5”, сервисный разъем, кнопка включения и индикаторы. Задняя стенка полностью отсутствует. Через нее в сервер задувается воздух для охлаждения. Также, сзади на плате расположены многоконтактные разъемы для соединения с корзиной и пластиковые направляющие. Направляющие помогают правильно состыковать разъемы, не повредив их.

Фото со стороны разъемов

Фото со стороны разъемов

Чтобы запустить этот сервер, необходимо обеспечить, как минимум, питание, охлаждение и подключение монитора с клавиатурой. К сожалению, гугление не выдало никакой существенной технической информации, которая помогла бы с решением этих вопросов. Нет ни распиновки разъемов, ни электрических параметров сигналов. Придется их изучать самостоятельно. Из рекламного буклета было выяснено, что сервер питается напряжением 12 В, а спереди через сервисный разъем выходят сигналы VGA и 3 шт интерфейсов USB. Проще всего оказалось найти куда подключать питание 12 В. Широкая шина питания идет от задних разъемов куда то вглубь платы.

Фото задней части платы. Шина питания 12 В

Фото задней части платы. Шина питания 12 В

Вот только некоторые разъемы оказались выломаны. Но это не беда, все равно ответных частей у меня нет. Я подпаялся к их контактам несколькими тонкими проводами. Затем пучок тонких проводов соединил с толстым проводом, который подсоединил к лабораторному блоку питания. Определить полярность также несложно – минусовой провод питания должен звониться накоротко с корпусом устройства.

Подав питание, мы видим что некоторые светодиоды на плате зажглись и начали мигать. Значит, железка живая и что-то в ней происходит. Отлично, идем дальше.

Теперь нужно попробовать подключить к серверу монитор и клавиатуру. Сначала я попытался найти фирменный кабель, который должен подключаться к сервисному разъему. После весьма долгого гугления что-то похожее нашлось на Алиэкспресс. Внешний вид и количество контактов у разъема на фото было примерно похоже на то, что требовалось. Однако цена этого кабеля вместе с доставкой была почти как за оба сервера сразу, что выглядело не очень бюджетно. К тому же ждать месяц совершенно не хотелось. Попробуем выяснить распиновку и спаять кабель самостоятельно. Для этого я открутил маленькую платку с сервисным разъемом для более внимательного изучения.

Плата с сервисным разъемом

Плата с сервисным разъемом

На плату приходят два пучка проводов, один из которых состоит из трех экранированных пар из белого и зеленого проводов. Очевидно, это и есть те 3 интерфейса USB, которые выходят на сервисный разъем. Так я вызвонил контакты на сервисном разъеме, которые отвечают за сигнальные пары USB. Экраны проводов соединены с общим проводом. Прозвонив их, я нашел все контакты сервисного разъема, соединенные с общим проводом. Питания 5 В среди этих проводов не было. Но, на плате были распаяны 3 одинаковых цепочки из самовосстанавливающихся предохранителей и фильтрующих конденсаторов. Видимо это и есть питание 5 В, которое шло с другого разъема. Прозвонив эти цепи, я определил все контакты, отвечающие за 5 В. Таким образом, с USB мы разобрались.

Для подключения монитора по интерфейсу VGA необходимо 5 сигнальных проводов – R, G, B, HS, VS. Первые 3 отвечают за 3 основных цвета "красный", "зеленый" и "синий", оставшиеся два — за строчную и кадровую синхронизацию соответственно. Поскольку на маленькой плате не было электронных компонентов, которые хоть как-то могли быть связаны с выводом изображения, можно предположить, что эти сигналы должны приходить с материнской платы транзитом напрямую на сервисный разъем. И да, после прозвонки такие сигналы были обнаружены – 3 сигнала – R, G, B шли напрямую и 2 сигнала шли через небольшое сопротивление 100 Ом. Последние, видимо, сигналы синхронизации. Кто из них кто, я предполагал выяснить с помощью осциллографа. Строчные синхроимпульсы должны идти с частотой около 31 кГц, кадровые – 60 Гц. Полная распиновка разъемов, полученная в результате исследований, приведена в таблицах ниже. Может быть, кому то пригодится эта информация.

Таблица 1 – Разъем с сигналами USB от материнской платы. Контакт 1 отмечен на разъеме треугольничком. Нумерация – в одном ряду четные, в другом нечетные.

Сервисный разъем крупным планом

Сервисный разъем крупным планом

Ответный разъем, похожий внешне на сервисный, ищется на Алиэкспресс по названию SCSI MDR 26 pin. Этот разъем был заказан, а пока он едет, просто припаяемся проводами напрямую к контактам.

Подключаем VGA

Подключаем VGA

Однако, далее меня ждало разочарование. После подачи питания никакие сигналы на монитор не выдавались, также не было и питания на USB. На кнопку включения тоже не было никакой реакции. Только лишь моргали различные светодиоды. Характер моргания периодически менялся, что говорило о том, что что-то там все-таки происходит. И я стал дальше прозванивать все, что можно было прозвонить и смотреть осциллографом все, что можно было посмотреть.

В задней части материнской платы были обнаружены стандартные штырьковые разъемы с шагом 2,54 мм. Один из них, судя по картинке на крышке сервера, служил для подключения встроенного накопителя USB. Два других, 10-контактных, очень напоминали JTAG, и, вероятно, предназначались для отладки и программирования микросхем ПЛИС на плате. И также обнаружился трехконтактный разъем, на котором присутствовало напряжение минус 6 В. Отрицательное напряжение явно говорило о том, что это был порт RS232  для вывода информации в терминал. Рядом с разъемом также обнаружилась и микросхема преобразователя интерфейса MAX x232, что подтвердило догадку. Был наскоро спаян кабель-переходник и вынут из закромов ретро-ноутбук TOSHIBA с портом RS232 и программой PuTTY. На одном из контактов периодически проскакивали какие-то импульсы, очевидно, это выход TX, он был подключен ко входу RX ноутбука, на другом контакте ничего не было. Видимо, это вход RX, его я припаял к выходу TX ноутбука. Ну, а их общий провод звонился накоротко с корпусом устройства.

Подключаем терминал по RS232

Подключаем терминал по RS232

Сначала я запустил программу PuTTY на скорости 9600, на экране появились какие то символы вперемешку с мусором. Видимо, скорость не та. Я попробовал 115200 и вуаля! На экран посыпался осмысленный текст.

Информация из терминала

Информация из терминала

Как оказалось, при подаче питания первым стартует вспомогательный микроконтроллер MPC852T. Он работает на частоте 100 МГц, имеет 32 Мб ОЗУ и 16 Мб флеш-памяти. Он загружает операционную систему MontaVista. Это небольшая ОС linux для встраиваемых систем. После загрузки ОС, процессор инициализирует всю периферию сервера. И пока он все это не сделает, никакой реакции на нажатие кнопки включения не будет. После старта система MontaVista выдает стандартное linux’овское приглашение залогиниться. После непродолжительного подбора логина и пароля подошла комбинация root root. Однако внутри системы ничего интересного не было. По команде help выдавался список непонятных команд неизвестного назначения. Туда я копать дальше не стал.

Вспомогательный микроконтроллер

Вспомогательный микроконтроллер

После того, как вспомогательный микроконтроллер загрузился, появилась реакция на кнопку включения. Кратковременно зажигались и гасли светодиоды на дисках и мезонинах сервера. Как оказалось, мощности моего лабораторного блока питания недостаточно для питания сервера. В рабочем режиме он потребляет ток порядка 10...11 А. При максимальной загрузке – до 20 А. Для питания можно применить стандартный блок питания 12 В мощностью 200...250 Вт для светодиодных лент, они довольно дешевы и широко представлены на маркетплейсах. Но, можно сэкономить и на этом. Для питания можно применить старый компьютерный БП. Единственное, необходимо убедится по этикетке, что он может выдать необходимый ток по шине 12 В. Также блок необходимо доработать. Инструкций по доработке в интернете имеется огромное количество. В старых компьютерных блоках питания основной канал, по которому происходит стабилизация – 5 В. Поэтому нужно отключить обратную связь от канала 5 В и оставить только 12 В, при этом нужно будет заново подобрать резистор в цепи обратной связи так, чтобы выходное напряжение составило порядка 12,4...12,6 В с запасом на падение напряжения на проводах. Также в некоторых блоках иногда необходимо дополнительно поколдовать со схемой защиты и формирования сигнала PG. Ее можно просто удалить.

Я же для питания применил доработанное зарядное устройство для 12 В буферных свинцовых аккумуляторов. Устройство выдает ток до 15 А, чего вполне достаточно для питания сервера в нормальном режиме (для ограничения максимального потребления тока можно в БИОС-setup сервера по максимуму включить все функции энергосбережения, а также отключить лишние ядра). Доработка этого зарядного устройства заключалась просто в удалении части схемы, отвечающей за стабилизацию зарядного тока и переключение в режим буферного питания после окончания заряда. Для работы в качестве блока питания, эти функции не только не нужны, но и вредны.

Устройство имеет мощное пассивное охлаждение, в нем отсутствуют вентиляторы и поэтому оно не издает шума при работе. Именно этот фактор и обусловил выбор именно его в качестве источника тока для сервера.

Поскольку сервер потребляет достаточно существенный ток, необходимо использовать питающие провода достаточного сечения, не менее 2,5 квадрата, а в непосредственной близости от сервера (например, в точке соединения тонких проводов с толстыми) необходимо установить электролитический конденсатор емкостью не менее 10000 мкФ х 16 В.

Следующая насущная проблема – охлаждение. При работе в составе с корзиной, охлаждение обеспечивала именно она. В самом сервере вентиляторов нет. Я на этот счет долго не думал, просто вырезал ножницами по металлу две дыры около процессоров и приделал туда 2 стандартных 80-мм вентилятора от старых компьютерных блоков питания.

Расположение вентиляторов

Расположение вентиляторов

Вентиляторы запитал от тех же 12 В, что и сам сервер. Вентиляторы необходимо расположить таким образом, чтобы создаваемый ими поток воздуха проходил сквозь радиаторы процессоров и выходил наружу спереди сервера. Заднюю часть сервера необходимо заглушить, чтобы воздух туда не выходил, а шел только вперед, через процессоры. Я сделал это обычным канцелярским скотчем. Единственный момент — вентиляторы нужно выбрать такие из имеющихся, что создают минимальный шум при работе. Потребляемая сервером мощность в среднем составляет порядка 130 Вт, в принципе, чтобы выдуть такое количество тепла двух вентиляторов должно быть достаточно. А на время отладки использовал сборку из 6 компьютерных вентиляторов просто положив ее сверху.

Временный вариант

Временный вариант

После того, как сервер начал стартовать, на разъеме VGA появились сигналы и с помощью осциллографа получилось вычислить где там HS, а где VS. Далее припаиваем разъем и подключаем монитор. Любуемся картинкой)

Установка ОС

Установка ОС

Вначале я перепутал между собой сигналы R и B. Это выяснилось по неправильному оттенку картинки в винде. Также поначалу не хотели работать разъемы USB. Там мной были перепутаны сигналы D+ и D-. Как оказалось, китайцы в своих серверах не придерживаются стандартного цветового кода USB проводов. Выше в таблицах приведена уже поправленная распиновка.

После этого, я снес RAID массив, что там был, и создал новый, RAID 1, простое зеркалирование. Хотя для бытового использования больше подошел бы RAID 0, он обеспечивает более высокую скорость и полное использование объема обоих дисков. Но без резервирования. На созданный массив без проблем накатилась винда 10. Удивительно, но даже не потребовалось никаких танцев с бубнами и SCSI драйверами. Трех разъемов USB, кстати, вполне достаточно для работы. В одном торчит беспроводная клава/мышь, во втором – WiFi свисток, а третий для всяких флешек и прочего. У некоторых современных ноутов бывает и того меньше внешних разъемов USB.

Самодельные переходники

Самодельные переходники

Быстродействие такого компьютера сложно оценить на обычных бытовых задачах. Мало где требуется 72 Гб ОЗУ и 24 потока и не любое ПО способно загрузить их все. Но все равно попробуем. На старом ноутбуке, примерно тех лет, что и сервер, с процессором Core 2 Duo T5500, 3Гб ОЗУ и HDD диском некий скетч в Ардуино компилируется около 7 мин при первом запуске и 2 мин 37 с при последующих. На описанном в статье сервере это происходит за 2 мин 39 с и 1 мин 8 с, соответственно. На относительно новом игровом ноутбуке с процессором Core i7 10870H c 16 Гб ОЗУ и SSD дисками эта же компиляция занимает 1 мин 10 с и 31 с соответственно.

Но если использовать данный девайс именно как сервер, то без высокоскоростных интерфейсов Ethernet не обойтись. Согласно краткому описанию микросхемы Ethernet контроллера Broadcom BCM5715, она содержит в себе 2 независимых интерфейса Ethernet с выходными интерфейсами типа SerDes 1G. SerDes (Serializer/Deserializer) это физический интерфейс SGMII (Serial Gigabit Media Independent Interface). И представляет собой две дифференциальные пары RX и TX. К линиям SerDes можно непосредственно подключать SFP модули. Если, например, взять SFP модуль с медным интерфейсом RJ45, то мы получим обычную гигабитную сетевую карту. Для пробы я раздобыл один из таких модулей. Их цена на вторичном рынке порядка 500...1000 р (почти как сервер целиком). Я же приобрел новый на Алиэкспресс примерно за 8$ (вместе с доставкой). Осталось найти на плате сигналы RX и TX. Они должны выходить на внешний многоконтактный разъем. На плате мезонинов Ethernet-контроллеров были обнаружены группы конденсаторов по 4 шт в каждой.

Фото платы Ethernet-контроллеров

Фото платы Ethernet-контроллеров

Очевидно, это и есть разделительные конденсаторы пар RX и TX интерфейса SerDes. Осталось только вызвонить их тестером, на какие контакты внешнего разъема они идут, а осциллографом определить, кто из них RX, а кто TX. На TX должен быть виден какой-то сигнал. К сожалению, полярность тестером определить не получится, ее придется подбирать методом тыка. Это несложно, так как там всего 4 комбинации. В качестве проверки можно замкнуть этот интерфейс сам на себя, то есть соединить TX+ c RX+, а TX- c RX-. Например, перемычками.

Перемычки на интерфейсе Ethernet 6

Перемычки на интерфейсе Ethernet 6

При этом на соответствующем интерфейсе должен подняться линк.

Проверка наличия линка

Проверка наличия линка

Кстати сказать, линк поднимается даже если замкнуть только один провод из пары, да и полярность при этом не особо важна.

Многоконтактные разъемы

Многоконтактные разъемы

Сигналы многоконтактных разъемов, назначение которых получилось выяснить, приведены ниже. Также на этот разъем должны выходить линии интерфейса PCIe, а также линии для подключения клавиатуры и мыши по интерфейсу PS/2. Их я выискивать не стал, имеющихся интерфейсов USB оказалось достаточно.

Питание модуля можно взять с контакта 1А описанного выше маленького многоконтактного разъема, там как раз присутствует 3,3 В. Общий провод подключается к любым контактам GND. Сигналы выключения передатчика TX Disable, ошибки TX Fault и вход Rate Select никуда не идут уже на самом модуле, а значит и подключать их не нужно. Сигнал детектора несущей LOS можно также оставить неподключенным. Все равно, микросхема Broadcom определяет наличие сигнала сама по наличию синхронизации в потоке данных. Также можно оставить в воздухе сигналы MOD-DEFх. Между питанием 3,3 В и землей желательно припаять блокирующий конденсатор непосредственно на контакты самого модуля. Я не припаивал, вроде и так все стабильно работает. Провода сигнальных пар RD и TD необходимо свить.

SFP-модуль. Прикреплен стяжками к пластиковой направляющей

SFP-модуль. Прикреплен стяжками к пластиковой направляющей

Вместо медного SFP-модуля можно аналогичным образом подключать оптические модули и соединяться с любым другим сетевым оборудованием по оптоволокну. Если же одинаковые сервера расположены в непосредственной близости, их можно соединить напрямую интерфейсами SerDes с помощью только проводов, без каких-либо дополнительных преобразователей. Единственный момент – микросхема BCM5715 работает только на одной скорости – 1Gbit, поэтому и модули и сопрягаемое сетевое оборудование должно поддерживать работу на этой скорости.

Питание сервера от единственного источника +12 В открывает заманчивые возможности по организации его бесперебойного питания. Опытным путем было установлено, что сервер стабильно работает при снижении напряжения питания до 10,5 В. После чего отключаются диски и сервер вылетает в синий экран. Если бы не диски, сервер, наверное, позволял снижать напряжение и дальше. Диски, конечно, можно заменить на современные SSD, которые требуют только одного питания 5 В. Стандарт SAS позволяет напрямую подключать к себе как SATA, так и SAS диски. Их разъемы механически и электрически совместимы за исключением небольшой пластиковой перемычки. Перемычка не позволяет воткнуть диск SAS в разъем SATA, а наоборот – позволяет. Но диски SSD большого объема стоят недешево, с ними сервер перестает быть сервером за копейки.

Разъем подключения SAS-дисков

Разъем подключения SAS-дисков

10,5 В – это как раз и есть минимальное рабочее напряжение свинцово-кислотной батареи. А рабочее напряжение сервера 12,6 В равно напряжению полностью заряженной батареи. Можно подключить резервную батарею прямо параллельно шине питания сервера. Для зарядки батареи необходимо будет только добавить маломощный повышающий преобразователь 12 -> 15 В и несколько коммутирующих полевых транзисторов.

Однако я решил пойти несколько более сложным путем. Дело в том, что подходящей свинцовой батареи у меня не было, но зато скопилось большое количество б/у Li-Ion аккумуляторов типоразмера 18650 от отслуживших батарей питания ноутбуков. У значительного количества таких батарей была типовая неисправность – при длительном хранении встроенный микроконтроллер разряжает в ноль одну из трех последовательно включенных  ячеек батареи из-за чего вся батарея приходит в негодность. При этом неразряженные ячейки сохраняют работоспособность и даже иногда показывают паспортную емкость. Если соединить большое количество таких аккумуляторов параллельно, то вместе они обеспечат необходимую емкость и ток для работы сервера. Также при работе параллельно в большой группе нивелируется разброс их остаточной емкости.

Однако, подключить напрямую такую батарею к серверу уже не получится. Максимальное напряжение одной Li-Ion ячейки – 4,2 В. Если взять и включить 3 шт последовательно, то общее напряжение составит 12,6 В – что равно рабочему напряжению сервера. Однако минимальное напряжение ячейки – 2,5 В, и всей сборки – 7,5 В, что намного ниже минимально допустимых 10,5 В для сервера. Если включить 4 ячейки последовательно, то минимальное напряжение составит 10 В, что близко к 10,5. Зато недопустимо вырастет максимальное напряжение сборки – 16,8 В, что для сервера будет явно перебор. В общем, в любом случае придется добавлять какой-то преобразователь – стабилизатор напряжения. Повышающий в первом случае и понижающий во втором.

Я выбрал схему с первым вариантом. Повышающий преобразователь должен выдавать на выходе напряжение 12 В и ток до 20 А при минимальном входном напряжении около 8 В.

Рассмотрим схему устройства:

Полная схема устройства

Полная схема устройства

Повышающий преобразователь собран по прямоходовой схеме на широко известной микросхеме TL494 (или ее многочисленных аналогах). Эту микросхему можно добыть из старого компьютерного блока питания. Трансформатор также можно взять готовый из того же блока питания. При выборе донора следует отдать предпочтение наиболее фуфлыжному экземпляру – в них силовые трансформаторы самые крошечные, что в нашем случае только на руку. Трансформатор включен по автотрансформаторной схеме. Напряжение на выходной обмотке суммируется с входным напряжением. Таким образом, можно существенно облегчить работу преобразователя, ему потребуется перекачивать через себя не всю мощность, а только лишь добавить недостающее напряжение. Диодная сборка Шоттки и выходной дроссель также взяты готовые из того же блока питания – у дросселя используются те его обмотки, что ранее были подключены к каналу 5 В, это обычно две одинаковые обмотки, намотанные толстым проводом и включенные в параллель. Диодная сборка также взята из канала 5 В, они там обычно рассчитаны на 30 А. Силовые транзисторы можно взять из старых ИБП. Их множество различных номиналов, но обычно параметры у них примерно идентичные – максимальное напряжение 25-30 В и максимальный ток 50-100 А. Предпочтение следует отдать тем из них, что имеют минимальное сопротивление открытого канала (не более 5-10 мОм). Силовые транзисторы и особенно диодная сборка должны быть установлены на радиатор.

Выходные транзисторы микросхемы TL494 включены по схеме с общим коллектором, благодаря чему включение полевых транзисторов происходит быстро. Скорость ограничена сопротивлением резисторов R16 и R20. Чтобы и выключение происходило так же быстро, добавлены каскады на транзисторах VT5, VT6. Цепочки R23, C14 и R24, C15 демпфируют обмотки трансформатора, предотвращая звон при переключении. Их можно также целиком взять из донорского БП чтобы не заморачиваться с расчетом и подбором. Цепь, подключенная к выводу 4 микросхемы используется как для плавного пуска, так и для выключения преобразователя. По умолчанию через R15, R13 туда подается 5 В, конденсатор С3 разряжен и микросхема выключена.

Первичная обмотка трансформатора вообще то и не нужна. Но ее можно использовать для контроля исправности преобразователя. При работе преобразователя на ней появляются высоковольтные импульсы, которые выпрямляются диодом и через делитель поступают на вход микроконтроллера, сообщая тому что преобразователь функционирует.

ЧИТАТЬ ДАЛЕЕ ↩ (без регистрации и СМС)

Материал получился достаточно объемным и все подробности, к сожалению, не влезли.


Написано специально для Timeweb Cloudи читателей Пикабу. Больше интересных статей и новостей в нашем блоге на Хабре и телеграм-канале.

Хочешь стать автором (или уже состоявшийся автор) и есть, чем интересным поделиться в рамках наших блогов (за вознаграждение) — пиши сюда.

Показать полностью 24
IT Техника Электроника Timeweb Компьютерное железо Программирование Микроконтроллеры Сервер Длиннопост
313
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии