Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Онлайн охота, чат, создание карт, турниры, и многое другое!

Охотники против грызунов

Мультиплеер, Аркады, 2D

Играть

Топ прошлой недели

  • AlexKud AlexKud 35 постов
  • Animalrescueed Animalrescueed 52 поста
  • Webstrannik1 Webstrannik1 50 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
8
SlyVolunteer
SlyVolunteer
1 день назад
Бауманка

«Базис» открыл центр по подготовке ИТ-специалистов в МГТУ им. Н.Э. Баумана⁠⁠

Центр оснащен современными рабочими местами и будет использоваться студентами Бауманки по основному расписанию занятий.

Перейти к видео

В корпусе кампуса Бауманки «Базис» открыл центр по подготовке ИТ-специалистов

В церемонии открытия приняли участие директор по развитию стратегических проектов «Базиса» Владимир Татаринцев и руководитель Научно-учебного комплекса «Информатика и системы управления» МГТУ им. Н.Э. Баумана Андрей Пролетарский.

Крупнейший российский разработчик программного обеспечения для управления динамической ИТ-инфраструктурой «Базис» совместно с МГТУ им. Н.Э. Баумана реализовал проект по запуску специализированного центра по подготовке ИТ-специалистов. В церемонии открытия приняли участие директор по развитию стратегических проектов «Базиса» Владимир Татаринцев и руководитель Научно-учебного комплекса «Информатика и системы управления» МГТУ им. Н.Э. Баумана Андрей Пролетарский.

Пространство центра расположено в историческом корпусе химической лаборатории нового кампуса МГТУ им. Н.Э. Баумана (Бригадирский переулок, 13, стр. 1, аудитория 3.26) на кафедре «Программное обеспечение ЭВМ и информационные технологии», осуществляющей подготовку специалистов по направлению программной инженерии. Центр оснащён современными рабочими местами и будет использоваться студентами Бауманки по основному расписанию занятий — ежегодно на его базе будут обучаться от 500 человек. Здесь также возможно проведение внешних мероприятий: проектных сессий, мастер-классов и хакатонов.

ИТ-продукты «Базиса» также будут задействованы в рамках учебного курса, посвящённого практикам DevOps и управлению ИТ-средой. Кроме того, в ЦОД МГТУ им. Н.Э. Баумана разворачивается флагманская платформа серверной виртуализации Basis Dynamix, предназначенная для эффективного распределения вычислительных ресурсов и централизованного управления серверными мощностями.

«Сотрудничество с Бауманкой — это не просто вклад в подготовку инженерных кадров, а стратегическое партнёрство с одним из сильнейших технических вузов страны. В 2022 году университет среди первых четырёх вузов запустил образовательную программу „DevOps-инженер с нуля“, и сегодняшнее расширение взаимодействия стало логичным продолжением этой работы с использованием отечественного ПО „Базиса“. Мы видим реальную потребность в практико-ориентированном обучении и стремимся предоставить студентам доступ к современным инструментам управления динамической ИТ-инфраструктурой. Это критически важно для устойчивого развития отрасли и достижения технологической независимости», — подчеркнул Давид Мартиросов, генеральный директор «Базиса».

«Базис» системно развивает подготовку ИТ-специалистов и инженерных кадров. Собственная образовательная программа «DevOps-инженер с нуля» реализуется в более чем 40 вузах-партнерах и стала лауреатом «Премии Рунета» («Образование и кадры»), а также REFORUM AWARDS («Инновационные образовательные практики года»). В 2024 году обучение уже прошли более 12 тысяч студентов. В рамках программы будущие специалисты осваивают практические навыки работы с технологиями управления ИТ-инфраструктурой на базе полностью импортонезависимых решений.

«Открытие центра — пример содержательного взаимодействия университета с индустриальным партнёром. Студенты получают возможность осваивать востребованные компетенции в современной технологической среде, включая практику работы с отечественными платформами. Это повышает качество подготовки и приближает учебный процесс к задачам, с которыми они столкнутся в профессии», — отметил Андрей Пролетарский, руководитель Научно-учебного комплекса «Информатика и системы управления» МГТУ им. Н.Э. Баумана.

Источник: https://bmstu.ru/news/bazis-otkryl-centr-po-podgotovke-it-sp...

Upd. Привет подписчикам после бана и напоминание другим авторам тега Политика

Показать полностью 8
МГТУ им Баумана Базис DevOps Новости Видео Короткие видео Длиннопост
13
7
ABP2B.security
ABP2B.security
2 дня назад
Лига Сисадминов

IPAM-системы: почему Excel больше не спасает и что выбрать в России⁠⁠

Любая сеть растёт быстрее, чем ты успеваешь её документировать. Сначала у тебя десяток серверов и пара коммутаторов, можно вести учёт адресов в табличке. Но как только устройств становится сотни, а IP‑адресов тысячи, Excel превращается в минное поле.

Проблемы начинаются банально:

Один инженер раздал IP вручную, второй занял тот же диапазон под тест, подсеть легла. Забыли зафиксировать, кому выдан адрес, и теперь никто не понимает, что за «сервер Х» висит в мониторинге. Конфликт VLAN и вся смена сидит без CRM.

Классика. Если нет централизованного учёта, сеть рано или поздно начнёт «жечь костры».

Именно для этого придумали IPAM (IP Address Management) — системы, которые берут на себя:

  • учёт адресов, подсетей и VLAN;

  • контроль, чтобы два сервера не получили один и тот же IP

  • планирование — видно, где свободно, а где всё забито

  • быстрый поиск устройств по IP или MAC

  • аудит: кто, когда и что менял

  • интеграцию с DHCP/DNS, мониторингом и автоматизацией

По сути, IPAM — это не «удобная табличка», а фундамент нормальной сетевой гигиены.

Что сейчас есть на рынке (с акцентом на РФ)

ОдинХаб (Россия)

Форк NetBox, но подогнанный под российские реалии и требования регуляторов

  • Полностью русский интерфейс и поддержка.

  • У разработчиков есть лицензии ФСТЭК и ФСБ.

  • Совместим с Astra Linux, РЕД ОС, Альтом и Postgres Pro.

  • Бесплатная self‑hosted версия, платная поддержка (от ~100 тыс. в год).

  • Полный IPAM + учёт железа, стоек и кабелей, а также возможности DCIM‑системы (Data Center Infrastructure Management).

  • REST API, плагины (например, QR‑коды для инвентаризации или визуализация топологии), интеграция с Ansible, Zabbix, AD/LDAP.

NetBox Enterprise (США)

Один из самых популярных open source‑инструментов в мире.

  • Есть русская локализация от сообщества (сырая).

  • Enterprise стоит от 2,5 млн руб./год.

  • В РФ официально не работает.

  • Функционал очень широкий: IPAM, VLAN/VRF, учёт стоек, REST API, RBAC.

phpIPAM (Европа)

Open source‑»минималка» — только про IP.

  • Бесплатный, простой в установке.

  • Русский перевод кривоватый.

  • Есть базовый IPAM, VLAN/VRF, импорт/экспорт, автопоиск устройств.

  • Нет нормального RBAC, аудита, учёта железа и развитого API.

RackTables (Великобритания)

Больше про железо, чем про IP.

  • Бесплатный, без поддержки.

  • Можно учитывать стойки, сервера, кабели.

  • IPAM тут вторичен.

  • Нет API, нормального аудита, интеграций.

Infoblox (США)

Мастодонт уровня корпораций.

  • Лицензии от 40 млн руб./год (чисто ПО без поддержки).

  • Русского интерфейса нет.

  • В РФ фактически неприменим из‑за санкций.

NetZoom DCIM (США)

Фокус на DCIM, IPAM — второстепенная опция.

  • Стоимость: от 55 тыс. руб./год за пользователя.

  • Русской локализации нет.

  • Основное — учёт оборудования и кабелей, а не адресов.

Чем больше сеть, тем меньше работает «Excel‑менеджмент». IPAM‑системы уже давно перестали быть «игрушкой» и стали нормальным инструментом для любой серьёзной инфраструктуры.

И если сеть у вас растёт, однажды выбор IPAM всё равно придётся сделать. Вопрос только, на какой стадии: до того, как всё поломается, или после.

Показать полностью
[моё] Системное администрирование DevOps Сетевое оборудование Автоматизация Текст
10
51
0sennijLis
0sennijLis
8 дней назад
Лига Сисадминов

Делает ли домашняя лаборатория вас реально лучше в администрировании?⁠⁠

Представим себе ситуацию: вы уже третий час ковыряетесь в своей тестовой среде, вторник, одиннадцать вечера. Мимо проходит ваша жена и спрашивает:

— Это по работе?

И вы замираете. Потому что нет, не по работе. Вы просто тратите вечер на то, чтобы что-нибудь сломать и потом починить — ради того, чтобы разобраться.

Всё это ради того, чтобы потом наступил тот самый момент, когда на настоящей работе что-то рушится, все стоят в ступоре, а вы спокойны. Потому что именно это вы уже ломали дома. Семнадцать раз. Вы знаете, что делать. Знаете, куда смотреть. Вы уже были здесь.

Вот что даёт домашняя лаборатория. Она превращает теоретические знания в практические.

Вопрос, который задают все (и на который обычно дают сильно разные ответы)

Я много раз наблюдал, как инженеры мучаются с этим вопросом. Они видят, как кто-то дома собирает сложные стенды, запускает мини-копии продакшн-систем прямо у себя в квартире. И начинают думать: это вообще реально помогает, или тупо дорогое хобби?

Короткий ответ — зависит разумеется от того, что вы с этим делаете.

Развёрнутый ответ — если вы используете свой стенд, чтобы изучать то, к чему на работе вас не подпускают, вы прокачиваете навыки, которые однажды могут спасти вашу карьеру.

А если вы просто скупаете железки и бездумно повторяете туториалы — вы всего лишь собираете дорогую пыль.

Что на самом деле помогает на работе

Расскажу про одного человека, который собрал у себя дома небольшой кластер. Ничего особенного — просто старые компьютеры, базовые конфигурации, изучение основ.

А потом однажды на работе всё рухнуло. Продакшон упал наглухо. 18 часов на телефоне с поддержкой — и никуда не продвинулись. Команда в тупике. Полный ступор.

Этот человек за 8 часов поднял замену. Идеально ли всё работало? Нет. Готово ли было к долгой эксплуатации? Даже близко нет. Но система хотя бы продолжила жить, пока остальные искали нормальное решение.

Навыки, которые реально переносятся в работу

Помните, исследования показывают: студенты, которые не занимаются практикой, в полтора раза чаще проваливаются, чем те, кто работает руками. В технологиях всё то же самое.

Сети перестают быть чем-то непонятным, когда вы пытаетесь разобраться, почему контейнеры видят друг друга, но не выходят в интернет. Хранилища начинают иметь смысл, когда вы забиваете диск под завязку и видите, как всё начинает тормозить. Бэкапы становятся настоящими, когда вы теряете данные, которые вам были дороги.

Это не самые эффектные навыки. Но когда на собеседовании вас спрашивают: «объясните, как работает этот сетевой механизм», и вы отвечаете не по учебнику, а из собственного опыта — это совсем другое ощущение.

Вы учитесь, ломая вещи. Потом чиня их. Потом ломая снова — но уже по-другому.

«Но у меня нет на это денег»

Вы видите все эти навороченные домашние кластеры (ну или слышите про них) и думаете, что нужно потратить несколько десятков тысяч рублей. На самом деле нет, не нужно.

Ваша тренировочная площадка может быть:

  • парой виртуалок на ноутбуке,

  • бесплатными облачными сервисами, где можно поиграться,

  • старым компом, пылящимся в шкафу,

  • или просто вашим основным компьютером, когда вы им не пользуетесь.

Тренировочная среда — это любое место, где можно безопасно накосячить. Ей не нужно выглядеть круто. Главное — чтобы вы могли ломать что угодно, не ломая работу.

Когда домашние лаборатории не помогают (чтобы быть уж до конца честными)

Ваш стенд не научит вас всему. Вы ведь не управляете доступом для 500 инженеров. Не имеете дела с корпоративными правилами и бесконечными согласованиями, которые растягиваются на недели.

Проблемы, которые вы решаете дома, совсем другие. Дома вы боретесь с дешёвым железом и странными сетевыми глюками. На работе — с политиками безопасности и… другими людьми. (А это порой куда сложнее любой технической задачи.)

Но что действительно переносится — это способ мышления. Та самая уверенность, когда вы уже десятки раз всё ломали и чинили. Узнавание шаблонов, которое помогает сразу понять, куда смотреть.

Согласно исследованиям 2025 года, ИИ ускоряет обучение с беспрецедентной скоростью — и может сделать инженеров в пять раз эффективнее. В сочетании с практикой это буквально меняет темп, с которым вы осваиваете новое.

Некоторые отличные инженеры, которых я знаю, вообще не интересуются домашними лабораториями. Им просто не хочется тратить время на это — и это нормально. Не всем нужно, чтобы технологии были ещё и хобби.

Но если вы только входите в профессию, хотите расти быстрее, чем позволяет работа, или стремитесь разобраться в вещах, на которые на проекте нет времени — тогда домашняя лаборатория — это невероятно эффективный инструмент.

Что реально работает (по опыту тех, кто это сделал)

Инженеры, у которых действительно есть результаты, не просто запускают сервисы. Они строят окружения, похожие на рабочие.

Кто-то крутит кластеры из разных типов виртуалок. Кто-то использует облака — и при этом держит расходы почти на нуле. Кто-то собирает полноценные стеки, а потом переносит эти же шаблоны в прод, когда нужно.

Один из самых эффективных подходов — собрать полноценную систему локально. Не демо “для галочки”, а полный стек: всё связано между собой, есть базы данных, кеш, мониторинг и автоматическое деплоймент. Настоящая продакшн-система, только у вас на ноутбуке.

Общая черта у всех, кто получил пользу от такого подхода, — они снова и снова что-то строят, ломают и чинят. Вот это и есть практика. Именно она формирует навык.

То, о чём обычно не говорят

Домашние лаборатории дают вам преимущество — но не такое, как вы думаете.

Они не делают вас умнее. Не заменяют годы настоящего опыта. И сами по себе не превращают вас в синьора.

Но они дают вам «повторы». А исследования показывают, что при практическом обучении люди усваивают на 25–60% больше информации, чем при обычных методах.

Когда продакшн падает, и все ищут, кто это починит, вы хотите быть тем, кто спокоен. Потому что вы уже видели что-то подобное. Может, не в таком масштабе, не с такими симптомами — но достаточно близко, чтобы мозг знал, с чего начать.

Разница между тем, кто впадает в ступор во время инцидента, и тем, кто спокойно начинает разбираться, чаще всего сводится к опыту. Если вы дома регулярно что-то ломали и чинили, вырабатывается системное мышление.

Домашние стенды развивают распознавание паттернов. Инстинкт починки. Понимание, куда смотреть первым делом, когда всё горит.

Ошибки всё равно будут. Паника — тоже. Но у вас будет больше инструментов в голове. А это и есть разница между тем, кто замирает, и тем, кто начинает действовать.

Как начать, не закапываясь в планировании

Вам не нужен план. Вам не нужно что-то покупать. Вам не нужно уже сейчас понимать, что именно вы делаете.

Выберите одну вещь, которую хотите понять лучше. Всего одну.

Хотите разобраться в контейнерах? Начните с простого. Хотите освоить автоматизацию? Настройте одну базовую задачу. Хотите понять мониторинг? Поставьте инструмент, который отслеживает производительность, и сломайте что-нибудь, чтобы было что мониторить.

Ключ — сделать всё достаточно «настоящим», чтобы при поломке вам пришлось действительно чинить, а не просто перезапускать туториал. Думать, читать логи, формулировать гипотезы, проверять их.

Проблема с резюме (которую домашняя лаборатория сама по себе не решит)

Можно собрать идеальный стенд, досконально знать, как всё работает, — и при этом так ни разу и не пройти первичный отбор.

Прежде чем кто-то вообще увидит ваше резюме или спросит о проектах, решение принимает софт. Большинство анкет отбрасывается за десять секунд — системой, которая ищет конкретные слова в конкретных местах.

Поэтому ваш опыт с домашними проектами должен быть описан так, чтобы его понимали и алгоритмы, и люди.

Что это всё на самом деле значит

Настоящая ценность — не в железе, не в тулзах и даже не в сертификатах.

Ценность — в уверенности, которая приходит, когда вы уже делали что-то своими руками. Когда знаете: да, всё сломается — но у вас есть способ разобраться. Вы уже были в этом месте. Может, не точно в таком, но достаточно близко.

Когда я вижу инженеров с домашними лабораториями и без — разница видна сразу. Те, кто практикуется, мыслят системно. Знают, куда смотреть. Не паникуют, когда что-то не работает с первого раза — потому что уже поняли, что это нормально.

Остальные всё ещё ожидают, что всё заработает сразу. Быстрее застревают. Ждут, пока кто-то подскажет ответ.

Вот навык, который вы действительно развиваете. Не просто техническую экспертизу. А способность разобраться, когда рядом никого нет.

Даже опытные инженеры косячат в своих лабораториях. Именно это и есть показатель роста. В тот момент, когда вы перестаёте что-то ломать, вы перестаёте развиваться.

Так что идите и сломайте что-нибудь. Нарочно. Посмотрите, что произойдёт. Именно тем и живёт настоящее обучение.

Показать полностью
IT Системное администрирование Сисадмин DevOps Продакшн Исследования Текст Длиннопост
27
10
Tukamat
Tukamat
10 дней назад
Лига Сисадминов

Cilium как универсальный компонент Kubernetes-инфраструктуры: от CNI до Service Mesh⁠⁠

Всем привет! На связи Алексей Баранович, сегодня я хочу вам рассказать о Cilium.

В современных Kubernetes-платформах стремление к упрощению архитектуры и снижению числа зависимостей становится всё более актуальным. Особенно это заметно при построении MVP-решений или управляемых платформ, где каждый дополнительный компонент — это не только рост сложности, но и увеличение поверхности для потенциальных сбоев и уязвимостей. В этом контексте Cilium выделяется как один из немногих проектов, способных заменить сразу несколько традиционных инструментов: CNI-плагин, Ingress-контроллер, Service Mesh и даже внешний LoadBalancer. Давайте разберёмся, как это работает и почему Cilium может стать единственным «сетевым» компонентом в вашем кластере.

Cilium как CNI: основа всего

Изначально Cilium позиционировался как высокопроизводительный CNI-плагин, использующий eBPF (extended Berkeley Packet Filter) вместо iptables или IPVS. Это даёт не только значительный прирост производительности, но и гибкость на уровне ядра Linux: политики сети, observability, балансировка трафика — всё это реализуется без перезаписи цепочек правил или установки дополнительных прокси.

Но Cilium быстро вырос за рамки CNI. Сегодня он предлагает полноценную платформу для сетевой и сервисной безопасности, объединяя в себе функциональность, которая раньше требовала развёртывания десятков отдельных компонентов.

Установка Cilium через Helm

Самый распространённый способ установки Cilium — через Helm. Сначала добавьте официальный репозиторий:

helm repo add cilium https://helm.cilium.io/

helm repo update

Затем установите с базовыми настройками (для большинства сред подойдёт):

helm install cilium cilium/cilium \

--namespace kube-system \

--set ipam.mode=kubernetes

Если вы хотите использовать собственный Pod CIDR (например, 10.224.0.0/13), как часто делают в on-prem:

helm install cilium cilium/cilium \

--namespace kube-system \

--set ipam.mode=cluster-pool \

--set ipam.operator.clusterPoolIPv4PodCIDRList="{10.224.0.0/13}" \

--set ipam.operator.clusterPoolIPv4MaskSize=22 \

--set ipv4NativeRoutingCIDR=10.224.0.0/13 \

--set routingMode=native \

--set autoDirectNodeRoutes=true

Эти параметры включают режим cluster-pool для IPAM и native routing через eBPF, что даёт максимальную производительность без kube-proxy.

Встроенный LoadBalancer без MetalLB или облачных провайдеров

Одна из самых болезненных тем в on-prem Kubernetes — отсутствие встроенного решения для внешнего LoadBalancer. Обычно приходится ставить MetalLB, использовать внешние балансировщики или обходиться NodePort.

Cilium решает эту проблему с помощью BGP-интеграции и DSR (Direct Server Return). Начиная с версии 1.13, Cilium поддерживает собственный L2 и BGP-режимы для сервисов типа LoadBalancer, что позволяет:

  • Назначать внешние IP-адреса сервисам без MetalLB.

  • Работать в bare-metal и виртуальных средах (включая VMware).

  • Использовать DSR для минимизации latency и снижения нагрузки на worker-ноды.

Чтобы включить встроенный LoadBalancer через Helm:

helm install cilium cilium/cilium \

--namespace kube-system \

--set loadBalancer.mode=dsr \

--set loadBalancer.acceleration=native \

--set loadBalancer.serviceTopology=true

Если вы используете BGP, добавьте:

--set loadBalancer.mode=bgp \

--set loadBalancer.bgp.announce=pool

И определите IP-пул в ConfigMap или через Helm-параметры, например:

--set loadBalancer.ipam.kubernetes.serviceIPBlocks="{192.168.10.0/24}"

Теперь любой Service с типом LoadBalancer автоматически получит IP из этого пула.

Gateway API: единая модель для Ingress и Egress

Традиционные Ingress-контроллеры (Nginx, Traefik, HAProxy) требуют отдельного развёртывания, настройки TLS, rate limiting, WAF и т.д. Cilium предлагает нативную поддержку Kubernetes Gateway API — современного стандарта управления трафиком, который заменяет устаревший Ingress API.

Чтобы включить Gateway API в Cilium, достаточно установить:

helm install cilium cilium/cilium \

--namespace kube-system \

--set gatewayAPI.enabled=true

После этого вы можете создавать ресурсы Gateway, HTTPRoute и другие. Пример Gateway:

apiVersion: gateway.networking.k8s.io/v1

kind: Gateway

metadata:

name: public-gateway

namespace: default

spec:

gatewayClassName: cilium

listeners:

- name: http

port: 80

protocol: HTTP

И HTTPRoute:

apiVersion: gateway.networking.k8s.io/v1

kind: HTTPRoute

metadata:

name: my-app-route

namespace: default

spec:

parentRefs:

- name: public-gateway

rules:

- matches:

- path:

type: PathPrefix

value: /api

backendRefs:

- name: my-app

port: 8080

Всё это работает без sidecar-прокси, благодаря eBPF и L7-парсингу на уровне ядра.

Service Mesh без Istio: Cilium + Envoy (опционально)

Istio — мощный, но тяжёлый Service Mesh. Он требует внедрения sidecar-прокси (Envoy) в каждый под, что увеличивает потребление ресурсов и усложняет отладку.

Cilium предлагает альтернативу: Cilium Service Mesh. Он реализует ключевые функции Service Mesh:

  • mTLS между сервисами (на основе SPIFFE/SPIRE или собственного PKI).

  • L7-наблюдаемость (HTTP, gRPC, Kafka).

  • Трассировка (через OpenTelemetry).

  • Retry, timeout, circuit breaking — через Envoy только при необходимости.

Чтобы включить базовые функции Service Mesh через Helm:

helm install cilium cilium/cilium \

--namespace kube-system \

--set l7Proxy=true \

--set hubble.enabled=true \

--set hubble.relay.enabled=true \

--set hubble.ui.enabled=true \

--set securityContext.capabilities.ciliumAgent="{CHOWN,KILL,NET_ADMIN,NET_RAW,IPC_LOCK,SYS_ADMIN,SYS_RESOURCE,DAC_OVERRIDE,FOWNER,SETGID,SETUID}"

Для mTLS:

--set encryption.enabled=true \

--set encryption.type=wireguard

Или для TLS на уровне сервисов:

--set serviceMesh.enabled=true

Если нужны продвинутые L7-политики с Envoy:

--set envoy.enabled=true

При этом sidecar не обязателен: базовые функции (шифрование, политики, метрики) работают через eBPF. Envoy подключается лишь тогда, когда нужны продвинутые L7-фичи. Это даёт гибкость: вы получаете Service Mesh без накладных расходов там, где он не нужен.

Cluster Mesh: много-кластерная сеть «из коробки»

Если у вас несколько Kubernetes-кластеров (например, dev/stage/prod или multi-region), традиционно для их объединения требуются сложные решения: submariner, istio multi-cluster, custom overlay-сети.

Cilium предлагает Cluster Mesh — встроенную возможность объединять кластеры в единую логическую сеть:

  • Сервисы из одного кластера доступны в другом по DNS-имени.

  • Единые сетевые политики применяются кросс-кластерно.

  • Поддержка identity-based security (не привязка к IP!).

Для включения Cluster Mesh нужно:

  1. Установить Cilium в каждом кластере с уникальным cluster.id и cluster.name.

  2. Настроить общий etcd или использовать clustermesh-apiserver.

Пример установки с поддержкой Cluster Mesh:

helm install cilium cilium/cilium \

--namespace kube-system \

--set cluster.name=cluster-a \

--set cluster.id=1 \

--set clustermesh.enabled=true \

--set clustermesh.useAPIServer=true

Затем выполнить настройку связи между кластерами с помощью cilium-cli:

cilium clustermesh enable --context cluster-a

cilium clustermesh enable --context cluster-b

cilium clustermesh connect cluster-a cluster-b

После этого сервисы автоматически станут доступны через DNS вида <service>.<namespace>.svc.clusterset.local.

Заключение

Cilium — это не просто CNI. Это единая платформа для всего сетевого стека Kubernetes, которая позволяет отказаться от Nginx Ingress, MetalLB, Istio и даже внешних балансировщиков в большинстве сценариев. Для инженеров, строящих управляемые, безопасные и минималистичные Kubernetes-платформы, Cilium становится не просто выбором, а стратегическим решением.

Если вы стремитесь к «меньше компонентов — больше контроля», Cilium стоит рассмотреть уже сегодня.

Показать полностью
[моё] Kubernetes DevOps Текст Длиннопост
5
21
Tukamat
Tukamat
10 дней назад
Лига Сисадминов

Talos OS — способ сделать Kubernetes безопасным⁠⁠

Привет, друзья! Меня зовут Алексей Баранович, и сегодня я хочу рассказать о системе, которая кардинально изменила мой подход к развёртыванию и управлению Kubernetes — Talos Linux. Это не просто «ещё одна лёгкая ОС». Talos — это операционная система, спроектированная исключительно для Kubernetes, с философией иммутабельности, безопасности и полной автоматизации. Давайте разберёмся, почему он действительно крут — и что он умеет «из коробки».

Talos Linux: Kubernetes-нативная ОС нового поколения

Talos Linux — это open-source операционная система, разработанная компанией Sidero Labs, которая полностью отказывается от традиционных концепций Linux-дистрибутивов. В Talos нет:

  • пакетного менеджера (apt, yum, dnf);

  • shell-доступа (даже для root);

  • SSH-сервера;

  • возможности редактировать файлы вручную после загрузки.


Всё управление происходит через единый gRPC API, защищённый mTLS, и утилиту командной строки talosctl.

Официальный сайт

Полная документация

Иммутабельность и безопасность как основа

  • Корневая файловая система Talos монтируется только для чтения. Это означает:

  • Невозможно случайно или злонамеренно изменить системные файлы.

  • Все обновления — атомарные: система загружается либо полностью новой версией, либо откатывается.

  • Минимальная поверхность атаки: в образе нет интерпретаторов (Python, Bash), ненужных библиотек или демонов.

Даже диагностика не требует shell: для просмотра логов, состояния сервисов или ядра используется утилита osctl, работающая поверх API.

Подробнее о модели безопасности

Декларативная конфигурация: один YAML на всё

Вся конфигурация Talos задаётся в одном файле — machine.yaml. Он описывает:

  • тип ноды (control plane или worker);

  • сетевые настройки;

  • параметры времени и сертификатов;

  • статические поды (если нужны);

  • настройки kubelet и kube-proxy.

Пример минимальной конфигурации control plane:

version: v1alpha1

machine:

type: controlplane

token: supersecret

ca:

crt: LS0t...

key: LS0t...

cluster:

id: my-cluster

controlPlane:

endpoint: https://192.168.1.10:6443

Этот файл передаётся ноде при загрузке (через cloud-init, ISO, PXE и т.д.) и не может быть изменён вручную — только через обновление через talosctl apply.

Примеры конфигураций

Сетевая подсистема: что есть «из коробки»?

Важный момент: Talos не включает CNI по умолчанию. Однако он нативно поддерживает Flannel как встроенный CNI-плагин. Это означает, что при указании:

cluster:

network:

cni:

name: flannel

Flannel будет автоматически развёрнут как часть bootstrap-процесса — без необходимости применять манифесты вручную.

Если вы хотите использовать другой CNI (Calico, Cilium, Weave и т.д.), его нужно устанавливать вручную после инициализации кластера, например, через kubectl apply или Helm. Talos не навязывает выбор — он даёт вам чистую, предсказуемую основу.

Поддерживаемые CNI

Полный жизненный цикл кластера — без ручного вмешательства

  • Talos управляет не только запуском Kubernetes, но и всем его жизненным циклом:

  • Инициализация кластера: talosctl bootstrap — инициирует etcd и control plane.

  • Обновление ОС и Kubernetes: через talosctl upgrade — с возможностью отката.

  • Резервное копирование etcd: talosctl etcd backup — создаёт снапшоты etcd.

  • Восстановление из бэкапа: talosctl etcd restore.

  • Безопасное удаление нод: talosctl reset — полностью очищает ноду.

Всё это работает без shell, без SSH, без риска человеческой ошибки.

Управление кластером

Локальная разработка и тестирование

Хотите попробовать Talos? За пару минут можно развернуть кластер на своём ноутбуке:

talosctl cluster create --nodes 3 --controlplanes 1

Это запустит виртуальные машины через QEMU или Docker (в зависимости от ОС), настроит сеть и выдаст готовый kubeconfig.

Локальные платформы

Почему Talos — это прорыв?

  • Предсказуемость: все ноды идентичны, конфигурация декларативна.

  • Безопасность: нет shell, нет пакетов, только необходимый минимум.

  • Автоматизация: всё через API, идеально для GitOps и CI/CD.

  • Сертификация: Talos прошёл официальные тесты CNCF Kubernetes Conformance.

Результаты conformance-тестов

Полезные ссылки

GitHub

Документация:

CLI-инструменты: talosctl

Сообщество в Slack:

Заключение

Talos Linux — это не просто инструмент, а новая парадигма управления инфраструктурой. Он убирает всё лишнее, оставляя только то, что нужно для надёжного и безопасного запуска Kubernetes. Если вы устали от «снежинок-серверов», ручных правок и нестабильных обновлений — пришло время попробовать Talos.

Удачи в автоматизации, и пусть ваши кластеры будут иммутабельными!

Показать полностью
[моё] Linux Kubernetes DevOps Кластер Текст Длиннопост
10
40
Sheridan.ru
Sheridan.ru
22 дня назад
Лига Сисадминов

А я тут live дистрибутив собираю, CephOS⁠⁠

Приветствую! :)

Зовут меня Sheridan и я алкоголик гентушник. 0x14 лет уже в emerge медитирую. А кнопки нажимаю и того больше.

Захотелось мне домой NAS. Хорошая штука, удобная. Да только вот ничего меня из того, что есть, не устраивало. А потом я узнал про распределённые ФС. А потом узнал про ceph (кстати, советую почитать это - неплохо для понимания что такое ceph). И захотел себе этот самый ceph домой. Не спрашивайте - зачем. Потому что могу :)

Долго ли коротко я эту хотелку в себе носил, да только вот недавно обломились мне несколько корпусов серверных. И железо дома накопилось разное. Решил, что пора действовать. Ну, железо в кучу собрать да от пыли почистить недолго, а вот ceph развернуть там-же - жалко диски то. Это ж целых как минимум два диска надо в btrfs raid положить, чтобы / там себя чувствовало нормально и у меня голова не болела на тему "А что если диск всё? Переустанавливать?".

И вспомнил я тут про SmartOS. А что, удобно! Грузимся с флешки а все диски гипервизору отдаём и радуемся. Поискал такое про ceph и не нашёл. Штош, думаю, зря я с железа компрессором пыль сдувал? Надо писать.

Ну, и, собственно, вот: CephOS. Уже 0.0.6beta, почти релиз. Обкатываю как раз на железе, ищу слабые стороны.

Без ai тут не обошлось, да. Чукча не художник, чукча девопс :)

Без ai тут не обошлось, да. Чукча не художник, чукча девопс :)

Идея такая:

  • Загружаем с флешек несколько хостов

  • Выполняем на каждом несколько команд

  • ...

  • PROFIT!

Взял я в руки дебьяновый live-build и полез в него встраивать ceph. И скриптами обмазывать. И метриками обкладывать. Куда-ж без метрик то?

И вот что в итоге получилось:

  • Live дистрибутив, предназначенный для поднятия кластера ceph

  • Дистрибутив умеет в persistence (настройки/изменения в / будут храниться на другом разделе/устройстве)

  • Про ceph можно ничего не знать

  • Можно просто выключить ноду и хранилище не пострадает

  • Можно добавить дисков, хостов и хранилище просто увеличится.

  • Можно удалять из хранилища диски и хосты

  • Метрики, метрики, мои любимые метрики :) От node_exporter до smatrctl_exporter. К тому же есть специальный helper-генератор конфига для prometheus, чтобы не приходилось врукопашную все эти хосты подключать.

  • Для более лёгкого подключения есть специальный скрипт, который складывает всё нужное в архив. Этот архив потом нужно забрать на хост клиента, разложить оттуда всё по местам, выбрать и установить нужный вариант монтирования. Ну, в смысле можно руками, можно в fstab, а можно и systemd юнитами монтировать.

  • Можно управлять сжатием CephFS

  • Ну и никто не отнимает стандартный ceph cli, ежели надо чтото сделать, что скриптами ещё не обмазано. Или написать ишью в github проекта - вполне возможно, что обмажу :)

  • Debian bookworm, Ceph squid

Да, флешки менее надёжны, чем hdd. Но флешки категорически дешевле. Да, флешки медленнее hdd. Но это не сильно то и надо в контексте CephOS. Вдобавок live-build поддерживает persistent разделы - то есть можно условный /var/lib/ceph положить на отдельный ssd и оно ещё до загрузки основной системы примонтируется куда надо. Флешка ушла к тёмным магистрам? Ну и дырку на ней в небе, мы с другой загрузимся и заново подключим ноду к хранилищу. Удобно!

Ориентирован CephOS на soho сегмент, где особо не нужны высокие скорости и сверхвысокая надёжность. То есть можно поднять вообще на хламе. То есть не надо это сравнивать с промышленными Ceph кластерами на десятки хостов (хотя ничего не мешает и на CephOS это поднять). А для дома, я считаю, самое то, если завалялось штуки три комплекта старого железа :)

Как? Скачиваем cephos_installer_0.0.6beta.run, записываем несколько флешек, втыкаем флешки в хосты, выполняем на хостах несколько команд, генерируем и забираем архив со всем необходимым для монтирования, монтируем, пользуемся. Всё :)

А ежели поподробнее интересно, то вот тут моя шпаргалка по подъёмы CephOS в виртуалках и на железном полигоне

И мне нужна ваша помощь.

Если у кого есть возможность - протестируйте пожалуйста. Баги/вопросы/пожелания/проклятия в ишью забрасывайте. А если вы с ceph работаете, то я бы очень хотел от вас советов полезных. Мои то два глаза ещё зоркие вроде, но это глаза автора. А нужны глаза пользователей :)

Спасибо, что прочитали эту простыню :)

Показать полностью 1
[моё] Linux IT Файловое хранилище DevOps Системное администрирование Debian Длиннопост
36
1918
Hagok
Hagok
28 дней назад

500 рублёв⁠⁠

500 рублёв
Показать полностью 1
500 рублей Картинки DevOps Контент нейросетей
60
oyalchan
oyalchan
1 месяц назад

Хочу найти стажировку в IT...⁠⁠

Искал на hh.ru много предложений, много откликался. Больше откликался на стажировки с Python разработкой и DevOps. У меня из основных навыков - Python, Linux, SQL. Не против найти стажировку с другими языками. С каждым разом убеждаюсь, что нереально сейчас найти даже стажировку в IT..

Не могу не сказать тот факт, что несколько лет назад брали сразу на оплачиваемую работу полностью без опыта! Я уверен, что в процессе работы можно и так научиться всему, но щас работодатели ждут от стажёра уже приличных навыков. О май гад.. щас даже на стажировку не попадешь. Связей у меня нет в IT, чтобы БЫЛ ШАНС устроится на работу в IT(в других сферах связей тоже нет) У кого был опыт стажировки - посоветуйте пожалуйста норм компании и как устроиться в эти компании..

[моё] Python IT DevOps SQL Программист Linux Текст
34
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии