
Лига Сисадминов
Делает ли домашняя лаборатория вас реально лучше в администрировании?
Представим себе ситуацию: вы уже третий час ковыряетесь в своей тестовой среде, вторник, одиннадцать вечера. Мимо проходит ваша жена и спрашивает:
— Это по работе?
И вы замираете. Потому что нет, не по работе. Вы просто тратите вечер на то, чтобы что-нибудь сломать и потом починить — ради того, чтобы разобраться.
Всё это ради того, чтобы потом наступил тот самый момент, когда на настоящей работе что-то рушится, все стоят в ступоре, а вы спокойны. Потому что именно это вы уже ломали дома. Семнадцать раз. Вы знаете, что делать. Знаете, куда смотреть. Вы уже были здесь.
Вот что даёт домашняя лаборатория. Она превращает теоретические знания в практические.
Вопрос, который задают все (и на который обычно дают сильно разные ответы)
Я много раз наблюдал, как инженеры мучаются с этим вопросом. Они видят, как кто-то дома собирает сложные стенды, запускает мини-копии продакшн-систем прямо у себя в квартире. И начинают думать: это вообще реально помогает, или тупо дорогое хобби?
Короткий ответ — зависит разумеется от того, что вы с этим делаете.
Развёрнутый ответ — если вы используете свой стенд, чтобы изучать то, к чему на работе вас не подпускают, вы прокачиваете навыки, которые однажды могут спасти вашу карьеру.
А если вы просто скупаете железки и бездумно повторяете туториалы — вы всего лишь собираете дорогую пыль.
Что на самом деле помогает на работе
Расскажу про одного человека, который собрал у себя дома небольшой кластер. Ничего особенного — просто старые компьютеры, базовые конфигурации, изучение основ.
А потом однажды на работе всё рухнуло. Продакшон упал наглухо. 18 часов на телефоне с поддержкой — и никуда не продвинулись. Команда в тупике. Полный ступор.
Этот человек за 8 часов поднял замену. Идеально ли всё работало? Нет. Готово ли было к долгой эксплуатации? Даже близко нет. Но система хотя бы продолжила жить, пока остальные искали нормальное решение.
Навыки, которые реально переносятся в работу
Помните, исследования показывают: студенты, которые не занимаются практикой, в полтора раза чаще проваливаются, чем те, кто работает руками. В технологиях всё то же самое.
Сети перестают быть чем-то непонятным, когда вы пытаетесь разобраться, почему контейнеры видят друг друга, но не выходят в интернет. Хранилища начинают иметь смысл, когда вы забиваете диск под завязку и видите, как всё начинает тормозить. Бэкапы становятся настоящими, когда вы теряете данные, которые вам были дороги.
Это не самые эффектные навыки. Но когда на собеседовании вас спрашивают: «объясните, как работает этот сетевой механизм», и вы отвечаете не по учебнику, а из собственного опыта — это совсем другое ощущение.
Вы учитесь, ломая вещи. Потом чиня их. Потом ломая снова — но уже по-другому.
«Но у меня нет на это денег»
Вы видите все эти навороченные домашние кластеры (ну или слышите про них) и думаете, что нужно потратить несколько десятков тысяч рублей. На самом деле нет, не нужно.
Ваша тренировочная площадка может быть:
парой виртуалок на ноутбуке,
бесплатными облачными сервисами, где можно поиграться,
старым компом, пылящимся в шкафу,
или просто вашим основным компьютером, когда вы им не пользуетесь.
Тренировочная среда — это любое место, где можно безопасно накосячить. Ей не нужно выглядеть круто. Главное — чтобы вы могли ломать что угодно, не ломая работу.
Когда домашние лаборатории не помогают (чтобы быть уж до конца честными)
Ваш стенд не научит вас всему. Вы ведь не управляете доступом для 500 инженеров. Не имеете дела с корпоративными правилами и бесконечными согласованиями, которые растягиваются на недели.
Проблемы, которые вы решаете дома, совсем другие. Дома вы боретесь с дешёвым железом и странными сетевыми глюками. На работе — с политиками безопасности и… другими людьми. (А это порой куда сложнее любой технической задачи.)
Но что действительно переносится — это способ мышления. Та самая уверенность, когда вы уже десятки раз всё ломали и чинили. Узнавание шаблонов, которое помогает сразу понять, куда смотреть.
Согласно исследованиям 2025 года, ИИ ускоряет обучение с беспрецедентной скоростью — и может сделать инженеров в пять раз эффективнее. В сочетании с практикой это буквально меняет темп, с которым вы осваиваете новое.
Некоторые отличные инженеры, которых я знаю, вообще не интересуются домашними лабораториями. Им просто не хочется тратить время на это — и это нормально. Не всем нужно, чтобы технологии были ещё и хобби.
Но если вы только входите в профессию, хотите расти быстрее, чем позволяет работа, или стремитесь разобраться в вещах, на которые на проекте нет времени — тогда домашняя лаборатория — это невероятно эффективный инструмент.
Что реально работает (по опыту тех, кто это сделал)
Инженеры, у которых действительно есть результаты, не просто запускают сервисы. Они строят окружения, похожие на рабочие.
Кто-то крутит кластеры из разных типов виртуалок. Кто-то использует облака — и при этом держит расходы почти на нуле. Кто-то собирает полноценные стеки, а потом переносит эти же шаблоны в прод, когда нужно.
Один из самых эффективных подходов — собрать полноценную систему локально. Не демо “для галочки”, а полный стек: всё связано между собой, есть базы данных, кеш, мониторинг и автоматическое деплоймент. Настоящая продакшн-система, только у вас на ноутбуке.
Общая черта у всех, кто получил пользу от такого подхода, — они снова и снова что-то строят, ломают и чинят. Вот это и есть практика. Именно она формирует навык.
То, о чём обычно не говорят
Домашние лаборатории дают вам преимущество — но не такое, как вы думаете.
Они не делают вас умнее. Не заменяют годы настоящего опыта. И сами по себе не превращают вас в синьора.
Но они дают вам «повторы». А исследования показывают, что при практическом обучении люди усваивают на 25–60% больше информации, чем при обычных методах.
Когда продакшн падает, и все ищут, кто это починит, вы хотите быть тем, кто спокоен. Потому что вы уже видели что-то подобное. Может, не в таком масштабе, не с такими симптомами — но достаточно близко, чтобы мозг знал, с чего начать.
Разница между тем, кто впадает в ступор во время инцидента, и тем, кто спокойно начинает разбираться, чаще всего сводится к опыту. Если вы дома регулярно что-то ломали и чинили, вырабатывается системное мышление.
Домашние стенды развивают распознавание паттернов. Инстинкт починки. Понимание, куда смотреть первым делом, когда всё горит.
Ошибки всё равно будут. Паника — тоже. Но у вас будет больше инструментов в голове. А это и есть разница между тем, кто замирает, и тем, кто начинает действовать.
Как начать, не закапываясь в планировании
Вам не нужен план. Вам не нужно что-то покупать. Вам не нужно уже сейчас понимать, что именно вы делаете.
Выберите одну вещь, которую хотите понять лучше. Всего одну.
Хотите разобраться в контейнерах? Начните с простого. Хотите освоить автоматизацию? Настройте одну базовую задачу. Хотите понять мониторинг? Поставьте инструмент, который отслеживает производительность, и сломайте что-нибудь, чтобы было что мониторить.
Ключ — сделать всё достаточно «настоящим», чтобы при поломке вам пришлось действительно чинить, а не просто перезапускать туториал. Думать, читать логи, формулировать гипотезы, проверять их.
Проблема с резюме (которую домашняя лаборатория сама по себе не решит)
Можно собрать идеальный стенд, досконально знать, как всё работает, — и при этом так ни разу и не пройти первичный отбор.
Прежде чем кто-то вообще увидит ваше резюме или спросит о проектах, решение принимает софт. Большинство анкет отбрасывается за десять секунд — системой, которая ищет конкретные слова в конкретных местах.
Поэтому ваш опыт с домашними проектами должен быть описан так, чтобы его понимали и алгоритмы, и люди.
Что это всё на самом деле значит
Настоящая ценность — не в железе, не в тулзах и даже не в сертификатах.
Ценность — в уверенности, которая приходит, когда вы уже делали что-то своими руками. Когда знаете: да, всё сломается — но у вас есть способ разобраться. Вы уже были в этом месте. Может, не точно в таком, но достаточно близко.
Когда я вижу инженеров с домашними лабораториями и без — разница видна сразу. Те, кто практикуется, мыслят системно. Знают, куда смотреть. Не паникуют, когда что-то не работает с первого раза — потому что уже поняли, что это нормально.
Остальные всё ещё ожидают, что всё заработает сразу. Быстрее застревают. Ждут, пока кто-то подскажет ответ.
Вот навык, который вы действительно развиваете. Не просто техническую экспертизу. А способность разобраться, когда рядом никого нет.
Даже опытные инженеры косячат в своих лабораториях. Именно это и есть показатель роста. В тот момент, когда вы перестаёте что-то ломать, вы перестаёте развиваться.
Так что идите и сломайте что-нибудь. Нарочно. Посмотрите, что произойдёт. Именно тем и живёт настоящее обучение.
Сервер на платформе Compal SR120-2 с материнкой SP-A121P SMB-C206
Приобрели сервер Compal SR120-2 с материнкой SP-A121P SMB-C206, это я так понял какой-то китаец. Гудит он как самолёт, 8 куллеров без всякой нагрузки (только гипервизор) каждый выдаёт 10000-14000 оборотов.
Задался вопросом в чём дело, есть ли возможность вручную уменьшить обороты, например с помощью ipmitool? Может кто сталкивался с таким или прямо сейчас админит такой сервер?
Cilium как универсальный компонент Kubernetes-инфраструктуры: от CNI до Service Mesh
Всем привет! На связи Алексей Баранович, сегодня я хочу вам рассказать о Cilium.
В современных Kubernetes-платформах стремление к упрощению архитектуры и снижению числа зависимостей становится всё более актуальным. Особенно это заметно при построении MVP-решений или управляемых платформ, где каждый дополнительный компонент — это не только рост сложности, но и увеличение поверхности для потенциальных сбоев и уязвимостей. В этом контексте Cilium выделяется как один из немногих проектов, способных заменить сразу несколько традиционных инструментов: CNI-плагин, Ingress-контроллер, Service Mesh и даже внешний LoadBalancer. Давайте разберёмся, как это работает и почему Cilium может стать единственным «сетевым» компонентом в вашем кластере.
Cilium как CNI: основа всего
Изначально Cilium позиционировался как высокопроизводительный CNI-плагин, использующий eBPF (extended Berkeley Packet Filter) вместо iptables или IPVS. Это даёт не только значительный прирост производительности, но и гибкость на уровне ядра Linux: политики сети, observability, балансировка трафика — всё это реализуется без перезаписи цепочек правил или установки дополнительных прокси.
Но Cilium быстро вырос за рамки CNI. Сегодня он предлагает полноценную платформу для сетевой и сервисной безопасности, объединяя в себе функциональность, которая раньше требовала развёртывания десятков отдельных компонентов.
Установка Cilium через Helm
Самый распространённый способ установки Cilium — через Helm. Сначала добавьте официальный репозиторий:
helm repo add cilium https://helm.cilium.io/
helm repo update
Затем установите с базовыми настройками (для большинства сред подойдёт):
helm install cilium cilium/cilium \
--namespace kube-system \
--set ipam.mode=kubernetes
Если вы хотите использовать собственный Pod CIDR (например, 10.224.0.0/13), как часто делают в on-prem:
helm install cilium cilium/cilium \
--namespace kube-system \
--set ipam.mode=cluster-pool \
--set ipam.operator.clusterPoolIPv4PodCIDRList="{10.224.0.0/13}" \
--set ipam.operator.clusterPoolIPv4MaskSize=22 \
--set ipv4NativeRoutingCIDR=10.224.0.0/13 \
--set routingMode=native \
--set autoDirectNodeRoutes=true
Эти параметры включают режим cluster-pool для IPAM и native routing через eBPF, что даёт максимальную производительность без kube-proxy.
Встроенный LoadBalancer без MetalLB или облачных провайдеров
Одна из самых болезненных тем в on-prem Kubernetes — отсутствие встроенного решения для внешнего LoadBalancer. Обычно приходится ставить MetalLB, использовать внешние балансировщики или обходиться NodePort.
Cilium решает эту проблему с помощью BGP-интеграции и DSR (Direct Server Return). Начиная с версии 1.13, Cilium поддерживает собственный L2 и BGP-режимы для сервисов типа LoadBalancer, что позволяет:
Назначать внешние IP-адреса сервисам без MetalLB.
Работать в bare-metal и виртуальных средах (включая VMware).
Использовать DSR для минимизации latency и снижения нагрузки на worker-ноды.
Чтобы включить встроенный LoadBalancer через Helm:
helm install cilium cilium/cilium \
--namespace kube-system \
--set loadBalancer.mode=dsr \
--set loadBalancer.acceleration=native \
--set loadBalancer.serviceTopology=true
Если вы используете BGP, добавьте:
--set loadBalancer.mode=bgp \
--set loadBalancer.bgp.announce=pool
И определите IP-пул в ConfigMap или через Helm-параметры, например:
--set loadBalancer.ipam.kubernetes.serviceIPBlocks="{192.168.10.0/24}"
Теперь любой Service с типом LoadBalancer автоматически получит IP из этого пула.
Gateway API: единая модель для Ingress и Egress
Традиционные Ingress-контроллеры (Nginx, Traefik, HAProxy) требуют отдельного развёртывания, настройки TLS, rate limiting, WAF и т.д. Cilium предлагает нативную поддержку Kubernetes Gateway API — современного стандарта управления трафиком, который заменяет устаревший Ingress API.
Чтобы включить Gateway API в Cilium, достаточно установить:
helm install cilium cilium/cilium \
--namespace kube-system \
--set gatewayAPI.enabled=true
После этого вы можете создавать ресурсы Gateway, HTTPRoute и другие. Пример Gateway:
apiVersion: gateway.networking.k8s.io/v1
kind: Gateway
metadata:
name: public-gateway
namespace: default
spec:
gatewayClassName: cilium
listeners:
- name: http
port: 80
protocol: HTTP
И HTTPRoute:
apiVersion: gateway.networking.k8s.io/v1
kind: HTTPRoute
metadata:
name: my-app-route
namespace: default
spec:
parentRefs:
- name: public-gateway
rules:
- matches:
- path:
type: PathPrefix
value: /api
backendRefs:
- name: my-app
port: 8080
Всё это работает без sidecar-прокси, благодаря eBPF и L7-парсингу на уровне ядра.
Service Mesh без Istio: Cilium + Envoy (опционально)
Istio — мощный, но тяжёлый Service Mesh. Он требует внедрения sidecar-прокси (Envoy) в каждый под, что увеличивает потребление ресурсов и усложняет отладку.
Cilium предлагает альтернативу: Cilium Service Mesh. Он реализует ключевые функции Service Mesh:
mTLS между сервисами (на основе SPIFFE/SPIRE или собственного PKI).
L7-наблюдаемость (HTTP, gRPC, Kafka).
Трассировка (через OpenTelemetry).
Retry, timeout, circuit breaking — через Envoy только при необходимости.
Чтобы включить базовые функции Service Mesh через Helm:
helm install cilium cilium/cilium \
--namespace kube-system \
--set l7Proxy=true \
--set hubble.enabled=true \
--set hubble.relay.enabled=true \
--set hubble.ui.enabled=true \
--set securityContext.capabilities.ciliumAgent="{CHOWN,KILL,NET_ADMIN,NET_RAW,IPC_LOCK,SYS_ADMIN,SYS_RESOURCE,DAC_OVERRIDE,FOWNER,SETGID,SETUID}"
Для mTLS:
--set encryption.enabled=true \
--set encryption.type=wireguard
Или для TLS на уровне сервисов:
--set serviceMesh.enabled=true
Если нужны продвинутые L7-политики с Envoy:
--set envoy.enabled=true
При этом sidecar не обязателен: базовые функции (шифрование, политики, метрики) работают через eBPF. Envoy подключается лишь тогда, когда нужны продвинутые L7-фичи. Это даёт гибкость: вы получаете Service Mesh без накладных расходов там, где он не нужен.
Cluster Mesh: много-кластерная сеть «из коробки»
Если у вас несколько Kubernetes-кластеров (например, dev/stage/prod или multi-region), традиционно для их объединения требуются сложные решения: submariner, istio multi-cluster, custom overlay-сети.
Cilium предлагает Cluster Mesh — встроенную возможность объединять кластеры в единую логическую сеть:
Сервисы из одного кластера доступны в другом по DNS-имени.
Единые сетевые политики применяются кросс-кластерно.
Поддержка identity-based security (не привязка к IP!).
Для включения Cluster Mesh нужно:
Установить Cilium в каждом кластере с уникальным cluster.id и cluster.name.
Настроить общий etcd или использовать clustermesh-apiserver.
Пример установки с поддержкой Cluster Mesh:
helm install cilium cilium/cilium \
--namespace kube-system \
--set cluster.name=cluster-a \
--set cluster.id=1 \
--set clustermesh.enabled=true \
--set clustermesh.useAPIServer=true
Затем выполнить настройку связи между кластерами с помощью cilium-cli:
cilium clustermesh enable --context cluster-a
cilium clustermesh enable --context cluster-b
cilium clustermesh connect cluster-a cluster-b
После этого сервисы автоматически станут доступны через DNS вида <service>.<namespace>.svc.clusterset.local.
Заключение
Cilium — это не просто CNI. Это единая платформа для всего сетевого стека Kubernetes, которая позволяет отказаться от Nginx Ingress, MetalLB, Istio и даже внешних балансировщиков в большинстве сценариев. Для инженеров, строящих управляемые, безопасные и минималистичные Kubernetes-платформы, Cilium становится не просто выбором, а стратегическим решением.
Если вы стремитесь к «меньше компонентов — больше контроля», Cilium стоит рассмотреть уже сегодня.
Talos OS — способ сделать Kubernetes безопасным
Привет, друзья! Меня зовут Алексей Баранович, и сегодня я хочу рассказать о системе, которая кардинально изменила мой подход к развёртыванию и управлению Kubernetes — Talos Linux. Это не просто «ещё одна лёгкая ОС». Talos — это операционная система, спроектированная исключительно для Kubernetes, с философией иммутабельности, безопасности и полной автоматизации. Давайте разберёмся, почему он действительно крут — и что он умеет «из коробки».
Talos Linux: Kubernetes-нативная ОС нового поколения
Talos Linux — это open-source операционная система, разработанная компанией Sidero Labs, которая полностью отказывается от традиционных концепций Linux-дистрибутивов. В Talos нет:
пакетного менеджера (apt, yum, dnf);
shell-доступа (даже для root);
SSH-сервера;
возможности редактировать файлы вручную после загрузки.
Всё управление происходит через единый gRPC API, защищённый mTLS, и утилиту командной строки talosctl.
Иммутабельность и безопасность как основа
Корневая файловая система Talos монтируется только для чтения. Это означает:
Невозможно случайно или злонамеренно изменить системные файлы.
Все обновления — атомарные: система загружается либо полностью новой версией, либо откатывается.
Минимальная поверхность атаки: в образе нет интерпретаторов (Python, Bash), ненужных библиотек или демонов.
Даже диагностика не требует shell: для просмотра логов, состояния сервисов или ядра используется утилита osctl, работающая поверх API.
Декларативная конфигурация: один YAML на всё
Вся конфигурация Talos задаётся в одном файле — machine.yaml. Он описывает:
тип ноды (control plane или worker);
сетевые настройки;
параметры времени и сертификатов;
статические поды (если нужны);
настройки kubelet и kube-proxy.
Пример минимальной конфигурации control plane:
version: v1alpha1
machine:
type: controlplane
token: supersecret
ca:
crt: LS0t...
key: LS0t...
cluster:
id: my-cluster
controlPlane:
endpoint: https://192.168.1.10:6443
Этот файл передаётся ноде при загрузке (через cloud-init, ISO, PXE и т.д.) и не может быть изменён вручную — только через обновление через talosctl apply.
Сетевая подсистема: что есть «из коробки»?
Важный момент: Talos не включает CNI по умолчанию. Однако он нативно поддерживает Flannel как встроенный CNI-плагин. Это означает, что при указании:
cluster:
network:
cni:
name: flannel
Flannel будет автоматически развёрнут как часть bootstrap-процесса — без необходимости применять манифесты вручную.
Если вы хотите использовать другой CNI (Calico, Cilium, Weave и т.д.), его нужно устанавливать вручную после инициализации кластера, например, через kubectl apply или Helm. Talos не навязывает выбор — он даёт вам чистую, предсказуемую основу.
Полный жизненный цикл кластера — без ручного вмешательства
Talos управляет не только запуском Kubernetes, но и всем его жизненным циклом:
Инициализация кластера: talosctl bootstrap — инициирует etcd и control plane.
Обновление ОС и Kubernetes: через talosctl upgrade — с возможностью отката.
Резервное копирование etcd: talosctl etcd backup — создаёт снапшоты etcd.
Восстановление из бэкапа: talosctl etcd restore.
Безопасное удаление нод: talosctl reset — полностью очищает ноду.
Всё это работает без shell, без SSH, без риска человеческой ошибки.
Локальная разработка и тестирование
Хотите попробовать Talos? За пару минут можно развернуть кластер на своём ноутбуке:
talosctl cluster create --nodes 3 --controlplanes 1
Это запустит виртуальные машины через QEMU или Docker (в зависимости от ОС), настроит сеть и выдаст готовый kubeconfig.
Почему Talos — это прорыв?
Предсказуемость: все ноды идентичны, конфигурация декларативна.
Безопасность: нет shell, нет пакетов, только необходимый минимум.
Автоматизация: всё через API, идеально для GitOps и CI/CD.
Сертификация: Talos прошёл официальные тесты CNCF Kubernetes Conformance.
Полезные ссылки
CLI-инструменты: talosctl
Заключение
Talos Linux — это не просто инструмент, а новая парадигма управления инфраструктурой. Он убирает всё лишнее, оставляя только то, что нужно для надёжного и безопасного запуска Kubernetes. Если вы устали от «снежинок-серверов», ручных правок и нестабильных обновлений — пришло время попробовать Talos.
Удачи в автоматизации, и пусть ваши кластеры будут иммутабельными!
Рекордная DDoS-атака 11,5 ТБит/сек - ботнет AISURU
Наткнулся на пост РКН уху ел. В край, где топовый автор https://pikabu.ru/@astrobeglec, вылил очередной ушат помоев на Роскомнадзор и, возможно, в этот раз - незаслуженно. Хотя настрочил от души, я столько не осилю.
Тут оказывается вот какое дело-то сурьёзное:
Новый ботнет AISURU стал причиной крупнейшей зафиксированной DDoS-атаки, мощность которой достигла 11,5 Тбит/с. Масштаб атаки побил весенний рекорд в 5,8 Тбит/с и показал, насколько быстро растёт уровень угроз, связанных с захватом сетевых устройств. По оценкам исследователей QiAnXin XLab, в сети ботнета оказались около 300 тысяч маршрутизаторов по всему миру.
Товарищи Snow, Tom и Forky работают не покладая рук
По данным XLab, атаки проводятся ежедневно и затрагивают организации в Китае, США, Германии, Великобритании и Гонконге. Жертвы выбираются хаотично — нет признаков, что злоумышленники сосредотачиваются на какой-то одной отрасли. Весной AISURU уже запускал волну в 5,8 Тбит/с, а осенью мощность увеличилась почти вдвое.
Подробнее: https://www.securitylab.ru/news/563535.php
Я об этом узнал от своего Zabbix, а потом и от хостера в Германии:
Мы продолжим внимательно следить за производительностью сети... ля-ля-тополя... для дальнейшего повышения устойчивости к крупномасштабным DDoS-событиям, подобным тому, которое вызвано ботнетом Aisuru.
Конкретно у меня отвалился IPv6, 4-ка работает, но я её не нагружаю. Так вот я к чему, не всё то Роскомнадзор, что чудит. Не поддавайтесь панике, комрады! Хотя новости и не радуют.
Veeam Backup неверно считает место
Veeam Backup чудит.
Есть задачи по резервированию двух виртуалок в DFS, практически аналогичных. Настроено три задачи - одна на копирование двух виртуалок и две по копированию одной.
И вот при создании бэкапа одной машины из двух выдаётся такое сообщение:
"Production drive C:\ is getting low on free space (84.6 GB left), and may run out of free disk space completely due to open snapshots.
Processing finished with warnings at 10/23/2025 12:04:18 AM"
И вот тут вопросы:
- почему предупреждение пишется только в отношении одной машины?
- судя по слову "production", Veeam орёт про диск собственной виртуалки. При этом реально там свободно было 60 Гб, то есть ощутимо меньше. На копируемых виртуалках, наоборот, свободно больше 100 Гб, на беспроблемной даже на гиг меньше.
Вимовской увеличил диск тоже до 100 свободных гигов - бестолку, всё равно пишет про 85 гигов.
Как отбиться от этого предупреждения?
Мессенджер для работы, подскажите программисты
Кацап скоро прихлопнут как и телегу походу. А там рабочие группы (цпсспо, хакеры, инагенты и прочие ангины). Очень удобно оповещать всех, скидывать доки, да вы и так знаете..
Что можно накидать какой-то клиент сервер, закинуть себе на сервак (белый Ip) сделать проброс портов, а пользователям приложение поставить. Такой вот личный мессанджер. Может есть готовые решения. Просто ждать пока ненатуралы отключат - не очень хорошая идея. Спасибо!
