Облака – про что эта песня в 2024 году

Для ЛЛ:  облака - это история даже не про TCO, RPO, RPM, и прочие непонятные слова. Все куда проще: это про CAPEX, OPEX и ROI

Облака 2024, как они себя чувствуют

Amazon Web Services, Inc. – образован в 2002 году, AWS (Cloud computing) – в 2006.
За 2022 год доходы (Revenue) составили 80 миллиардов долларов (US$80 billion)
операционная прибыль (Operating income) – 22.3 миллиарда (US$22.8 billion)
Microsoft Azure – образован в 2008, доходы за 2023 – 62 миллиарда долларов ($62 billion), прибыль – 21.9 миллиарда долларов ($21.9 billion) источник 

Общий объем рынка -
Public cloud software as a service (SaaS) revenue 2024 - 247 bn USD
Public cloud platform as a service (PaaS) revenue 2024 - 176 bn USD
Public cloud infrastructure as a service (IaaS) end-user spending 2024 - 180bn USD
Источник

С чем бы это сравнить.. а вот, национальное достояние

Выручка от продаж, млн. руб  в 2021 году - 10 241 353 – при курсе ЦБ 72.1464 = 141,952 млн. USD
Прибыль от продаж, млн. руб. в 2021 году -  2 411 261 – при курсе ЦБ 72.1464 = 33,421 млн. USD

Или: Яндекс Облако - За 2021 год выручка Yandex Cloud выросла в 3 раза —
до 2,9 млрд рублей.
при курсе ЦБ 72.1464 = 40.2 млн долларов.

Плюсы и минусы технической части облаков

Плюсы и минусы большой тройки облаков – AWS, Azure, GGP - много раз обсуждались, и нет смысла развернуто повторять их еще раз.
В плюсах и быстрое масштабирование, и резервирование хоть в локальном, хоть в гео-варианте, и 2-3-6 копий данных, и сервисы, которых вне некоторых облаков просто нет – начиная от Azure Accelerated Networking (AccelNet) и заканчивая давно известным Power BI.
В минусах – риски неправильного авто масштабирования, или простоя на 4..7 дней – как недавно в МТС , хотя  МТС , и не они одни, возможно, просто не рассказывают про потери. Или полного удаления данных – как в Яндексе и недавнее удаление UniSuper в GCP

Стадии перехода инфраструктуры
Я не могу сутками рассказывать правду о том, что бизнес в моём родном краю считается успешным, когда начинается у чужого гаража, при свете найденного фонарика

Перевод инфраструктуры от 3 системных блоков под столом до хотя бы аренды стойки в ЦОД достаточно дорог. Дорог во всем – нужно обосновать покупку оборудования хотя бы по схеме N+1, дисков по схеме N+2, нужно два коммутатора, два маршрутизатора, возможно даже вместо коммутатора придется купить свитч*, а вместо маршрутизатора - роутер, потом купить канал до офиса, и оплатить интегратора на запуск. Потому что "свои проверенные админы" не могут запустить что-то сложнее 1с. Нанять людей, готовые это обслуживать, и ездить в ЦОД. Причем, купить оборудование «абы какое» уже не подойдет.
Конечно, можно купить веток, глины и желудей,  собрать программно-определяемое решение на абы чем, потом набрать альтернативно одаренных, которые будут это эксплуатировать как умеют, и которые не умеют и не хотят читать даже на русском то, что им пишут, а делают все по своему. Это можно.
Это не запрещено.
Читатели одного чата в телеграмме (точнее, одного из немногих, посвященных не главному криптану всего Рунета, и не поисками виноватого в том, что модераторы удалили элитный флуд - кто лучше, тот кто майнит на проде по любви к деньгами, или тот кто майнит для борьбы с капитализмом) наблюдали вышеописанную драму, растянувшуюся на 10 дней. При этом продукт (решение) пытался выжить, как мог и как умел, но умельцы смогли его добить. Вручную, и только с четвертой попытки, сделав в точности обратное тому, что им советовали.

* разница между коммутатором и свичем проще, чем вы думаете. Коммутаторы делают Qtech и Eltex, свичи делает Cisco, Juniper, HPE (Arista), Huawei, Extreme , Mellanox.

После, или во время перехода от трех системных блоков в подсобке, к ЦОД, появляется гибридная инфраструктура – часть нагрузки в ЦОД, часть в облаке, часть все так же - в бывшей кладовке.

Но и у арендуемой стойки есть масса ограничений – например, при современных «горячих» процессорах и видеокартах, и при сохранении лимита в 5 киловатт на луч на стойку по подаче питания, и ограничениям отвода тепла в массе российских как-бы ЦОД и даже как-бы тир-3-но нет, поставить туда 2-3 GPU кластера на 2-4 видеокарты можно, но на этом и все. Дальше или надо искать другой зал (иногда в том же ЦОД) с хотя бы 10 КВт на луч, а если там будет еще и теплоотвод получше, а если еще и жидкостное охлаждение можно собрать – то это просто мечта.
Все это технические проблемы, которые можно пересчитать в стоимость закупки серверов, кондиционеров, ИБП, сетевого оборудования.

Проблемы, когда ИТ отдел всерьез начинается задумываться о переезде в облако, начинается с появлением даже зачатков своей разработки, пусть даже это свои модули в 1с, и особенно остро проявляются в тех случаях, когда к организации начинают предъявляться требования 152-ФЗ ПД, 177-ФЗ 187-ФЗ КИИ и прочие радости типа 846, 1912, 887, 193,194,141 .. ну, вы знаете.

Продукты, предлагаемые на этом рынке, можно разделить на две большие группы
– не работают даже на 10% от того, что должны заменить, но с сертификатом (1.5 продукта)
– не работают даже на 10% от того, что должны заменить, без сертификата (еще штук 25 продуктов)
По такому признаку, как «безудержно глючат разными способами» разделить продукты невозможно, ни программные, ни аппаратные. Начиная от отсутствия штатных функций, заканчивая split brain прямо во время пилотного проекта, с попутным превращением данных в кашу.

На этом месте уже руководитель ИТ и директор по финансам начинают считать деньги так, как никогда не считали.

Потому что для соответствия всему – надо утроить штат ИТ и купить то, что в обычной жизни было не надо. Это дорого, это очень дорого.
При этом раньше можно было купить железа на 5 лет, и прикупать по чуть чуть. Сейчас так не выйдет.

Облака - это про управляемость и уход от физики к разделению бюджетов

Все начинается с того момента, когда к вам или приходит регулятор, или возникает риск настоящих штрафных санкций. Пока потери бизнеса виртуальны, пока это "ну подумаешь пол-дня не работали", ничего не произойдет. Как только за потерями сервиса начинаются штрафы от заказчиков, или письма от регуляторов, тут же встает вопрос подсчета "Сколько же нам надо денег потратить для обеспечения сервиса хотя бы в виде 9 рабочих часов, с 9 до 9, в 6 дней в неделю", и второй вопрос - во сколько обойдется переход на 24*7*365.

И именно тут бизнес начинает покряхтывать, судорожно хвататься за сердце, кошелек, звонить сыновьям подруги и иным методом пытаться узнать - почему так дорого-то???? Почему надо два гарантированных луча питания, почему надо не 3 бытовых, а 5 промышленных кондиционеров, почему надо то, се, зачем нужен дежурный штат, почему в штат сразу нужен электрик, и сколько стоят люди, готовые это хотя бы посчитать. И заодно, что особенно актуально в услових РФ, какое импортозамещение сможет сделать А-А метрокластер, или, хотя бы, растянутый кластер, не превратив все в кашу при первой же потере кролика, который потащит за собой control plane, который нельзя сделать ни по настоящему высоко доступным (не по бумагам, а по результатам ПСИ), и который не устроит кашу из данных при split brain или потеря свидетеля.

И именно тут довольный начальник сисадминов начинает показывать, во сколько обходится желание соседнего отдела в виде "нам сейчас надо 20 гб места, но вы нам дайте сразу терабайт, и не просто нарисуйте, а закупите, но за свой бюджет". Каждый гигагерц и гигабайт отражен в бюджете, проведен через закупку, и просьбы в стиле ранней Масяни "вы как-нибудь так" приходят в конце месяца в виде счетов с разбивкой.

Послесловие

И затем у вас на 3 дня падает ЦОД госзнак.

Правила сообщества

Правил в сообществе всего два: публикация статей, соответствующих тематике информационных технологий и уважение собеседников в комментариях.