Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Я хочу получать рассылки с лучшими постами за неделю
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
Создавая аккаунт, я соглашаюсь с правилами Пикабу и даю согласие на обработку персональных данных.
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Битва Героев: RPG - увлекательная игра в жанре РПГ.

Битва Героев: RPG

Приключения, Фэнтези

Играть

Топ прошлой недели

  • AlexKud AlexKud 38 постов
  • Animalrescueed Animalrescueed 36 постов
  • Oskanov Oskanov 7 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая кнопку «Подписаться на рассылку», я соглашаюсь с Правилами Пикабу и даю согласие на обработку персональных данных.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
0 просмотренных постов скрыто
20
DmitriitheFals
18 дней назад
Лига Сисадминов
Серия Кудахтеры: Proxmox GmbH

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть седьмая из многих⁠⁠

Для лиги лени: общеизвестное и душное.

Часть 1. Общая
Часть 2. Gitlab и Nexus
Часть 3. Ansible и Ansible AWS
Часть 4. Наконец переходим к Proxmox
Часть 5, не запланированная. Обновляем Proxmox с 8.4 до 9.0. Неудачно.
Часть 6. Возвращаемся к запуску Ansible

Разница концепций. Часть 7.1 Обновления компонентов и система информирования.

13 августа 2025 года вышло обновление Proxmox до 9.0.5
было  pve-manager/9.0.3/025864202ebb6109 (running kernel: 6.14.8-2-pve)
стало pve-manager/9.0.5/9c5600b249dbfd2f (running kernel: 6.14.8-2-pve)

Но искать «что там было обновлено», это тот еще процесс.
То есть:
Вот большая статья: вышла версия 9, Proxmox Virtual Environment 9.0 with Debian 13 released
Вот Git с фиксами.

После обновления до 9.0.5, внезапно появился
/etc/apt/sources.list.d/pve-enterprise.sources
да и ладно

У Broadcom VMware все проще – вот патч (сейчас официально только по подписке), вот компоненты в нем.
У Microsoft  все еще проще – вот MicrosoftUpdate Catalog. Если выходят бесплатные обновления (для 2012 и 2012R2 – только платные, нужна подписка Extended Security Updates (ESU) for Windows Server, для 2008 нужна подписка premium assurance. Но обновления выходят, например:
2025-08 Security Monthly Quality Rollup for Windows Server 2008 R2 for x64-based Systems (KB5063947)

Поэтому можно сходить на
http://download.proxmox.com/debian/pve/dists/bookworm/pve-no...
http://download.proxmox.com/debian/pve/dists/trixie/

Скачать там файл
http://download.proxmox.com/debian/pve/dists/trixie/pve-no-s...

И увидеть, цитата

Package: pve-manager
Maintainer: Proxmox Support Team support@proxmox.com
Installed-Size: 3573
Provides: vlan, vzdump
Depends: apt (>= 1.5~), ..
Recommends: proxmox-firewall, proxmox-offline-mirror-helper, pve-nvidia-vgpu-helper
Conflicts: vlan, vzdump
Breaks: libpve-network-perl (<< 0.5-1)
Replaces: vlan, vzdump
Filename: dists/trixie/pve-no-subscription/binary-amd64/pve-manager_9.0.5_all.deb
Size: 580388

Окей, а как-то поудобнее можно?

Конечно после обновления можно увидеть:
cat /var/log/apt/history.log
Но это после обновления.

Очень, очень не хватает решения типа Windows Server Update Services (WSUS), но для Linux и Proxmox. Foreman+Katello говорят «ок». RedHat Satellite ? SpaceWalk:Satellite ?

Разница концепций. Часть 7.2 Сети

В ESXi «из коробки» все просто. Есть стандартный свитч, vSphere Standard Switch, vSS. Он мало чего умеет «из коробки», но самое главное, что вы можете завести несколько коммутаторов, и распределять физические порты сетевых карт, и порты виртуальных сервисов – самого менеджмента, сервисов, итд, как вам нравится.
Вместе с некоторыми (их опять поменяли) лицензиями вы получали vSphere Distributed Switch (VDS), с дополнительными функциями.
Если хотите добавить в жизнь интима - Single Root I/O virtualization (SR-IOV).
Хотите чего-то большего – покупайте VMware NSX.
У Microsoft в чем-то схожий подход. Есть Hyper-V switch с массой настроек исключительно из powershell.
Хотите большего – добро пожаловать в увлекательный мир Network Controller Server Role.
Хотите того же самого, но иначе – вот вам Set up networking for Hyper-V hosts and clusters in the VMM fabric, вот вам Set up logical networks in the VMM fabric, и вперед.

У Proxmox все немного не так. То есть, так то так, архитектура та же, x86, но.
За уровень «стандартного коммутатора» отвечает стандартный функционал Linux. Проблема в том, что он (как, впрочем, и в Broadcom, и в Microsoft) читаемо и полноценно настраивается только из командной строки. Режима Switch Embedded Teaming (SET) в нем нет, есть active-active bond, но.
Red Hat пыталась сделать что-то такое же, и даже статья есть - 8.3. Comparison of Network Teaming to Bonding, но это Red Hat.
Чтобы в этом разбираться, все равно необходим  базовый уровень знания сети, в масштабе CCNA: Switching, Routing, and Wireless Essentials, он же CCNA Routing & Switching ICND1 100-105 Course. Иначе вопросов будет больше, чем ответов. У Broadcom есть best practice – собирайте actve-active, LACP не нужен. Если вы упрт нркмн, то вот вам beacon probe и shotgun mode, можете упртс. Если хотите совсем упртс, то вот вам air-gap storage fabric, только лучше бы вы так не делали.
У Microsoft есть best practice – просто ставьте SET, он сам разберется.
У proxmox, их-за наличия Bridge, который по сути L2 switch, и iptables, появляется L3 конфигурация с NAT, но планирование сети заставляет каждый раз думать «как лучше-то».

Кроме того, в конфигурации сети отдельно английским по белому написано:

For the cluster network (Corosync) we recommend configuring it with multiple networks. Corosync does not need a bond for network redundancy as it can switch between networks by itself, if one becomes unusable. Some bond modes are known to be problematic for Corosync, see Corosync over Bonds.


Особенно мне понравилась строчка:
We recommend at least one dedicated physical NIC for the primary Corosync link

То есть, поскольку сетевые карты нынче идут, чаще всего, с двумя портами, то надо брать 2 карты по 2 порта, всего 4 порта, и один порт выделять под Corosync. Но если у меня конфигурация нормального человека, 2 порта по 25, это мне что, под кластер надо выделять целых 25G? А не жирновато?
При этом сценарии отказа описаны понятно и обоснованно, но как-то заставляют задуматься. Это же придется ставить на мониторинг не только состояние порта on\off\ CRC, но и, для оптики, уровень сигнала по SFP модулям с обеих сторон, RX power \ TX power.

Середины (типа vSphere Distributed Switch (VDS)) нет.
Зато есть SDN

От теории к практике.
Поскольку для этой серии статей у меня Proxmox развернут как вложенная (nested) виртуализация, то мне придется или переделать всю сеть, или пересобирать рабочие стенды, или ограничиться двумя виртуальными сетевыми картами.

К моему величайшему отвращению, Hyper-V Windows 11 'Default Switch' зачем-то снабжен никак нормально не настраиваемым DHCP сервером. В Server 2012\2016\2019\2022\2025 такого нет, если нет DHCP в сети, значит нет сети.

Конфигурация хоста Hyper-V:
Get-VMSwitch 'Default Switch' | fl – от этого виртуального свича все отключено.
Вот он мне и вредил, поскольку в нем и NAT и DHCP , и ничего в нем не настраивается, согласно Change Hyper-V (Default Switch) IP address range.

The Hyper-V Default Switch will randomly use one these IP address ranges based on the host system IP address:
Start IP: 192.168.0.0 – End IP: 192.168.255.255
Start IP: 172.17.0.0 – End IP: 172.31.255.255

Поэтому я новый виртуальный свитч и сделал, режим external. И все у него хорошо.
Конфигурация proxmox по умолчанию


auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.10.202/24
gateway 192.168.10.1
bridge-ports eth0
bridge-stp off
bridge-fd 0

Конфигурация с двумя виртуальными сетевыми картами у меня будет выглядеть так:

auto lo
iface lo inet loopback
iface eno1 inet manual
iface eno2 inet manual

auto bond0

iface bond0 inet manual

bond-slaves eno1 eno2
bond-miimon 100
bond-mode active-backup
bond-xmit-hash-policy layer2+3

auto vmbr0

iface vmbr0 inet static
address  192.168.10.202/24
gateway  192.168.10.1
bridge-ports bond0
bridge-stp off
bridge-fd 0

Конфигурация с VLAN для рабочих сред описана в разделе Example: Use VLAN 5 for the Proxmox VE management IP with VLAN aware Linux bridge, конфигурация The next example is the same setup but a bond is used to make this network fail-safe.

Разница концепций. Часть 7.3 предисловие к теме «Дисковое пространство».

Чтобы понимать незначительные сложности, нужно немного отойти назад, в состояние «дисковых пространств» 15-20 лет назад, и огромный скачок для всего человечества за последние пять лет.

15 назад, в 2010 году, концепция дисковых пространств была достаточно проста.
Есть одиночные локальные диски, которые могут быть включены по IDE (уже крайне редко на тот момент), SATA, SCSI и SAS. Но интерфейс особого значения не имеет (то есть, еще как имеет, но это другая история), потому что глобально выбора конфигурации особо и нет.
Для домашней и офисной техники: 1 диск, без всяких массивов.
Для дисков с операционной системой: аппаратный RAID 1 (зеркало) из 2 дисков. Не надо забывать, что диски тогда были маленькими, как 72GB 2.5-inc SFF 3G Single Port SAS 10K, 146GB SCSI U320 или 146GB hot-plug Serial Attached SCSI (SAS).
Для дисков с данными для «быстрого» доступа: аппаратный RAID 10.
Для дисков с данными для «медленного» доступа: аппаратный RAID 5, если у вас диски меньше 1 терабайта, аппаратный RAID 6, если у вас диски больше 1 терабайта.
Потому что, запишите это уже большими буквами: RAID 5 на дисках бытового и начально-корпоративного сегмента, при размере одиночного диска больше 1 Тб, достаточно часто умирает при стандартном ребилде. Вероятности считайте сами.
Плюс локально включенные коробки с дисками.
И, для дисковых массивов, у вас есть FC 4g (c 2004), FC 8g (с 2008), и с 2007 года есть 10G Ethernet для iSCSI. 25G Ethernet появится только в 2018 году.
NFS поверх 1\10G, конечно, тоже уже есть. Apple File Service (AFS) еще не умер.
Современные технологии быстрого перестроения массивов уже почти есть в HPE Eva.
Еще есть  InfiniBand, но дорого.

Основная проблема – ребилд. Это долго, это дорого с точки зрения потери производительности, но это зачастую проще, чем переставлять ОС или поднимать данные из архивов. Поэтому везде RAID 1\10 и еще раз RAID. Альтернативы были, но все равно, RAID это было просто, понятно, наглядно, и не требует вмешательства администратора, особенно если есть запасной диск.

Сейчас все поменялось.
Окончательно ушли в историю диски на 15.000 и 10.000 оборотов, и та же судьба уже видна для дисков 7200 для массивов, и для дисков 5400 для ноутбуков. SSD с двумя оставшимися вариантами подключения, SAS и NVME, побеждают почти везде.
Появились технологии для гиперскейлеров, и не только – S2D, vSAN (StarWind дано был). И то, и другое, уже не redundant array of inexpensive disks, а Redundant Array of Independent Nodes (RAIN) .
Сети стали быстрее, диски быстрее, объемнее, и возникает другой вопрос – старые RAID контроллеры перестали справляться с производительностью новых дисков. Новые RAID контроллеры тоже не блещут при работе с NVME, но это уже другая история:
NVME Raid – We Need To Go Deeper, или что там на глубине. GPU over NVME, с водяным охлаждением

Проблема даже не в этом, а в том, что нет смысла держать разные диски на передней панели «под ОС и «под данные», с точки зрения работы, закупок, и в целом. Удобнее использовать один тип дисков, и никто не перепутает. В таком случае проще поставить или PCIe карту на 2 m.2 планки, или взять internal M.2 boot module или что-то типа Dell BOSS, собрать недоаппаратный или программный рейд на такой карте, и отдать остальные одинаковые диски, установленные в передние слоты, под данные, собрав тот или иной вид программного рейда.
НО.
Дальше начинаются «проблемы legacy 2.0».
В корпоративном варианте заказчику, за очень дорого, продадут и S2D и vSAN, со всеми их свистелками, типа быстрого перестроения при сбое, RAID 5+6, поддержке RDMA. Продадут со свичами Arista или Mellanox с их скоростями и cut-through (вместо Store-and-Forward), и lossless Ethernet, и так далее. Это все есть, это все работает, как и последние навороты в MPIO для IP в NVIDIA ConnectX-8 .
Это все есть, но это: 1) дорого 2) требует настройки 3)требует переписать драйвера 4)требует настроить сеть и следить за ней.
В то же время, существуют, как продукты, Ceph и drbd, то есть Linstor. И не только.
Они работают, но. Но настройка, скорость работы (задержки, и как следствие IOPS), проблемы связности, проблемы на ребилде, пожирание памяти как не в себя, и так далее.
В домашней лаборатории, где все работает, а отказ или split brain или остановка сервисов не важны – CEPH работает.
В масштабах VK – тоже работает, вопрос какой ценой.
Ceph вырос как проект 2007 года, времен медленных дисков небольшого объема, отсутствия на рынке «дешевого» варианта собрать хранилище на петабайт и больше, и даже работал, но в 2020 - 2021 году начал уходить с рынка. SUSE отказалась от развития, еще кто-то отказывался. FUJITSU Storage ETERNUS CD10000 S2 - The sale of this product was terminated in December 2019.
Причины понятны, сейчас петабайт хранения требует не двух стоек, а двух юнитов в одной стойке, а рынок опять меняется.
Поэтому Ceph для дома – пожалуйста, Ceph для VK облака или каких-то еще облаков – сколько угодно. Ceph для SMB или чуть выше – не знаю, зачем настолько жертвовать производительностью и иметь бонусом головную боль при обновлениях. И еще один не очевидный многим нюанс ниже.
Но люди верят, что он работает (это почти правда, если не рассматривать ребилд), быстрый  (нет), надежный (очень не всегда). Вопрос цены. Люди верят, что можно обмануть систему, взять бесплатное решение, дешевых людей, дешевое железо и получить производительность и надежность «как в облаке, но дешевле».
Кроме того, есть вопросы и к бекапу, и к восстановлению, и много к чему еще.
Но люди верят. Мерять производительность не хотят, тесты ребилда под нагрузкой делать не хотят, некоторые и бекапы не делают.

Сложность и нюансы в понимании (и отсутствии понимания) «зачем все это».
Для одного сервера все равно нужен какой-то RAID, в современных условиях, для одного сервера, с таким бизнесом, которому достаточно одного сервера, может быть аппаратный контроллер и будет неплохим решением. Для двух серверов уже может быть проще собрать отказоустойчивый кластер не на уровне железа и репликации средствами ОС, а через репликацию сервиса. Базы данных это умеют, для репликации файловых кластеров с низкой нагрузкой подойдет что угодно, остальные сервисы типа etcd тоже реплицируются без кластерной файловой системы.

Разница концепций. Часть 7.4 «Локальное дисковое пространство».

Для Hyper-V все проще некуда. Собрал диски – хочешь в soft raid, хочешь в storage space (не путать с S2D), хочешь на аппаратном рейде. Отформатировал, создал тонкие или толстые виртуальные тома ОС, создал на них тонкие (динамические) или толстые файлы (vhdx), отдал файлы виртуальным машинам, и все.
Есть проблемы с производительностью storage space в parity, если вдруг не читали вот это.
Новый ноутбук: скорость, плюсы-минусы, DiskSPD, Hyper-V и продолжение про методику тестирование скорости
Устроено все проще некуда, диск виртуальной машины == файл с заголовком.
Для Broadcom ESXi все еще проще. Создал «на чем есть» storage, создал виртуальные машины с нужными дисками.
Устроено все проще некуда, диск виртуальной машины == 2 файла. Файл с текстовым описанием, и файл с RAW данными.

Для Proxmox начинается проблема выбора: что взять. Есть Ext4, есть ZFS, есть BTRFS. Есть XFS.
Был GlusterFS, но он все, цитата

As GlusterFS is no longer maintained upstream, Proxmox VE 9 drops support for GlusterFS storages. Setups using GlusterFS storage either need to move all GlusterFS to a different storage, or manually mount the GlusterFS instance and use it as a Directory storage. Roadmap

ПОМЕР.


Development has effectively ended. For years Red Hat drove development for its RHGS product, but with the EOL of RHGS at the end of 2024. Date: 2024-06-25

Само разбиение дисков сделано странно.
ISO images в GUI это /var/lib/vz/template/iso
CT templates в GUI это  /var/lib/vz/template/cache
Конфигурация контейнеров /etc/pve/lxc
Конфигурация виртуальных машин /etc/pve/qemu-server

Диски виртуальных машин – о, тут все странно. В конфиге диск прописан как
scsi0: local-lvm:vm-100-disk-0,iothread=1,size=5G
но это блочный lvs том, который виден по команде lvs , или
find /dev | grep vm
И получаем /dev/pve/vm-100-disk-0
или команда
lvdisplay
покажет что где и как.
Неприятно с точки зрения операций с локальными томами. С ZFS та же история.

Разница концепций. Часть 7.5 «Локальное дисковое пространство - добавление».

Окей, создам отдельный том
New-VHD -Path C:\test\Proxmox\ data.vhdx -LogicalSectorSize 4KB -PhysicalSectorSizeByte 4KB -SizeBytes 105GB -Dynamic
добавлю его через GUI к Proxmox, но это уже будет другая история

Литература

Single Root I/O virtualization (SR-IOV)
Set up networking for Hyper-V hosts and clusters in the VMM fabric
Set up logical networks in the VMM fabric
How to configure System Center VMM Part 1 – Basic Design
8.3. Comparison of Network Teaming to Bonding
3.18. Bridge and Bond Configuration
Proxmox Network Configuration
How to enable DHCP on Hyper-V switch
Hyper-V - Default Switch & DHCP Server
Configuring VM Networking on a Hyper-V NAT Switch
A Practical Guide to Hyper-V Virtual Switch Configuration
Change Hyper-V (Default Switch) IP address range

Proxmox Ebook Free Download for Home Labs – тут почему-то удалили pdf, но он есть тут, хотя он и для 7.1

Proxmox for Everyone: Your Complete Guide to Virtualization, Kubernetes, and Homelab Automation (Next-Gen Infrastructure Strategies Book 2) Kindle Edition by da li (Author), PlanB Mr (Author)

Blockbridge : Ultra low latency all-NVME shared storage for Proxmox
Filesystem Features XFS vs BTRFS vs ZFS
VM Disk location (Can't find the VM disk)
How to move VM to another storage

Показать полностью
[моё] Linux Proxmox Виртуализация IT Microsoft Vmware Hyper-v Windows Текст Длиннопост
0
ssnmo
ssnmo
23 дня назад

Ответ на пост «Установка windows server 2003 на VMware Workstation 16»⁠⁠1

Ненависти пост!

Всем, кто задает вопросы: "Зачем это нужно?", "Кому это нужно?" или начинает стебаться над авторами подобного контента:

Мой ответ:

Я помню! Вы появились в 2000х, на корню купленные микрософтом и прочими блэкроками! Вы освистывали очень нестандартные, но результативные идеи! Вы переводили любую тему в бесплодную демагогию! Вы морально уничтожали авторов, вынуждая их прекращать думать и сдаться! Всякие гольден-эксперты, синьормемберы и прочие игори лейки!

Из-за вас закрывались форумы с oszone, refit, clover, magisk, lwgame, ncore, libreboot, coreboot - сотни и тысячи полезных, поддерживаемых энтузиастами ресурсов!
Вы планомереннонасаждали в обществе тупость и культ потребления!

Я желаю вам самого плохого и болезненного! И презервативов, чтобы не размножались!

Детект этих нелюдей в комментах.

Автору оригинала - респект и уважуха!
Твой пост нужен, например, мне.

[моё] Vmware Windows server Видео Ответ на пост Текст
9
1
Вопрос из ленты «Эксперты»
Burinis
1 месяц назад
Про железо

Как пробросить дискретную видеокарту в VMWare Workstation Pro или VirtualBox?⁠⁠

Говорят, что для этого нужен VT-D. У меня в биосе есть только опция "Virtualization Technology" (включена).
Хост:
Ноут HP Pavilion Gaming Laptop 15
Windows 10
Intel Core i5-8300H
NVIDIA GeForce 1060 MaxQ
1 ТБ HDD+256 ГБ SSD
12 ГБ ОЗУ
Плата HP 8478 (U3E1) с БИОС версии F.11

На виртуалках установлены Windows 98, XP и 7.

Вопрос Спроси Пикабу Компьютерное железо Virtualbox Vmware Виртуальная машина Виртуализация Компьютерная помощь Текст
29
3
DmitriitheFals
4 месяца назад
Лига Сисадминов
Серия Кудахтеры

Пора прощаться с VMware by Broadcom. История в нескольких частях. Часть 2⁠⁠

Для лиги лени: про бывшую VMware, теперь VMware by Broadcom. Чего было и чего ждать

Часть 1. Чего и почему ждать.

Часть 2. Fast start. Литература и сайты для тех, кто вляпается в это легаси.

Часть 3. Прочее.

1.1 Пока переписывалась статья, вышло обновление-
8.0 Update 3e 24674464 , с обещаниями снова выдавать ESXi free, еще более урезанную.
Спасибо конечно, и на том.

Пора прощаться с VMware by Broadcom. История в нескольких частях. Часть 2 Импортозамещение, Vmware, Ссылка, Windows, Программа, Длиннопост

1. 2 Не дописанное из первой части

Продукты фирмы VMware не были как-то особо популярны в РФ. Так, по мелочи.
Пара мелких банков, какие-то сотовые и небольшие телеком операторы, разорившаяся авиакомпания, пара фирм по розничным продажа бытовой химии, облачные провайдеры, итд. Короче, все те, кто не мог себе позволить купить нормальный Azure Stack (Azure Stack HCI, сейчас Azure Local), или сидел на таком дремучем легаси, что виртуализация у них была уже, конечно, не механическая, и не ламповая, но серверы приходилось или ставить краном, или возить на специальном лифте. Оборот и прибыль VMware в РФ (от мировой) была в районе статистической погрешности, от 0.1 до 1%, поэтому ее уход из РФ заметили только те, кто работал (скорее, не работал) в облаке МТС в 2024 году.
Такие, во всех отношениях отсталые продукты, как:
VMware NSX
Omnissa Horizon (ранее Horizon View, VMware VDI, VMware View)
VMware Cloud Director
VMware Cloud Foundation

Могут быть легко и почти безболезненно заменены. Наверняка, те немногие их, зачем-то, использовавшие, облачные и сотовые операторы, уже давно провели замену. А то, что они про это молчат, так исключительно из скромности.

Пора прощаться с VMware by Broadcom. История в нескольких частях. Часть 2 Импортозамещение, Vmware, Ссылка, Windows, Программа, Длиннопост

Ит отдел готовится к безболезненному уходу от VMware, и внедрению в критическую

Если же они этого не сделали, то возникает интересный тройной юридический казус.
Во первых, по лицензионному соглашению, заказчик имеет право на обновления только в период действия подписки на поддержку. Срок подписки обычно был три года, вся подписка из 2021 закончилась в 2024, а местами и в 2022, поэтому вопрос законности покажет любой аудит.
Во вторых, и это гораздо интереснее, очень много сотовых операторов , банков и так далее «в целом» отнесены к КИИ. Соответственно, в их системах должны быть установлены обновления безопасности, скачанные с официального сайта, и проверенные соответствующими органами.
В частности:
Обновление VMware Tools, Идентификатор обновления: TO1965, Вендор: VMware Inc., ПО: VMware Tools .
С вендором ошибка, до ФСТЕК за 2 года не дошло, что это теперь Broadcom, фирмы VMware Inc больше нет. Там, на сайте, и с обновлениями самого ESXi проблема, последнее протестированное обновление 8.0b-21203435 для 8.0 из 2023. Но уязвимости описаны, BDU:2024-01809 или BDU:2025-02354, вместе с советами «выкручивайтесь сами», то есть, конечно, не так, цитата:

Установка обновлений из доверенных источников. В связи со сложившейся обстановкой и введенными санкциями против Российской Федерации рекомендуется устанавливать обновления программного обеспечения только после оценки всех сопутствующих рисков.

Интересно, что когда зарубежная проприетарщина много лет поставляет в РФ проверенные и годные продукты это одно, а захват ядра, базы из баз , практически всего опенсорса кликой сумасшедшего финна из агрессивного блока НАТО, это другое.
Ну да ладно, а то так окажется, что исходники Windows 20 лет назад отдали, кому положено, и что Windows с 1996 до 2004 года неплохо работал в системе управления вооружением USS Yorktown (DDG-48/CG-48, программа Navy's Smart Ship program - на 2*27 Pentium Pro)

И в третьих, это рекомендации «переходить на российское шифрование и не использовать то, о чем говорить нельзя, из трех букв».
Как использовать российское этцамое для обновления по https, если с той стороны не в курсе про ГОСТ, и как не использовать этцамое, если с той стороны и обновление, и документация, закрыты для РФ?

Пора прощаться с VMware by Broadcom. История в нескольких частях. Часть 2 Импортозамещение, Vmware, Ссылка, Windows, Программа, Длиннопост

Вы находитесь здесь

Но, к теме.

Fast start. Литература и сайты для тех, кто вляпается в это легаси.

Сразу скажу: если вы унаследовали «это», то можете забыть про какую-то литературу на русском.

По теме выходило ровно 3(три) книги на русском, от 1 (одного)  автора.

Михаил Михеев: Администрирование VMware vSphere из 2010 года.
Михаил Михеев: Администрирование VMware vSphere 4.1 из 2011 года.
Михаил Михеев: Администрирование VMware vSphere 5 из 2012 года.

На этом ВСЁ.
ВООБЩЕ ВСЁ.

Больше литературы, кроме выгрузок лекций, переводов статей и курсов «в пересказе по мотивам» не было.
Русификация портала vmwarelearning.com осталась где-то там же, в 2012 году, с тех пор все куда-то ехало, ехало, и переехало.
Еще есть VMware vSphere 4,5,6,7.0 ESXi - записки на манжетах от Максима Мошкова.

Маст рид. Серия Deep dive

Duncan Epping – vSphere 6.0 U2 HA Deepdive
VMware vSphere 6.5 Host Resources Deep Dive by Frank Denneman and Niels Hagoort
Rubric, Clustering Deep Dive - VMware vSphere 6.7 Clustering Deep Dive Kindle Edition by Frank Denneman (Author), Duncan Epping (Author), Niels Hagoort (Author)
VMware vSAN 6.7 U1 Deep Dive by Cormac Hogan (Author), Duncan Epping (Author)
VMware vSAN Deep Dive 7.0 Update 3.
Storage Design and Implementation in vSphere 6: A Technology Deep Dive (VMware Press Technology) 2nd Edition, Kindle Edition by Mostafa Khalil (Author)
Заполировать: VMware vSphere PowerCLI Reference. Automating vSphere Administration | Boren Matt, Graf Brian

Парочка сайтов:
Cody Hosterman
Duncan Epping
Frank Denneman
Vladan Seget
Niels Hagoort и https://blogs.vmware.com/vsphere/author/nhagoor ;
Luc Dekens , в том числе virtuallyGhetto

В обязательном порядке должна быть прочитана книга по сетям.
Не какой-то там курс от «аналоговнетных русских курсов и русских авторов», а только родная Cisco. И только такая:
Cisco CCENT/CCNA ICND1 100-101 Official Cert Guide  Academic Edition - by WENDELL ODOM, CCIE NO.
Если в каком-то сообществе, группе, все равно где, вам предлагают читать Олиферов вместо Cisco Press - БЕГИТЕ ГЛУПЦЫ.
После того, как вы прочитаете все вышеперечисленное, можно идти сюда за второй порцией литературы и статей.

Надо обязательно добавить в избранное, первый месяц с этих сайтов лучше не вылезать:
VMware Compatibility Guide (HCL)
VMware ESXi Patch Tracker
VMware vSphere 8.0 Release Notes - раньше жили на https://docs.vmware.com/en/VMware-vSphere/8.0/ , почему-то копия живет тут, на adobecqms.
Community Network Driver for ESXi Documentation , раньше это называлось flings  и жило тут.

Добавляются учебные стенды. Бесплатные! VMware Hands-on Labs - https://hol.vmware.com/

Добавляются сети. Придется биться насмерть с сетевиками, и с любителями русской сетевой литературы, где LAG считается третьим лучшим изобретением человечества, сразу после описанного в Бытие 38:9 и Левит (18:22).
Читать заметку: John Nicholson - As I lay in bed I can’t help but think…. LAG/LACP/MLAG/Bonding links to hosts is a bad idea for anything you care about that much. (A thread) – тут могла быть ссылка на вроде еще запрещенных в РФ любителей 140 знаков, и вот эту статью - LACP and vSphere (ESXi) hosts: not a very good marriage.

Дальше остаются мелочи.
Работа с хостом через Direct Console User Interface (DCUI), через ssh, и powercli .
Регулярный Левит (18:22), то есть перезапуск агентов управления - Restarting the Management agents in ESXi (1003490) , и еще четыре статьи. Первая, вторая, третья, четвертая.
И, просто списком, уже совсем мелкое.
Esxtop, code capture, vsish (VMkernel Sys Info Shell), RVTools, VMware ESXi SCSI Sense Code Decoder

Для начала хватит. Потом пойдет всякая рутина - Allow unsupported CPUs,Side-Channel Aware Scheduler v2 (SCAv2),  Performance Best Practices for VMware vSphere 8.0, Best Practices for Performance Tuning of Latency-Sensitive Workloads in vSphere VMs, и прочая скука скучная.

Подводя итог.
Как легко прочитать в интернете, ESXi и прочие продукты VMware вокруг него – это жалкое проприетарное подобие Linux \ KVM \ XEN \ CEPH \ OVN, и еще сотни «замещающих» продуктов, по непонятным причинам совокупно (с учетом стоимости людей и требований к оборудованию) стоящее дешевле в пересчете на 3 года. Исключение - если у вас люди бесплатные, помещение бесплатное, и никаких требований к SLA нет. Давно списанное оборудование на балконе, например, которое может упасть только вместе с балконом, а зимой греет весь подъезд всеми 8 ядрами на сокет (единственный).
Учиться работать с этим, конечно, не стоит. Рынок труда для этих продуктов уже ограничен «золотой тысячей кровавого энтерпрайза», то есть, суммарный платежеспособный спрос будет падать и падать. Всегда останутся организации, в поисках высококвалифицированных низкооплачиваемых кадров, почему-то не могущие найти кадры на открытом рынке.
Да и учиться там особо нечему – как большая часть проприетарных продуктов, он еще недавно был сделан так, чтобы, в основном, работать.
Если не работает, что бывало, то дать возможность собрать огромный дамп логов для техподдержки. Конечно, и тут все нехорошо. Последние лет 5 и в эту разработку прокрались криворукие, вместе с идеей «давайте тестировать новый код на пользователях».
Хуже всего в VMware в РФ – это отсутствие комьюнити. Два русских сообщества, входящие в Virtual maining user group, причем на треть состава сидящие в третьем сообществе, по нелицензионным версиям VMware. Одно мертвое сообщество по NSX, такое же мертвое по Amazon Elastic VMware Service. Одно более-менее живое сообщество по vSAN, и просто ужас под названием «Сообщество по Азии». Помогут, в лучшем случае, в группе по vSAN. Вместо остальных достаточно бота с случайными сообщениями «гуглить пробовали», «это все есть в документации», или "что в логах".

Как же хорошо, что есть Reddit, LLM и форумы самого Broadcom.

PS.
Как мне напомнили рецензенты, есть один крохотнейший плюс - то, что vGate умер на линейке 7. Это снизило глобальное потепление в России на 0.1 градуса, и уровень смога в Москве на 0.2%.

Показать полностью 3
[моё] Импортозамещение Vmware Ссылка Windows Программа Длиннопост
22
25
tihiyochen
tihiyochen
5 месяцев назад
Ключи к продуктам Microsoft

Ответ на пост «Ключ Windows 10/11 PRO»⁠⁠2

А и я солью во благо из погреба
мож действуют еще

1F0T2-021EQ-48881-NACZ2-8KR04 vmware вроле фулл на 6ю версию

Exchange Server Standard 2016 QXYKC-7H87P-YKC2Q-XRVQ7-GTJP2

Win SBS Std/Essentials 2011 MAK JYM2R-KYYGM-MDTFW-WFD47-2CJM4

Win Srv Essentials 2016 MAK BXRJQ-7KN4R-TBQWP-CTGGC-Q3XQC

Win Svr Essentials 2012 MAK P8FMC-NCH6W-CQ88Q-W33BR-GXVBK

Win Svr Essentials 2012R2 MAK 9FPNG-4JYBK-QFV7J-YGJRX-6CM8K


Windows Server 2008R2 Std/Ent - MAK B V3YHD-DWDBR-TY3T2-PTQWR-7GHBD


Windows Srv 2012 Standard MAK B P42JN-WY6GR-BT644-B6B2R-F6V63

Windows Srv 2012R2 Standard MAK B NJHT4-VV4T6-HWDR9-7MW7R-YTB48


Windows Srv 2016 Standard MAK B VDTKT-THNFB-PVTGD-6QKR9-HCF7P


Windows Web/HPC Srv 2008R2-MAK A FBVC6-TVYGD-3QJVQ-2X2PJ-8QQVB

Windows Server 2012 R2 Standard NKD9F-GRFJ3-QDYFQ-THT2J-J8DWW

Office Professional Plus 2013 RFHNC-34DMY-B3DCD-8666V-46WQH

Windows 10 Enterprise GXGY4-2KN82-RBWWM-H7JPB-7MH2F

Windows 10 Professional T8WWN-GBKYF-H6TV8-HVMKG-PDKTT

Windows 7 Prof GV46V-HWGJD-KTMWF-7Q8BW-R7GF2

Показать полностью
[моё] Windows Халява Ключи Ключ активации Vmware Microsoft office Ответ на пост Текст
6
8
kostyanuch
kostyanuch
5 месяцев назад

Перенос виртуальных машин из .ovf на Proxmox⁠⁠

После того как я прикупил себе RAID контроллер Adaptec 71605

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

и решил заново установить на Dell OptiPlex 990 SFF гипервизор ESXi, что-то пошло не так, а именно сборка образов и прочая чёрная магия в течение нескольких дней не принесли ожидаемого результата, то установщик не узнаёт мой сетевой адаптер:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

то не видит RAID контроллер, то все вместе, а то вдруг все видит, но на этапе установки ругается на мои вшитые в образ VIB с драйверами ссылаясь на какие-то зависимости:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

Этот момент мне несколько поднадоел и решил я в качестве эксперимента накатить последнюю версию Proxmox, вот как есть, без каких-либо изменений и она без проблем установилась на текущую конфигурацию, увидела и RAID контроллер и сетевую карту, да всё настолько легко прошло, что я решил перенести на неё все мои виртуалки. Собственно сам перенос из файла .ovf выполняется одной единственной командой qm importovf 103 /home/Win11/Win11.ovf local-lvm:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

qm importovf 103 /home/Win11/Win11.ovf local-lvm

103 - идентификатор VM, /home/Win11/Win11.ovf - путь к файлу .ovf, local-lvm - путь к хранилищу на гипервизоре proxmox

В случае с Windows импорт я делал прямо из .ovf файла который получил путем экспорта с ESXi, там было достаточно заменить scsi0 на sata0 в конфигурационном файле /etc/pve/qemu-server/103.conf и добавить сетевой адаптер.

В итоге ОС запускается и работает без проблем:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

А вот в случае, когда я переносил машину Debian с Home Assistant, первоначально у меня она была перенесена из .ovf в VMware Workstation, поскольку, пока я копался с настройкой Proxmox, надо было чтобы HA продолжал работать, затем когда всё готово было к переносу, я сделал экспорт Debian с HA и затем экспорт уже на Proxmox, всё завелось с полпинка, даже после проброса USB ZigBee Sonoff 3.0 dongle - не пришлось колдовать с Zigbee2MQTT, он заработал сразу. На волне успеха побежал импортировать свою виртуалку с Debian, которая с такой же лёгкостью не поднялась, а дело было в том, что на VM с HA у меня был BIOS, а на второй UEFI, тут то и зарылась проблема, понял я это не сразу и даже потратил немного времени, перенес виртуалку сначала в VMware Workstation, оттуда сделал экспорт, затем импорт в Proxmox и ничего не заработало, но оно и не удивительно. Теперь конкретнее, что необходимо было сделать если вы переносите таким способом VM Debian UEFI. После выполнения импорта на гипервизор в настройках виртуалки:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

в разделе hardware поправим BIOS на UEFI и SCSI Controller меняем на VirtIO SCSI

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

в options => boot order отмечаем первым пунктом наш диск

Сетевой адаптер добавить не забываем, они всегда слетают после импорта.

Далее необходимо запустить виртуалку и в консоли сразу же нажать ESC чтобы попасть в настройки UEFI, пройти по пути:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

Boot Maintenance Manager =>

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

Boot Options =>

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

Add Boot Option =>

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

выбрать диск с EFI загрузчиком (он там будет единственный в большинстве случаев)

Далее пройти по пути до самого загрузчика:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост
Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост
Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

(в случае с Debian - это shimx64.efi) выбрать его

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

зайти в меню Input the description вписать любое название для загрузчика

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

например debian

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

подтвердить нажатием Commit Changes and Exit

Далее изменить загрузку по умолчанию:

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

зайдя в меню Change Boot Order

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

там нажимаем Enter и плюсиком перемещаем debian на первый пункт и нажимаем Enter

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

подтвердить нажатием Commit Changes and Exit

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

нажимаем Reset

виртуалка перезагрузится

Перенос виртуальных машин из .ovf на Proxmox Виртуализация, Linux, Esxi, Vmware, Raid, Telegram (ссылка), Длиннопост

и вы должны будете увидеть Grub и успешно загрузиться в Debian

Кому интересна тематика умного дома, прошу в мой телеграмм канал, там регулярно пишу о своих идеях, сценариях, реализациях и прочих темах DIY, IoT, CS.

Показать полностью 21
Виртуализация Linux Esxi Vmware Raid Telegram (ссылка) Длиннопост
3
26
DmitriitheFals
5 месяцев назад
Лига Сисадминов
Серия Кудахтеры

VMware by Broadcom - срочно обновляемся⁠⁠

VMware by Broadcom - срочно обновляемся

Для ЛЛ: вышли патчи, критичность 9.3

Пока все мирно готовили цветы и конфеты, пришла беда откуда не ждали, то есть патчи и объявления.
Объявление одно, но большое:
VMSA-2025-0004: VMware ESXi, Workstation, and Fusion updates address multiple vulnerabilities (CVE-2025-22224, CVE-2025-22225, CVE-2025-22226)

Патчи большие, и их целых три:
VMware ESXi 8.0 Update 3d | 04 MAR 2025 | Build 24585383
Download Filename: VMware-ESXi-8.0U3d-24585383-depot.zip
Build: 24585383
Download Size: 629.0 MB
MD5 ff2765e57dedbbe94bdc5c7a36cbc3b4
SHA256 71c09c47a35fd94bc726696a2b11d3df63a6f6fe71344864412f9fabca29251a
RN

VMware ESXi 7.0 Update 3s |04 MAR 2025 | Build 24585291
Download Filename: VMware-ESXi-7.0U3s-24585291-depot.zip
Build: 24585291
Download Size: 382.1 MB
md5 6535f6f9a016fb1a76d6caa086f48891
sha256 b4de8b0b2b0bf9851dcef9f30cb19ff487b03d8494693acec216eb9635f4dd59
RN

ESXi670-202503001 | 04 MAR 2025 | Build 24514018
RN

Традиционно, на портале https://support.broadcom.com опять все сломали. Через Okta логин не работает, все не так, все не то.

Если пройти по прямой ссылке на скачивание, VMware-ESXi-8.0U3c-24414501-depot, то кнопки download пока нет. Или опять что-то поменялось в политике партии, или просто еще не выложили.
Скачивание через vSphere Lifecycle Manager (vLCM) не проверял.
Подождем.
В пиратке пока тоже ничего нет

Показать полностью
[моё] Esxi Vmware Patch Баг Текст
28
4
TheSecondI
10 месяцев назад

Вопрос по VMWare без рейтинга⁠⁠

Туплю чо-т, или где.
Поставил VMWare, установилась винда, всё как чо...

А как получить доступ к локальным папкам?

Вопрос по VMWare без рейтинга Без рейтинга, Нужен совет, Вопрос, Vmware, Настройка, Виртуальная машина, Не растёт

Гугление говорит что-то про какие-то tools, но где и как их взять, я чо-т в тупике....

Вопрос по VMWare без рейтинга Без рейтинга, Нужен совет, Вопрос, Vmware, Настройка, Виртуальная машина, Не растёт

Мильён раз уже перезагрузился...

РЕШЕНО. Не сочтите за рекламу, по совету @galeodes08 прошёл за инструкцией по ссылке https://remontcompa.ru/virtualnye-mashiny/850-sozdanie-obsch....

Всё получилось.

Вдруг пригодится кому...

Показать полностью 1
[моё] Без рейтинга Нужен совет Вопрос Vmware Настройка Виртуальная машина Не растёт
10
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Директ Промокоды Отелло Промокоды Aroma Butik Промокоды Яндекс Путешествия Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии