Горячее
Лучшее
Свежее
Подписки
Сообщества
Блоги
Эксперты
Войти
Забыли пароль?
или продолжите с
Создать аккаунт
Регистрируясь, я даю согласие на обработку данных и условия почтовых рассылок.
или
Восстановление пароля
Восстановление пароля
Получить код в Telegram
Войти с Яндекс ID Войти через VK ID
ПромокодыРаботаКурсыРекламаИгрыПополнение Steam
Пикабу Игры +1000 бесплатных онлайн игр Собирайте грибы, готовьте и общайтесь. Экономический симулятор лесной фермы

Грибники и Кланы

Симуляторы, Стратегии, Фермы

Играть

Топ прошлой недели

  • solenakrivetka solenakrivetka 7 постов
  • Animalrescueed Animalrescueed 53 поста
  • ia.panorama ia.panorama 12 постов
Посмотреть весь топ

Лучшие посты недели

Рассылка Пикабу: отправляем самые рейтинговые материалы за 7 дней 🔥

Нажимая «Подписаться», я даю согласие на обработку данных и условия почтовых рассылок.

Спасибо, что подписались!
Пожалуйста, проверьте почту 😊

Помощь Кодекс Пикабу Команда Пикабу Моб. приложение
Правила соцсети О рекомендациях О компании
Промокоды Биг Гик Промокоды Lamoda Промокоды МВидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
0 просмотренных постов скрыто
12
DmitriitheFals
Лига Сисадминов
Серия Кудахтеры

VMware by Broadcom: Бегите, глупцы⁠⁠

2 месяца назад

На днях произошло два знаковых событий, и что интересно, в один день.

18.09.2025 У одного из очень, очень старых партнеров VMware (Nothing But Net) был отозван статус авторизованного партнёра. Причем не просто «заранее отозван», а конечные заказчики получили письмо, что партнерство прекращено.

Перевод: В электронном письме, подтвержденном CRN, говорится, что Broadcom «оптимизирует экосистему реселлеров VMware, сосредоточившись на партнерах, которые активно вовлечены, обладают техническими возможностями и нацелены на предоставление значимых результатов» для клиентов.
Оригинал: The email—which was verified by CRN—said that Broadcom was “optimizing the VMware reseller ecosystem to focus on partners who are actively engaged, technically capable, and committed to delivering meaningful outcomes” for customers.
Статья: Deauthorized Broadcom-VMware Partner Angered By ‘Misleading’ Email To Customer

И это кроме того, что для самого поставщика услуг стоимость выросла в три раза.

Перевод:
Кстати, компания Кокса также столкнулась с почти трёхкратным ростом цен VMware на серверы, которые она размещает в качестве провайдера услуг размещения оборудования для клиентов, с 14 500 до 43 000 долларов в год в соответствии с новой моделью подписки Broadcom-VMware с оплатой за ядро. «Broadcom-VMware не позволили нам использовать ту же стандартную версию», — сказал он. «Они вынудили нас перейти на версию VMware Cloud Foundation».
Оригинал: Cox’s company, by the way, has also been hit with a nearly 3X increase in VMware pricing on the servers it hosts as a colocation provider for customers from $14,500 annually to $43,000 annually based on the new Broadcom-VMware per-core subscription model. “Broadcom-VMware wouldn’t allow us to stay with the same standard version,” he said. “They were forcing us to go to the VMware Cloud Foundation version.”

И в то же время, буквально в тот же день (18.09.2025) на crn выходит огромное интервью от Brian Moats, senior vice president of global commercial sales and partners

Вкратце текст: что-то вы, партнеры, маловато продаете нашего решения, которое не просто подорожало, но к нему навязаны дополнительные услуги, которые раньше были не нужны.

Перевод: «Я обращаюсь к партнёрам: «Пожалуйста, поддержите нас. Спрос превышает наши возможности», — сказал Моутс, старший вице-президент по глобальным коммерческим продажам и партнёрству.

«Нам нужны партнёры, готовые поддержать нас.

Оригинал: My message to partners is, ‘Please lean in. The demand is greater than we can fulfill,’” said Moats, senior vice president of global commercial sales and partners.“We need those partners who are willing to lean in.

Перевод: Заключается ли стратегия VMware по выходу на рынок в том, чтобы партнеры по продажам брали на себя большую часть профессиональных услуг?

Это гораздо более сложный процесс и предварительный анализ, чем при продаже отдельных продуктов. Поэтому речь идет не только о конечном внедрении, но и о планировании и расчете экономической эффективности различных путей к конечной точке облачной операционной модели.

Поэтому наши партнеры по сервисам оказывают услуги не только после того, как клиент принимает решение о переходе на платформу.

Они за много месяцев до этого обсуждают с клиентом различные экономические аспекты и альтернативы различным технологическим, организационным и процессным изменениям, которые дадут ему определенный результат в будущем, скорее всего, в частном операционном облаке.

Оригинал: Is VMware’s go-to-market strategy to have channel partners take over the majority of professional services?

It’s much more of a journey and an analysis up front than it would have been when you’re selling point products. So it’s not just about the implementation that ultimately occurs, it’s a bit of planning and calculating the economics around different paths to the endpoint of the cloud operating model.

So our services partners aren’t just doing services after the customer commits to the platform.

They’re talking to the customer many months before about the different economics and alternatives to different tech and organizational and process change routes that give them some future outcome, most likely in a private operating cloud.

Статья: Broadcom Global Channel Chief On The Value Of Services: ‘The Light Bulb Has Clicked For Partners’

Что тут сказать? БЕГИТЕ ГЛУПЦЫ

@editors, тега Broadcom нет же ?

Показать полностью 1
IT Vmware Esxi Импортозамещение Видео YouTube Длиннопост
12
Вопрос из ленты «Эксперты»
Burinis
Уголок ретрогеймера

Есть ли какие-нибудь программы для захвата видео в Windows 98?⁠⁠

2 месяца назад

Стоят две винды 98SE в VirtualBox и VMWare. Уже стоят видеодрова от SoftGPU и кодеки для WMP6, WMP9 и K-Lite Codec Pack (3.4.5)

Если я где-нибудь задаю вопрос, какая прога подойдёт для захвата видео в винде 98, мне тупо советуют ОБС. Просто нередко бывает, что во время захвата старых игр на виртуалках я читаю прохождения к ним, из-за чего мне придётся постоянно делать паузы (что может раздражать некоторых зрителей).

Знаю, что прохождения к играм можно читать на смартфоне и планшете, но что-то мне надоело переключаться между двумя гаджетами при прохождении. Подключать внешнюю карту захвата НЕ ДЛЯ МЕНЯ!

Windows Windows 98 Vmware Virtualbox Виртуальная машина Ретро-игры Вспоминая старые игры Кодеки Видеомонтаж Захват Захват экрана Вопрос Спроси Пикабу Текст
35
0
Burinis
Компьютер это просто

Не работает звук в VMWare Workstation Pro. Помогите, срочно и без шуток!⁠⁠

3 месяца назад

Недавно перестал работать звук во всех виртуалках, установленных на VMWare Workstation Pro. На самом ноуте с Windows 10 и в VirtualBox звук работает нормально.

При попытке включить звуковую карту в виртуалке выдаёт следующее:

Не работает звук в VMWare Workstation Pro. Помогите, срочно и без шуток!

Что я пробовал:
1) обновил до версии 17.6.4 (стояла 17.6.3).
2) включал стереомикшер.
3) снёс openal (вроде тоже важен для работы некоторых старых игр на хосте) и все дрова на звук от смартфона, планшета и наушников.
4) перезагружал звуковую карту.
5) ставил старые версии VMWare.
6) чистая установка VMWare.
7) отключение сторонних служб в msconfig.

Интересно, что если я в приложении B&O Play Audio Control (у меня ноутбук от HP) включу передачу нескольких потоков, а затем там же и в настройках виртуальной машины выберу HD Audio 2nd output (у меня наушники подключены через аналоговый разъем), звук работает:

https://vk.ru/video-229388789_456239026

Но так как долго в наушниках не могу сидеть, мне хотелось бы знать, почему так вышло? Может ли помочь обновление B&O Play Audio Control? Где его скачать? Ничего не помогло((

Звуковуха Realtek High Definition Audio.

Как мне быть дальше?

Показать полностью
Компьютерное железо Windows Виртуальная машина Vmware Компьютерная помощь Видеокарта
15
22
DmitriitheFals
Лига Сисадминов
Серия Кудахтеры: Proxmox GmbH

Переход на Proxmox (Proxmox GmbH, Vienna, Austria) с Hyper-V by Microsoft и VMware by Broadcom. Часть седьмая из многих⁠⁠

3 месяца назад

Для лиги лени: общеизвестное и душное.

Часть 1. Общая
Часть 2. Gitlab и Nexus
Часть 3. Ansible и Ansible AWS
Часть 4. Наконец переходим к Proxmox
Часть 5, не запланированная. Обновляем Proxmox с 8.4 до 9.0. Неудачно.
Часть 6. Возвращаемся к запуску Ansible

Разница концепций. Часть 7.1 Обновления компонентов и система информирования.

13 августа 2025 года вышло обновление Proxmox до 9.0.5
было  pve-manager/9.0.3/025864202ebb6109 (running kernel: 6.14.8-2-pve)
стало pve-manager/9.0.5/9c5600b249dbfd2f (running kernel: 6.14.8-2-pve)

Но искать «что там было обновлено», это тот еще процесс.
То есть:
Вот большая статья: вышла версия 9, Proxmox Virtual Environment 9.0 with Debian 13 released
Вот Git с фиксами.

После обновления до 9.0.5, внезапно появился
/etc/apt/sources.list.d/pve-enterprise.sources
да и ладно

У Broadcom VMware все проще – вот патч (сейчас официально только по подписке), вот компоненты в нем.
У Microsoft  все еще проще – вот MicrosoftUpdate Catalog. Если выходят бесплатные обновления (для 2012 и 2012R2 – только платные, нужна подписка Extended Security Updates (ESU) for Windows Server, для 2008 нужна подписка premium assurance. Но обновления выходят, например:
2025-08 Security Monthly Quality Rollup for Windows Server 2008 R2 for x64-based Systems (KB5063947)

Поэтому можно сходить на
http://download.proxmox.com/debian/pve/dists/bookworm/pve-no...
http://download.proxmox.com/debian/pve/dists/trixie/

Скачать там файл
http://download.proxmox.com/debian/pve/dists/trixie/pve-no-s...

И увидеть, цитата

Package: pve-manager
Maintainer: Proxmox Support Team support@proxmox.com
Installed-Size: 3573
Provides: vlan, vzdump
Depends: apt (>= 1.5~), ..
Recommends: proxmox-firewall, proxmox-offline-mirror-helper, pve-nvidia-vgpu-helper
Conflicts: vlan, vzdump
Breaks: libpve-network-perl (<< 0.5-1)
Replaces: vlan, vzdump
Filename: dists/trixie/pve-no-subscription/binary-amd64/pve-manager_9.0.5_all.deb
Size: 580388

Окей, а как-то поудобнее можно?

Конечно после обновления можно увидеть:
cat /var/log/apt/history.log
Но это после обновления.

Очень, очень не хватает решения типа Windows Server Update Services (WSUS), но для Linux и Proxmox. Foreman+Katello говорят «ок». RedHat Satellite ? SpaceWalk:Satellite ?

Разница концепций. Часть 7.2 Сети

В ESXi «из коробки» все просто. Есть стандартный свитч, vSphere Standard Switch, vSS. Он мало чего умеет «из коробки», но самое главное, что вы можете завести несколько коммутаторов, и распределять физические порты сетевых карт, и порты виртуальных сервисов – самого менеджмента, сервисов, итд, как вам нравится.
Вместе с некоторыми (их опять поменяли) лицензиями вы получали vSphere Distributed Switch (VDS), с дополнительными функциями.
Если хотите добавить в жизнь интима - Single Root I/O virtualization (SR-IOV).
Хотите чего-то большего – покупайте VMware NSX.
У Microsoft в чем-то схожий подход. Есть Hyper-V switch с массой настроек исключительно из powershell.
Хотите большего – добро пожаловать в увлекательный мир Network Controller Server Role.
Хотите того же самого, но иначе – вот вам Set up networking for Hyper-V hosts and clusters in the VMM fabric, вот вам Set up logical networks in the VMM fabric, и вперед.

У Proxmox все немного не так. То есть, так то так, архитектура та же, x86, но.
За уровень «стандартного коммутатора» отвечает стандартный функционал Linux. Проблема в том, что он (как, впрочем, и в Broadcom, и в Microsoft) читаемо и полноценно настраивается только из командной строки. Режима Switch Embedded Teaming (SET) в нем нет, есть active-active bond, но.
Red Hat пыталась сделать что-то такое же, и даже статья есть - 8.3. Comparison of Network Teaming to Bonding, но это Red Hat.
Чтобы в этом разбираться, все равно необходим  базовый уровень знания сети, в масштабе CCNA: Switching, Routing, and Wireless Essentials, он же CCNA Routing & Switching ICND1 100-105 Course. Иначе вопросов будет больше, чем ответов. У Broadcom есть best practice – собирайте actve-active, LACP не нужен. Если вы упрт нркмн, то вот вам beacon probe и shotgun mode, можете упртс. Если хотите совсем упртс, то вот вам air-gap storage fabric, только лучше бы вы так не делали.
У Microsoft есть best practice – просто ставьте SET, он сам разберется.
У proxmox, их-за наличия Bridge, который по сути L2 switch, и iptables, появляется L3 конфигурация с NAT, но планирование сети заставляет каждый раз думать «как лучше-то».

Кроме того, в конфигурации сети отдельно английским по белому написано:

For the cluster network (Corosync) we recommend configuring it with multiple networks. Corosync does not need a bond for network redundancy as it can switch between networks by itself, if one becomes unusable. Some bond modes are known to be problematic for Corosync, see Corosync over Bonds.


Особенно мне понравилась строчка:
We recommend at least one dedicated physical NIC for the primary Corosync link

То есть, поскольку сетевые карты нынче идут, чаще всего, с двумя портами, то надо брать 2 карты по 2 порта, всего 4 порта, и один порт выделять под Corosync. Но если у меня конфигурация нормального человека, 2 порта по 25, это мне что, под кластер надо выделять целых 25G? А не жирновато?
При этом сценарии отказа описаны понятно и обоснованно, но как-то заставляют задуматься. Это же придется ставить на мониторинг не только состояние порта on\off\ CRC, но и, для оптики, уровень сигнала по SFP модулям с обеих сторон, RX power \ TX power.

Середины (типа vSphere Distributed Switch (VDS)) нет.
Зато есть SDN

От теории к практике.
Поскольку для этой серии статей у меня Proxmox развернут как вложенная (nested) виртуализация, то мне придется или переделать всю сеть, или пересобирать рабочие стенды, или ограничиться двумя виртуальными сетевыми картами.

К моему величайшему отвращению, Hyper-V Windows 11 'Default Switch' зачем-то снабжен никак нормально не настраиваемым DHCP сервером. В Server 2012\2016\2019\2022\2025 такого нет, если нет DHCP в сети, значит нет сети.

Конфигурация хоста Hyper-V:
Get-VMSwitch 'Default Switch' | fl – от этого виртуального свича все отключено.
Вот он мне и вредил, поскольку в нем и NAT и DHCP , и ничего в нем не настраивается, согласно Change Hyper-V (Default Switch) IP address range.

The Hyper-V Default Switch will randomly use one these IP address ranges based on the host system IP address:
Start IP: 192.168.0.0 – End IP: 192.168.255.255
Start IP: 172.17.0.0 – End IP: 172.31.255.255

Поэтому я новый виртуальный свитч и сделал, режим external. И все у него хорошо.
Конфигурация proxmox по умолчанию


auto lo
iface lo inet loopback
iface eth0 inet manual
auto vmbr0
iface vmbr0 inet static
address 192.168.10.202/24
gateway 192.168.10.1
bridge-ports eth0
bridge-stp off
bridge-fd 0

Конфигурация с двумя виртуальными сетевыми картами у меня будет выглядеть так:

auto lo
iface lo inet loopback
iface eno1 inet manual
iface eno2 inet manual

auto bond0

iface bond0 inet manual

bond-slaves eno1 eno2
bond-miimon 100
bond-mode active-backup
bond-xmit-hash-policy layer2+3

auto vmbr0

iface vmbr0 inet static
address  192.168.10.202/24
gateway  192.168.10.1
bridge-ports bond0
bridge-stp off
bridge-fd 0

Конфигурация с VLAN для рабочих сред описана в разделе Example: Use VLAN 5 for the Proxmox VE management IP with VLAN aware Linux bridge, конфигурация The next example is the same setup but a bond is used to make this network fail-safe.

Разница концепций. Часть 7.3 предисловие к теме «Дисковое пространство».

Чтобы понимать незначительные сложности, нужно немного отойти назад, в состояние «дисковых пространств» 15-20 лет назад, и огромный скачок для всего человечества за последние пять лет.

15 назад, в 2010 году, концепция дисковых пространств была достаточно проста.
Есть одиночные локальные диски, которые могут быть включены по IDE (уже крайне редко на тот момент), SATA, SCSI и SAS. Но интерфейс особого значения не имеет (то есть, еще как имеет, но это другая история), потому что глобально выбора конфигурации особо и нет.
Для домашней и офисной техники: 1 диск, без всяких массивов.
Для дисков с операционной системой: аппаратный RAID 1 (зеркало) из 2 дисков. Не надо забывать, что диски тогда были маленькими, как 72GB 2.5-inc SFF 3G Single Port SAS 10K, 146GB SCSI U320 или 146GB hot-plug Serial Attached SCSI (SAS).
Для дисков с данными для «быстрого» доступа: аппаратный RAID 10.
Для дисков с данными для «медленного» доступа: аппаратный RAID 5, если у вас диски меньше 1 терабайта, аппаратный RAID 6, если у вас диски больше 1 терабайта.
Потому что, запишите это уже большими буквами: RAID 5 на дисках бытового и начально-корпоративного сегмента, при размере одиночного диска больше 1 Тб, достаточно часто умирает при стандартном ребилде. Вероятности считайте сами.
Плюс локально включенные коробки с дисками.
И, для дисковых массивов, у вас есть FC 4g (c 2004), FC 8g (с 2008), и с 2007 года есть 10G Ethernet для iSCSI. 25G Ethernet появится только в 2018 году.
NFS поверх 1\10G, конечно, тоже уже есть. Apple File Service (AFS) еще не умер.
Современные технологии быстрого перестроения массивов уже почти есть в HPE Eva.
Еще есть  InfiniBand, но дорого.

Основная проблема – ребилд. Это долго, это дорого с точки зрения потери производительности, но это зачастую проще, чем переставлять ОС или поднимать данные из архивов. Поэтому везде RAID 1\10 и еще раз RAID. Альтернативы были, но все равно, RAID это было просто, понятно, наглядно, и не требует вмешательства администратора, особенно если есть запасной диск.

Сейчас все поменялось.
Окончательно ушли в историю диски на 15.000 и 10.000 оборотов, и та же судьба уже видна для дисков 7200 для массивов, и для дисков 5400 для ноутбуков. SSD с двумя оставшимися вариантами подключения, SAS и NVME, побеждают почти везде.
Появились технологии для гиперскейлеров, и не только – S2D, vSAN (StarWind дано был). И то, и другое, уже не redundant array of inexpensive disks, а Redundant Array of Independent Nodes (RAIN) .
Сети стали быстрее, диски быстрее, объемнее, и возникает другой вопрос – старые RAID контроллеры перестали справляться с производительностью новых дисков. Новые RAID контроллеры тоже не блещут при работе с NVME, но это уже другая история:
NVME Raid – We Need To Go Deeper, или что там на глубине. GPU over NVME, с водяным охлаждением

Проблема даже не в этом, а в том, что нет смысла держать разные диски на передней панели «под ОС и «под данные», с точки зрения работы, закупок, и в целом. Удобнее использовать один тип дисков, и никто не перепутает. В таком случае проще поставить или PCIe карту на 2 m.2 планки, или взять internal M.2 boot module или что-то типа Dell BOSS, собрать недоаппаратный или программный рейд на такой карте, и отдать остальные одинаковые диски, установленные в передние слоты, под данные, собрав тот или иной вид программного рейда.
НО.
Дальше начинаются «проблемы legacy 2.0».
В корпоративном варианте заказчику, за очень дорого, продадут и S2D и vSAN, со всеми их свистелками, типа быстрого перестроения при сбое, RAID 5+6, поддержке RDMA. Продадут со свичами Arista или Mellanox с их скоростями и cut-through (вместо Store-and-Forward), и lossless Ethernet, и так далее. Это все есть, это все работает, как и последние навороты в MPIO для IP в NVIDIA ConnectX-8 .
Это все есть, но это: 1) дорого 2) требует настройки 3)требует переписать драйвера 4)требует настроить сеть и следить за ней.
В то же время, существуют, как продукты, Ceph и drbd, то есть Linstor. И не только.
Они работают, но. Но настройка, скорость работы (задержки, и как следствие IOPS), проблемы связности, проблемы на ребилде, пожирание памяти как не в себя, и так далее.
В домашней лаборатории, где все работает, а отказ или split brain или остановка сервисов не важны – CEPH работает.
В масштабах VK – тоже работает, вопрос какой ценой.
Ceph вырос как проект 2007 года, времен медленных дисков небольшого объема, отсутствия на рынке «дешевого» варианта собрать хранилище на петабайт и больше, и даже работал, но в 2020 - 2021 году начал уходить с рынка. SUSE отказалась от развития, еще кто-то отказывался. FUJITSU Storage ETERNUS CD10000 S2 - The sale of this product was terminated in December 2019.
Причины понятны, сейчас петабайт хранения требует не двух стоек, а двух юнитов в одной стойке, а рынок опять меняется.
Поэтому Ceph для дома – пожалуйста, Ceph для VK облака или каких-то еще облаков – сколько угодно. Ceph для SMB или чуть выше – не знаю, зачем настолько жертвовать производительностью и иметь бонусом головную боль при обновлениях. И еще один не очевидный многим нюанс ниже.
Но люди верят, что он работает (это почти правда, если не рассматривать ребилд), быстрый  (нет), надежный (очень не всегда). Вопрос цены. Люди верят, что можно обмануть систему, взять бесплатное решение, дешевых людей, дешевое железо и получить производительность и надежность «как в облаке, но дешевле».
Кроме того, есть вопросы и к бекапу, и к восстановлению, и много к чему еще.
Но люди верят. Мерять производительность не хотят, тесты ребилда под нагрузкой делать не хотят, некоторые и бекапы не делают.

Сложность и нюансы в понимании (и отсутствии понимания) «зачем все это».
Для одного сервера все равно нужен какой-то RAID, в современных условиях, для одного сервера, с таким бизнесом, которому достаточно одного сервера, может быть аппаратный контроллер и будет неплохим решением. Для двух серверов уже может быть проще собрать отказоустойчивый кластер не на уровне железа и репликации средствами ОС, а через репликацию сервиса. Базы данных это умеют, для репликации файловых кластеров с низкой нагрузкой подойдет что угодно, остальные сервисы типа etcd тоже реплицируются без кластерной файловой системы.

Разница концепций. Часть 7.4 «Локальное дисковое пространство».

Для Hyper-V все проще некуда. Собрал диски – хочешь в soft raid, хочешь в storage space (не путать с S2D), хочешь на аппаратном рейде. Отформатировал, создал тонкие или толстые виртуальные тома ОС, создал на них тонкие (динамические) или толстые файлы (vhdx), отдал файлы виртуальным машинам, и все.
Есть проблемы с производительностью storage space в parity, если вдруг не читали вот это.
Новый ноутбук: скорость, плюсы-минусы, DiskSPD, Hyper-V и продолжение про методику тестирование скорости
Устроено все проще некуда, диск виртуальной машины == файл с заголовком.
Для Broadcom ESXi все еще проще. Создал «на чем есть» storage, создал виртуальные машины с нужными дисками.
Устроено все проще некуда, диск виртуальной машины == 2 файла. Файл с текстовым описанием, и файл с RAW данными.

Для Proxmox начинается проблема выбора: что взять. Есть Ext4, есть ZFS, есть BTRFS. Есть XFS.
Был GlusterFS, но он все, цитата

As GlusterFS is no longer maintained upstream, Proxmox VE 9 drops support for GlusterFS storages. Setups using GlusterFS storage either need to move all GlusterFS to a different storage, or manually mount the GlusterFS instance and use it as a Directory storage. Roadmap

ПОМЕР.


Development has effectively ended. For years Red Hat drove development for its RHGS product, but with the EOL of RHGS at the end of 2024. Date: 2024-06-25

Само разбиение дисков сделано странно.
ISO images в GUI это /var/lib/vz/template/iso
CT templates в GUI это  /var/lib/vz/template/cache
Конфигурация контейнеров /etc/pve/lxc
Конфигурация виртуальных машин /etc/pve/qemu-server

Диски виртуальных машин – о, тут все странно. В конфиге диск прописан как
scsi0: local-lvm:vm-100-disk-0,iothread=1,size=5G
но это блочный lvs том, который виден по команде lvs , или
find /dev | grep vm
И получаем /dev/pve/vm-100-disk-0
или команда
lvdisplay
покажет что где и как.
Неприятно с точки зрения операций с локальными томами. С ZFS та же история.

Разница концепций. Часть 7.5 «Локальное дисковое пространство - добавление».

Окей, создам отдельный том
New-VHD -Path C:\test\Proxmox\ data.vhdx -LogicalSectorSize 4KB -PhysicalSectorSizeByte 4KB -SizeBytes 105GB -Dynamic
добавлю его через GUI к Proxmox, но это уже будет другая история

Литература

Single Root I/O virtualization (SR-IOV)
Set up networking for Hyper-V hosts and clusters in the VMM fabric
Set up logical networks in the VMM fabric
How to configure System Center VMM Part 1 – Basic Design
8.3. Comparison of Network Teaming to Bonding
3.18. Bridge and Bond Configuration
Proxmox Network Configuration
How to enable DHCP on Hyper-V switch
Hyper-V - Default Switch & DHCP Server
Configuring VM Networking on a Hyper-V NAT Switch
A Practical Guide to Hyper-V Virtual Switch Configuration
Change Hyper-V (Default Switch) IP address range

Proxmox Ebook Free Download for Home Labs – тут почему-то удалили pdf, но он есть тут, хотя он и для 7.1

Proxmox for Everyone: Your Complete Guide to Virtualization, Kubernetes, and Homelab Automation (Next-Gen Infrastructure Strategies Book 2) Kindle Edition by da li (Author), PlanB Mr (Author)

Blockbridge : Ultra low latency all-NVME shared storage for Proxmox
Filesystem Features XFS vs BTRFS vs ZFS
VM Disk location (Can't find the VM disk)
How to move VM to another storage

Показать полностью
[моё] Linux Proxmox Виртуализация IT Microsoft Vmware Hyper-v Windows Текст Длиннопост
0
ssnmo
ssnmo

Ответ на пост «Установка windows server 2003 на VMware Workstation 16»⁠⁠1

3 месяца назад

Ненависти пост!

Всем, кто задает вопросы: "Зачем это нужно?", "Кому это нужно?" или начинает стебаться над авторами подобного контента:

Мой ответ:

Я помню! Вы появились в 2000х, на корню купленные микрософтом и прочими блэкроками! Вы освистывали очень нестандартные, но результативные идеи! Вы переводили любую тему в бесплодную демагогию! Вы морально уничтожали авторов, вынуждая их прекращать думать и сдаться! Всякие гольден-эксперты, синьормемберы и прочие игори лейки!

Из-за вас закрывались форумы с oszone, refit, clover, magisk, lwgame, ncore, libreboot, coreboot - сотни и тысячи полезных, поддерживаемых энтузиастами ресурсов!
Вы планомереннонасаждали в обществе тупость и культ потребления!

Я желаю вам самого плохого и болезненного! И презервативов, чтобы не размножались!

Детект этих нелюдей в комментах.

Автору оригинала - респект и уважуха!
Твой пост нужен, например, мне.

Показать полностью
[моё] Vmware Windows server Видео Ответ на пост Текст
9
0
Вопрос из ленты «Эксперты»
Burinis
Про железо

Как пробросить дискретную видеокарту в VMWare Workstation Pro или VirtualBox?⁠⁠

4 месяца назад

Говорят, что для этого нужен VT-D. У меня в биосе есть только опция "Virtualization Technology" (включена).
Хост:
Ноут HP Pavilion Gaming Laptop 15
Windows 10
Intel Core i5-8300H
NVIDIA GeForce 1060 MaxQ
1 ТБ HDD+256 ГБ SSD
12 ГБ ОЗУ
Плата HP 8478 (U3E1) с БИОС версии F.11

На виртуалках установлены Windows 98, XP и 7.

Вопрос Спроси Пикабу Компьютерное железо Virtualbox Vmware Виртуальная машина Виртуализация Компьютерная помощь Текст
29
3
DmitriitheFals
Лига Сисадминов
Серия Кудахтеры

Пора прощаться с VMware by Broadcom. История в нескольких частях. Часть 2⁠⁠

7 месяцев назад

Для лиги лени: про бывшую VMware, теперь VMware by Broadcom. Чего было и чего ждать

Часть 1. Чего и почему ждать.

Часть 2. Fast start. Литература и сайты для тех, кто вляпается в это легаси.

Часть 3. Прочее.

1.1 Пока переписывалась статья, вышло обновление-
8.0 Update 3e 24674464 , с обещаниями снова выдавать ESXi free, еще более урезанную.
Спасибо конечно, и на том.

1. 2 Не дописанное из первой части

Продукты фирмы VMware не были как-то особо популярны в РФ. Так, по мелочи.
Пара мелких банков, какие-то сотовые и небольшие телеком операторы, разорившаяся авиакомпания, пара фирм по розничным продажа бытовой химии, облачные провайдеры, итд. Короче, все те, кто не мог себе позволить купить нормальный Azure Stack (Azure Stack HCI, сейчас Azure Local), или сидел на таком дремучем легаси, что виртуализация у них была уже, конечно, не механическая, и не ламповая, но серверы приходилось или ставить краном, или возить на специальном лифте. Оборот и прибыль VMware в РФ (от мировой) была в районе статистической погрешности, от 0.1 до 1%, поэтому ее уход из РФ заметили только те, кто работал (скорее, не работал) в облаке МТС в 2024 году.
Такие, во всех отношениях отсталые продукты, как:
VMware NSX
Omnissa Horizon (ранее Horizon View, VMware VDI, VMware View)
VMware Cloud Director
VMware Cloud Foundation

Могут быть легко и почти безболезненно заменены. Наверняка, те немногие их, зачем-то, использовавшие, облачные и сотовые операторы, уже давно провели замену. А то, что они про это молчат, так исключительно из скромности.

Ит отдел готовится к безболезненному уходу от VMware, и внедрению в критическую

Ит отдел готовится к безболезненному уходу от VMware, и внедрению в критическую

Если же они этого не сделали, то возникает интересный тройной юридический казус.
Во первых, по лицензионному соглашению, заказчик имеет право на обновления только в период действия подписки на поддержку. Срок подписки обычно был три года, вся подписка из 2021 закончилась в 2024, а местами и в 2022, поэтому вопрос законности покажет любой аудит.
Во вторых, и это гораздо интереснее, очень много сотовых операторов , банков и так далее «в целом» отнесены к КИИ. Соответственно, в их системах должны быть установлены обновления безопасности, скачанные с официального сайта, и проверенные соответствующими органами.
В частности:
Обновление VMware Tools, Идентификатор обновления: TO1965, Вендор: VMware Inc., ПО: VMware Tools .
С вендором ошибка, до ФСТЕК за 2 года не дошло, что это теперь Broadcom, фирмы VMware Inc больше нет. Там, на сайте, и с обновлениями самого ESXi проблема, последнее протестированное обновление 8.0b-21203435 для 8.0 из 2023. Но уязвимости описаны, BDU:2024-01809 или BDU:2025-02354, вместе с советами «выкручивайтесь сами», то есть, конечно, не так, цитата:

Установка обновлений из доверенных источников. В связи со сложившейся обстановкой и введенными санкциями против Российской Федерации рекомендуется устанавливать обновления программного обеспечения только после оценки всех сопутствующих рисков.

Интересно, что когда зарубежная проприетарщина много лет поставляет в РФ проверенные и годные продукты это одно, а захват ядра, базы из баз , практически всего опенсорса кликой сумасшедшего финна из агрессивного блока НАТО, это другое.
Ну да ладно, а то так окажется, что исходники Windows 20 лет назад отдали, кому положено, и что Windows с 1996 до 2004 года неплохо работал в системе управления вооружением USS Yorktown (DDG-48/CG-48, программа Navy's Smart Ship program - на 2*27 Pentium Pro)

И в третьих, это рекомендации «переходить на российское шифрование и не использовать то, о чем говорить нельзя, из трех букв».
Как использовать российское этцамое для обновления по https, если с той стороны не в курсе про ГОСТ, и как не использовать этцамое, если с той стороны и обновление, и документация, закрыты для РФ?

Вы находитесь здесь

Вы находитесь здесь

Но, к теме.

Fast start. Литература и сайты для тех, кто вляпается в это легаси.

Сразу скажу: если вы унаследовали «это», то можете забыть про какую-то литературу на русском.

По теме выходило ровно 3(три) книги на русском, от 1 (одного)  автора.

Михаил Михеев: Администрирование VMware vSphere из 2010 года.
Михаил Михеев: Администрирование VMware vSphere 4.1 из 2011 года.
Михаил Михеев: Администрирование VMware vSphere 5 из 2012 года.

На этом ВСЁ.
ВООБЩЕ ВСЁ.

Больше литературы, кроме выгрузок лекций, переводов статей и курсов «в пересказе по мотивам» не было.
Русификация портала vmwarelearning.com осталась где-то там же, в 2012 году, с тех пор все куда-то ехало, ехало, и переехало.
Еще есть VMware vSphere 4,5,6,7.0 ESXi - записки на манжетах от Максима Мошкова.

Маст рид. Серия Deep dive

Duncan Epping – vSphere 6.0 U2 HA Deepdive
VMware vSphere 6.5 Host Resources Deep Dive by Frank Denneman and Niels Hagoort
Rubric, Clustering Deep Dive - VMware vSphere 6.7 Clustering Deep Dive Kindle Edition by Frank Denneman (Author), Duncan Epping (Author), Niels Hagoort (Author)
VMware vSAN 6.7 U1 Deep Dive by Cormac Hogan (Author), Duncan Epping (Author)
VMware vSAN Deep Dive 7.0 Update 3.
Storage Design and Implementation in vSphere 6: A Technology Deep Dive (VMware Press Technology) 2nd Edition, Kindle Edition by Mostafa Khalil (Author)
Заполировать: VMware vSphere PowerCLI Reference. Automating vSphere Administration | Boren Matt, Graf Brian

Парочка сайтов:
Cody Hosterman
Duncan Epping
Frank Denneman
Vladan Seget
Niels Hagoort и https://blogs.vmware.com/vsphere/author/nhagoor ;
Luc Dekens , в том числе virtuallyGhetto

В обязательном порядке должна быть прочитана книга по сетям.
Не какой-то там курс от «аналоговнетных русских курсов и русских авторов», а только родная Cisco. И только такая:
Cisco CCENT/CCNA ICND1 100-101 Official Cert Guide  Academic Edition - by WENDELL ODOM, CCIE NO.
Если в каком-то сообществе, группе, все равно где, вам предлагают читать Олиферов вместо Cisco Press - БЕГИТЕ ГЛУПЦЫ.
После того, как вы прочитаете все вышеперечисленное, можно идти сюда за второй порцией литературы и статей.

Надо обязательно добавить в избранное, первый месяц с этих сайтов лучше не вылезать:
VMware Compatibility Guide (HCL)
VMware ESXi Patch Tracker
VMware vSphere 8.0 Release Notes - раньше жили на https://docs.vmware.com/en/VMware-vSphere/8.0/ , почему-то копия живет тут, на adobecqms.
Community Network Driver for ESXi Documentation , раньше это называлось flings  и жило тут.

Добавляются учебные стенды. Бесплатные! VMware Hands-on Labs - https://hol.vmware.com/

Добавляются сети. Придется биться насмерть с сетевиками, и с любителями русской сетевой литературы, где LAG считается третьим лучшим изобретением человечества, сразу после описанного в Бытие 38:9 и Левит (18:22).
Читать заметку: John Nicholson - As I lay in bed I can’t help but think…. LAG/LACP/MLAG/Bonding links to hosts is a bad idea for anything you care about that much. (A thread) – тут могла быть ссылка на вроде еще запрещенных в РФ любителей 140 знаков, и вот эту статью - LACP and vSphere (ESXi) hosts: not a very good marriage.

Дальше остаются мелочи.
Работа с хостом через Direct Console User Interface (DCUI), через ssh, и powercli .
Регулярный Левит (18:22), то есть перезапуск агентов управления - Restarting the Management agents in ESXi (1003490) , и еще четыре статьи. Первая, вторая, третья, четвертая.
И, просто списком, уже совсем мелкое.
Esxtop, code capture, vsish (VMkernel Sys Info Shell), RVTools, VMware ESXi SCSI Sense Code Decoder

Для начала хватит. Потом пойдет всякая рутина - Allow unsupported CPUs,Side-Channel Aware Scheduler v2 (SCAv2),  Performance Best Practices for VMware vSphere 8.0, Best Practices for Performance Tuning of Latency-Sensitive Workloads in vSphere VMs, и прочая скука скучная.

Подводя итог.
Как легко прочитать в интернете, ESXi и прочие продукты VMware вокруг него – это жалкое проприетарное подобие Linux \ KVM \ XEN \ CEPH \ OVN, и еще сотни «замещающих» продуктов, по непонятным причинам совокупно (с учетом стоимости людей и требований к оборудованию) стоящее дешевле в пересчете на 3 года. Исключение - если у вас люди бесплатные, помещение бесплатное, и никаких требований к SLA нет. Давно списанное оборудование на балконе, например, которое может упасть только вместе с балконом, а зимой греет весь подъезд всеми 8 ядрами на сокет (единственный).
Учиться работать с этим, конечно, не стоит. Рынок труда для этих продуктов уже ограничен «золотой тысячей кровавого энтерпрайза», то есть, суммарный платежеспособный спрос будет падать и падать. Всегда останутся организации, в поисках высококвалифицированных низкооплачиваемых кадров, почему-то не могущие найти кадры на открытом рынке.
Да и учиться там особо нечему – как большая часть проприетарных продуктов, он еще недавно был сделан так, чтобы, в основном, работать.
Если не работает, что бывало, то дать возможность собрать огромный дамп логов для техподдержки. Конечно, и тут все нехорошо. Последние лет 5 и в эту разработку прокрались криворукие, вместе с идеей «давайте тестировать новый код на пользователях».
Хуже всего в VMware в РФ – это отсутствие комьюнити. Два русских сообщества, входящие в Virtual maining user group, причем на треть состава сидящие в третьем сообществе, по нелицензионным версиям VMware. Одно мертвое сообщество по NSX, такое же мертвое по Amazon Elastic VMware Service. Одно более-менее живое сообщество по vSAN, и просто ужас под названием «Сообщество по Азии». Помогут, в лучшем случае, в группе по vSAN. Вместо остальных достаточно бота с случайными сообщениями «гуглить пробовали», «это все есть в документации», или "что в логах".

Как же хорошо, что есть Reddit, LLM и форумы самого Broadcom.

PS.
Как мне напомнили рецензенты, есть один крохотнейший плюс - то, что vGate умер на линейке 7. Это снизило глобальное потепление в России на 0.1 градуса, и уровень смога в Москве на 0.2%.

Показать полностью 3
[моё] Импортозамещение Vmware Ссылка Windows Программа Длиннопост
22
9
kostyanuch
kostyanuch

Перенос виртуальных машин из .ovf на Proxmox⁠⁠

8 месяцев назад

После того как я прикупил себе RAID контроллер Adaptec 71605

и решил заново установить на Dell OptiPlex 990 SFF гипервизор ESXi, что-то пошло не так, а именно сборка образов и прочая чёрная магия в течение нескольких дней не принесли ожидаемого результата, то установщик не узнаёт мой сетевой адаптер:

то не видит RAID контроллер, то все вместе, а то вдруг все видит, но на этапе установки ругается на мои вшитые в образ VIB с драйверами ссылаясь на какие-то зависимости:

Этот момент мне несколько поднадоел и решил я в качестве эксперимента накатить последнюю версию Proxmox, вот как есть, без каких-либо изменений и она без проблем установилась на текущую конфигурацию, увидела и RAID контроллер и сетевую карту, да всё настолько легко прошло, что я решил перенести на неё все мои виртуалки. Собственно сам перенос из файла .ovf выполняется одной единственной командой qm importovf 103 /home/Win11/Win11.ovf local-lvm:

qm importovf 103 /home/Win11/Win11.ovf local-lvm

qm importovf 103 /home/Win11/Win11.ovf local-lvm

103 - идентификатор VM, /home/Win11/Win11.ovf - путь к файлу .ovf, local-lvm - путь к хранилищу на гипервизоре proxmox

В случае с Windows импорт я делал прямо из .ovf файла который получил путем экспорта с ESXi, там было достаточно заменить scsi0 на sata0 в конфигурационном файле /etc/pve/qemu-server/103.conf и добавить сетевой адаптер.

В итоге ОС запускается и работает без проблем:

А вот в случае, когда я переносил машину Debian с Home Assistant, первоначально у меня она была перенесена из .ovf в VMware Workstation, поскольку, пока я копался с настройкой Proxmox, надо было чтобы HA продолжал работать, затем когда всё готово было к переносу, я сделал экспорт Debian с HA и затем экспорт уже на Proxmox, всё завелось с полпинка, даже после проброса USB ZigBee Sonoff 3.0 dongle - не пришлось колдовать с Zigbee2MQTT, он заработал сразу. На волне успеха побежал импортировать свою виртуалку с Debian, которая с такой же лёгкостью не поднялась, а дело было в том, что на VM с HA у меня был BIOS, а на второй UEFI, тут то и зарылась проблема, понял я это не сразу и даже потратил немного времени, перенес виртуалку сначала в VMware Workstation, оттуда сделал экспорт, затем импорт в Proxmox и ничего не заработало, но оно и не удивительно. Теперь конкретнее, что необходимо было сделать если вы переносите таким способом VM Debian UEFI. После выполнения импорта на гипервизор в настройках виртуалки:

в разделе hardware поправим BIOS на UEFI и SCSI Controller меняем на VirtIO SCSI

в разделе hardware поправим BIOS на UEFI и SCSI Controller меняем на VirtIO SCSI

в options =&gt; boot order отмечаем первым пунктом наш диск

в options => boot order отмечаем первым пунктом наш диск

Сетевой адаптер добавить не забываем, они всегда слетают после импорта.

Далее необходимо запустить виртуалку и в консоли сразу же нажать ESC чтобы попасть в настройки UEFI, пройти по пути:

Boot Maintenance Manager =&gt;

Boot Maintenance Manager =>

Boot Options =&gt;

Boot Options =>

Add Boot Option =&gt;

Add Boot Option =>

выбрать диск с EFI загрузчиком (он там будет единственный в большинстве случаев)

выбрать диск с EFI загрузчиком (он там будет единственный в большинстве случаев)

Далее пройти по пути до самого загрузчика:

(в случае с Debian - это shimx64.efi) выбрать его

(в случае с Debian - это shimx64.efi) выбрать его

зайти в меню Input the description вписать любое название для загрузчика

зайти в меню Input the description вписать любое название для загрузчика

например debian

например debian

подтвердить нажатием Commit Changes and Exit

подтвердить нажатием Commit Changes and Exit

Далее изменить загрузку по умолчанию:

зайдя в меню Change Boot Order

зайдя в меню Change Boot Order

там нажимаем Enter и плюсиком перемещаем debian на первый пункт и нажимаем Enter

там нажимаем Enter и плюсиком перемещаем debian на первый пункт и нажимаем Enter

подтвердить нажатием Commit Changes and Exit

подтвердить нажатием Commit Changes and Exit

нажимаем Reset

нажимаем Reset

виртуалка перезагрузится

и вы должны будете увидеть Grub и успешно загрузиться в Debian

и вы должны будете увидеть Grub и успешно загрузиться в Debian

Кому интересна тематика умного дома, прошу в мой телеграмм канал, там регулярно пишу о своих идеях, сценариях, реализациях и прочих темах DIY, IoT, CS.

Показать полностью 21
Виртуализация Linux Esxi Vmware Raid Telegram (ссылка) Длиннопост
3
Посты не найдены
О нас
О Пикабу Контакты Реклама Сообщить об ошибке Сообщить о нарушении законодательства Отзывы и предложения Новости Пикабу Мобильное приложение RSS
Информация
Помощь Кодекс Пикабу Команда Пикабу Конфиденциальность Правила соцсети О рекомендациях О компании
Наши проекты
Блоги Работа Промокоды Игры Курсы
Партнёры
Промокоды Биг Гик Промокоды Lamoda Промокоды Мвидео Промокоды Яндекс Маркет Промокоды Пятерочка Промокоды Aroma Butik Промокоды Яндекс Путешествия Промокоды Яндекс Еда Постила Футбол сегодня
На информационном ресурсе Pikabu.ru применяются рекомендательные технологии