Меню Рубрики

Установка esxi внутри esxi

Виртуализация vSphere, Hyper-V, XenServer и Red Hat

Более 5060 заметок о виртуализации и виртуальных машинах VMware, Microsoft, Citrix, Red Hat

Запуск вложенных виртуальных машин (nested VMs) на виртуальных ESXi 5.0 и Hyper-V.

Реклама:

С выпуском платформы виртуализации VMware vSphere 5 в ESXi 5.0 появилась возможность запуска вложенных 64-битных виртуальных машин, в том числе Hyper-V. Выглядит это так:

  • На физическом сервере (или даже виртуальном, созданном в VMware Workstation) вы устанавливаете ESXi 5.0
  • Создаете виртуальную машину с гостевой ОС Windows Server (включая восьмую версию)
  • В этой ВМ с Windows Server включаете роль Hyper-V и устанавливаете там виртуальные машины, которые работают

Аналогичный трюк можно провернуть, установив ESXi в ESXi и на последнем поставить 64-битные виртуальные машины (ранее можно было только 32-битные). Все это открывает широкие возможности по тестированию VMware vSphere 5 и Hyper-V, включая возможности распределенных служб (кластеры HA/vMotion и Live Migration). При этом не нужно иметь даже сервер в своем распоряжении — достаточно будет обычного ПК с VMware Workstation.

Для эмуляции возможностей hardware-assisted virtualization (HV), которые требуются для работы вложенных гипервизоров Hyper-V и ESXi (делается это за счет виртуализации 64-битных инструкций VT-x или AMD-V), вам потребуется хост с соответствующими аппаратными характеристиками процессора (Intel VT или AMD-V сейчас есть практически во всех процессорах). Поддержка такой возможности в продуктах VMware называется Virtualized HV.

По умолчанию возможности Virtualized HV на хосте ESXi 5.0 отключены. Чтобы их включить, на физическом или виртуальном хосте VMware ESXi в файл /etc/vmware/config нужно добавить строчку:

vhv.allow = «TRUE»

Перезагрузка для применения этой возможности хосту не нужна.

Чтобы узнать включена эта возможность или нет, нужно выполнить команду для лога виртуальной машины (по выводу вы поймете статус):

grep «monitorControl.vhv» vmware.log

Далее просто создавайте вложенные VMware ESXi 5 (не забыв указать в качестве гостевой ОС ESXi). Помните, что Virtual Hardware Version должна быть 8 (на самом деле можно и с 7-й версией, но нужно сделать дополнительные шаги).

Чтобы поставить виртуальную машину с Hyper-V нужно еще добавить следующую строчку в vmx-файл для этой ВМ:

hypervisor.cpu >

Это не даст понять гостевой ОС, что она работает в виртуальной машине. Если этого не сделать, то Hyper-V R2 выдаст такую ошибку:

Ну а дальше устанавливаете Windows Server, включаете роль Hyper-V, создаете виртуальные машины и запускаете их. Что касается вложенности — то, говорят, на 4-м уровне уже начинаются тормоза, которые не дают приемлемо работать, а до этого уровня — пожалуйста.

В этой статье описан интересный вариант использования приведенной вомзожности — создание кластера VMware vStorage Appliance (VSA) на базе виртуальных ESXi 5.0.

Кстати, если вы хотите, наоборот, запустить виртуальный ESXi 5.0 на физическом хосте Hyper-V, то в vmx-файл с виртуальным ESXi нужно добавить строчку:

Это позволит запускать вложенные ВМ на таком виртуальном ESXi 5.0 под управлением Hyper-V.

Картинки честно украдены с vcritical.com.

Чтобы оставлять комментарии, вы должны быть зарегистрированы на сайте.

Зал Славы Рекламодателя Все сайты о виртуализации:

Вебинары VMC о виртуализации:

Постер VMware vSphere PowerCLI 6.3:

Постер VMware Hands-on Labs 2015:

Постер VMware Platform Services Controller 6.0:

Постер VMware vCloud Networking:

Постер VMware NSX (референсный):

Постер VMware vCloud Suite:

Постер VMware vCenter Server Appliance:

Порты и соединения VMware vSphere 6:

Порты и соединения VMware Horizon 7:

Порты и соединения VMware NSX:

Управление памятью в VMware vSphere 5:

Как работает кластер VMware High Availability:

Постер VMware vSphere 5.5 ESXTOP (обзорный):

Постер Veeam Backup & Replication v8 for VMware:

Постер Microsoft Windows Server 2012 Hyper-V R2:

источник

ESXi 6.7 — создаём виртуальную машину

Недавно установил на сервер HPE Proliant Microserver Gen10 гипервизор ESXi 6.7. Пришла пора создать на сервере первую виртуальную машину. Подготовим всё для установки операционной системы Microsoft Windows Server 2016.

Ссылки

Создание VM

Переходим в раздел Virtual Machines.

Нажимаем Create / Register VM. Запускается мастер создания VM.

Нам предлагают выбрать одну из трёх опций:

  • Create a new virtual machine — Создать новую виртуальную машину (выбираем)
  • Deploy a virtual machine from an OVF or OVA file — Развернуть виртуальную машину из OVF или OVA файла.
  • Register an existing virtual machine — Зарегистрировать существующую виртуальную машину.

Выбираю Create a new virtual machine, Next.

Указываем название виртуалки. Длина названия до 80 символов. Название должно быть уникальным в рамках гипервизора. Ести у вас vCenter, то уникальность названия должно быть в рамках всех гипервизоров. Старайтесь в названии использовать такие же символы, как в названиях директорий.

Выбираем совместимость с версиями ESXi. Виртуалки версии 6.7 не будут работать, если вы их перенесёте на ESXi 6.0.

Выбираем семейство ОС и версию. Дело важное, от этого зависит первоначальный набор устройств.

Выбираю параметры для Microsoft Windows Server 2016. Next.

Выбираю хранилище. Оно у меня сейчас одно. Next.

2 CPU — это максимум для данного гипера.

6 ГБ оперативки, можно потом добавить.

500 ГБ диск, расширю потом.

Меняю USB контроллер на 3.0, хотя он мне особо не нужен.

Можно при желании изменить опции. Я добавляю поддержку буфера обмена для консоли VMware vSphere Client:
Буфер обмена в консоли VMware vSphere Client

По умолчанию буфер обмена в консоли VMware vSphere Client отключён в целях безопасности. Но его можно включить. Переходим во вкладку VM Options:

В свойствах виртуалки в Advanced > Configuration Parameters > Edit Configuration.

источник

Установка и первоначальная настройка виртуальной машины в гипервизоре ESXi

Использующиеся в тексте термины:
Виртуальная машина – это полностью изолированная программная система, которая исполняя машинно-независимый или машинный код процессора, способна эмулировать операционную систему, приложения или устройства (например, компьютер).

ESXI 5.5 — автономный гипервизор, который представляет собой программный продукт, устанавливающийся на «голое железо», не нуждаясь в предварительно установленной операционной системе, ESXI по своей сути сам операционной системой и является.

vSphere client 5.5 — бесплатная программа для подключения к ESXi или vCenter server

Дистрибутив ESXi 5.5 — образ для установки триальная версия на 60 дней, для получения полной бесплатной лицензии придется зарегистрироваться на сайте VMware

Установка гостевой опреационной системы не является проблемой и многие администраторы часто делают это в таких программах, как VMware Workstation, Virtual Box и прочих. Основное отличие серверной модели виртуализации в том, что ESXi устанавливается на «голое железо», прямо на сервер и в нем создаются виртуальные машины. Т.е. нет обычной прослойки из Windows ОС.

Для установки, скачиваем дистрибутив ESXi, записываем его на DVD диск и начинаем установку.

Видео по установке виртуальной машины в ESXi 5.0

Описание установки виртуальной машины на ESXi 4

Для описания создания и настройки виртуальной машины поставлена цель — установить Windows 7. В процессе установки будут задействованы следующие ресурсы:

  • сервер с установленным на него ESXi гипервизором (процесс установки описан в статье ESXI)
  • образ (iso) установочного диска Windows 7 32-bit rus.
  • компьютер с установленным vSphere Client

Для начала необходимо подключиться, используя VMware vSphere Client, к хосту ESXi. Правой кнопкой кликаем по серверу и выбираем пункт Create New Virtual Machine. Попадаем в меню выбора конфигурации, где есть два варианта первоначальной настройки: простой(Typical) и расширенный(Custom). Для поставленной цели подойдет простой режим.

Следующим шагом выбираем название виртуальной машины. Выбранное имя будет отображаться в консоли vSphere Client, оставим имя по умолчанию.

Затем выбираем хранилище для файлов виртуальной машины. В данном случае к серверу не подключены внешние хранилища, поэтому отображается только локальный диск. При установке ESXi на сервер локальные диски были отформатированы в кластерной файловой системе VMFS (Virual Machine File System). Эта файловая система позволяет разным хостам ESX(i) получать совместный доступ к файлам виртуальных машин. На этом принципе основано большинство технологий VMware vSphere 4. Но в случае установки виртуальной машины на локальные диски видеть файлы виртуальных машин сможет только один сервер.

Следующий шаг — выбор операционной системы. VMware vSphere 4 поддерживает более 48 операционных систем. На данном этапе предлагается выбрать, какую именно операционную систему мы собираемся установить, чтобы в дальнейшем была возможность инсталлировать подходящие драйверы. Выбираем Windows 7 32-bit.

Читайте также:  Установка камеры на кия спортейдж

Далее необходимо задать размер жесткого диска виртуальной машины. Рекомендуемый VMware для Windows 7 32-bit размер составляет 24Гб. Также отмечаем, чтобы созданный диск был «тонким». Жесткий диск виртуальной машины в хранилище представляет собой файл с расширением .vmdk . Технология «тонких дисков» позволяет динамически увеличивать размер файла жесткого диска в соответствии с ростом объема, который реально занимает операционная система. Например, после установки Windows 7 будет занимать в хранилище 7Гб, после установки MSoffice 8Гб и т.д., объем будет увеличиваться динамически, пока не достигнет установленных 24Гб. Стоит отметить, что если виртуальная машина исчерпает отведенные ей 24Гб свободного места, изменить это значение можно в любое время, не прерывая работы виртуальной машины.

Основные настройки заданы и виртуальная машина готова к запуску, но перед этим стоит проверить настройки полной конфигурации, для чего выбираем пункт Edit the virtual machine settings before completion.

В этих настройках есть возможность:

изменять размер выделенной оперативной памяти
изменять количество выделенных процессоров
добавлять и удалять другие устройства (контроллеры жестких дисков, жесткие диски, сетевые адаптеры, Floppy и .т.д)
закладки Options и Resources используются администраторами для тонкой настройки и в этой статье рассматриваться не будут

Нас устраивают настройки, если будет необходимость, их можно будет поменять в процессе работы. Все готово для запуска виртуальной машины и начала установки операционной системы. Для того, чтобы следить за установкой, необходимо открыть консоль виртуальной машины, выбрав пункт Open Console.

Теперь можно нажать кнопку Start, которая запустит виртуальную машину. Чтобы переключиться в окно консоли виртуальной машины, необходимо щелкнуть по нему курсором мыши, чтобы выйти из консоли — Ctrl + Alt. Сочетание «Ctrl + Alt + Delete» внутри консоли заменяет «Ctrl + Alt + Ins» . Итак, после запуска виртуальной машины для начала установки операционной системе необходимо подключить образ Windows 7 (образ хранится на локальном компьютере, в котором запущен vSphere Client) к виртуальному DVD приводу. Как это сделать, показано на рисунке ниже. Чтобы попасть в boot menu, необходимо при включении виртуальной машины переключиться в окно консоли и нажать Esc.

источник

Как переехать с ESXi на KVM/LXD и не сойти с ума

В компании «Макснет Системы» в качестве гипервизора долгое время использовалась бесплатная версия VMware — ESXi, начиная с версии 5.0. Платная версия vSphere отпугивала моделью лицензирования, а у бесплатной был ряд недостатков, которые отсутствовали в платной, но с ними можно было смириться. Но когда в новых версиях ESXi новый веб-интерфейс отказался работать со старым, а мониторинг RAID-массивов перестал подавать признаки жизни, компания решила искать более универсальное и открытое решение. В компании уже был неплохой опыт и приятное впечатление от LXC — Linux Containers. Поэтому стало очевидно, что гипервизор мечты будет гибридным и сочетать для разных нагрузок KVM и LXD — эволюционное продолжение LXC. В поисках информации относительно KVM, компания сталкивалась с заблуждениями, граблями и вредными практиками, но тесты и время расставили все по местам.

О том, как справиться с переездом с ESXi на KVM и не проколоть колеса на граблях, расскажет Лев Николаев (maniaque) — администратор и разработчик высоконагруженных систем, тренер по информационным технологиям. Поговорим о Сети, хранилищах, контейнерах, KVM, LXD, LXC, provisioning и удобных виртуалках.

Пролог

Сразу обозначим ключевые мысли, а дальше разберем их подробнее.

Сеть. Пока скорости ваших интерфейсов не превышают 1 Гбит/с, вам хватит bridge. Как только захотите выжать больше — он будет вас ограничивать.

Хранилище. Создайте общее сетевое хранилище. Даже если вы не готовы внутри сети использовать 10 Гбит/с, то даже 1 Гбит/с даст вам 125 МБ/с хранилища. Для целого ряда нагрузок этого будет достаточно с запасом, а миграция виртуальных машин будет элементарным делом.

Контейнер или KVM? Плюсы, минусы, подводные камни. Какие виды нагрузки лучше положить в контейнер, а какие лучше оставить в KVM?

LXD или LXC. LXD — это LXC? Или другая версия? Или надстройка? Что это вообще? Развеем мифы и поймем, в чем отличия между LXD и LXC.

Удобный provisioning. Что удобнее: брать одинаковый образ или инсталлировать систему с нуля каждый раз? Как это делать быстро и аккуратно каждый раз?

Удобная виртуальная машина. Здесь будут страшные рассказы о загрузчиках, разделах, LVM.

Разное. Много мелких вопросов: как быстро перетащить виртуальную машину c ESXi на KVM, как хорошо мигрировать, как правильно виртуализировать диски?

Причина переезда

Откуда у нас появилась безумная идея переезда с ESXi на KVM/LXD? ESXi популярно среди малого и среднего бизнеса. Это хороший и дешевый гипервизор. Но есть нюансы.

Мы начинали с версии 5.0 — удобно, все работает! Следующая версия 5.5 — тоже.

С версии 6.0 — уже сложнее. На ESXi Web-интерфейс не сразу стал бесплатным, только с версии 6.5, до этого требовалась утилита под Windows. Мы с этим смирились. Кто работает на OS X покупает Parallels и ставит эту утилиту. Это всем известная боль.

Периодически слетал мониторинг. Приходилось в консоли сервера перезапускать службы менеджмента — тогда снова появлялся CIM Heartbeat. Мы терпели, так как он не всегда отваливался.

Версия ESXi 6.5 — треш, угар и бесчинства. Ужасный гипервизор. И вот почему.

  • Angular вываливается с исключением еще на входе в Web-интерфейс. Как только вы вводите логин и пароль — сразу исключение!
  • Не работает возможность удаленно мониторить статус RAID-массива так, как удобно нам. Раньше было удобно, а в версии 6.5 — все плохо.
  • Слабая поддержка современных сетевых карт от Intel. Сетевые карты от Intel и ESXi порождают боль. На форуме поддержки ESXi есть ветка агонии по этому поводу. VMware и Intel не дружат и в ближайшее время отношения не улучшатся. Печально то, что проблемы испытывают даже клиенты платных решений.
  • Нет миграции в рамках ESXi. Если только не считать миграцией процедуру с паузой, копированием и запуском. Ставим машину на паузу, быстро ее копируем и запускаем в другом месте. Но назвать это миграцией нельзя — все-таки есть простой.

Посмотрев на это все, у нас и появилась безумная идея переезда с ESXi 6.5.

Список пожеланий

Для начала мы написали список пожеланий идеального будущего, в которое мы уходим.

Управление из-под SSH, а Web и прочее опционально. Web-интерфейс — это здорово, но в командировке с iPhone зайти в Web-интерфейс ESXi и что-то там сделать неудобно и тяжело. Поэтому, единственный способ управлять всем — это SSH, другого не будет.

Виртуализация Windows. Иногда клиенты просят странные вещи, а наша миссия — им помогать.

Всегда свежие драйвера и возможность настраивать сетевую карту. Адекватное желание, но нереализуемое под чистым ESXi.

Живая миграция, а не кластеризация. Мы хотим возможность перетаскивать машины с одного гипервизора на другой, не ощущая никаких задержек, простоев и неудобств.

Список желаний готов, дальше начался тяжелый поиск.

Муки выбора

Рынок крутится вокруг KVM или LXC под разными соусами. Иногда кажется, что Kubernetes где-то сверху, где все хорошо, солнце и рай, а на уровне ниже сидят морлоки — KVM, Xen или что-то подобное…

Например, Proxmox VE — это Debian, на который натянули ядро от Ubuntu. Это выглядит странно, но приносить ли это в продакшн?

Наши соседи этажом ниже — Alt Linux. Они придумали красивое решение: собрали Proxmox VE в виде пакета. Они просто ставят пакет одной командой. Это удобно, но мы не катаем Alt Linux в продакшн, поэтому нам не подошло.

Берем KVM

В итоге мы выбрали KVM. Не взяли, Xen, например, из-за сообщества — оно у KVM сильно больше. Казалось, что мы всегда найдем ответ на свой вопрос. Позже мы выяснили, что размер сообщества не влияет на его качество.

Изначально мы рассчитывали, что возьмем Bare Metal машину, добавим Ubuntu, с которой работаем, а сверху будем катать KVM/LXD. Мы рассчитывали на возможность запускать контейнеры. Ubuntu хорошо знакомая система и никаких сюрпризов в плане решения проблем загрузки/восстановления для нас нет. Мы знаем куда пинать, если гипервизор не заводится. Нам все понятно и удобно.

Ускоренный курс по KVM

Если вы из мира ESXi, то вас ждет много интересного. Выучите три слова: QEMU, KVM и libvirt.

QEMU транслирует желания виртуализируемых ОС в вызовы обычного процесса. Отлично работает практически везде, но медленно. Сам по себе QEMU — это отдельный продукт, который виртуализирует кучу других устройств.

Читайте также:  Установка проводов трамблера гольф 3

Дальше на сцену выходит связка QEMU-KVM. Это модуль ядра Linux для QEMU. Все инструкции виртуализировать дорого, поэтому у нас есть модуль ядра KVM, который транслирует только некоторые инструкции. Как результат — это ощутимо быстрее, потому что обрабатывается всего несколько процентов инструкций от общего набора. Это и есть все издержки на виртуализацию.

Если у вас просто QEMU, запуск виртуальной машины без обвязки выглядит так:

В параметрах описываете сеть, блочные устройства. Все замечательно, но неудобно. Поэтому есть libvirt.

Задача libvirt — быть единым инструментом для всех гипервизоров. Он может работать с чем угодно: с KVM, с LXD. Кажется, что остается только учить синтаксис libvirt, но на деле он работает хуже, чем в теории.

Эти три слова — все, что нужно, чтобы поднять первую виртуалку в KVM. Но опять-таки есть нюансы…

У libvirt есть конфиг, где хранятся виртуалки и прочие настройки. Он хранит конфигурацию в xml-файлах — стильно, модно и прямо из 90-х. При желании их можно редактировать руками, но зачем, если есть удобные команды. Также удобно то, что изменения xml-файлов чудесно версионируются. Мы используем etckeeper — версинонируем директорию etc. Использовать etckeeper уже можно и давно пора.

Ускоренный курс по LXC

По поводу LXC и LXD существует множество заблуждений.

LXC — это возможность современного ядра использовать namespaces — делать вид, что оно совсем не то ядро, что было изначально.

Этих namespaces можно создавать сколько угодно под каждый контейнер. Формально ядро одно, но ведет себя как много одинаковых ядер. LXC позволяет запускать контейнеры, но предоставляет только базовые инструменты.

Компания Canonical, которая стоит за Ubuntu и агрессивно двигает контейнеры вперед, выпустила LXD — аналог libvirt. Это обвязка, которая позволяет удобнее запускать контейнеры, но внутри это все равно LXС.

LXD — это гипервизор контейнеров, который базируется на LXС.

В LXD царствует энтерпрайз. LXD хранит конфиг в своей базе — в директории /var/lib/lxd . Там LXD ведет свой конфиг в конфиг в SQlite. Копировать его не имеет смысла, но можно записывать те команды, которые вы использовали для создания конфигурации контейнера.

Выгрузки как таковой нет, но большая часть изменений автоматизируется командами. Это аналог Docker-файла, только с ручным управлением.

Продакшн

С чем мы столкнулись, когда на этом всем поплыли в эксплуатацию.

Сколько же адского треша и угара в интернете о сети в KVM! 90% материалов говорят использовать bridge.

Перестаньте использовать bridge!

Что с ним не так? В последнее время у меня ощущение, что с контейнерами творится безумие: поставим Docker поверх Docker, чтобы можно было запускать Docker в Docker смотря Docker. Большинство не понимает, что делает bridge.

Он помещает ваш сетевой контроллер в promiscuous mode и принимает весь трафик, потому что не знает, какой его, а какой нет. В результате весь трафик bridge идет через замечательный, быстрый сетевой Linux-стек, а там много копирования. В итоге все медленно и плохо. Поэтому не используйте bridge в продакшн.

SR-IOV

SR-IOV — это возможность виртуализироваться в пределах сетевой карты. Сама сетевая карта умеет выделять часть себя для виртуальных машин, что требует определенной поддержки железом. Именно это и будет мешать мигрировать. Миграция виртуальной машины туда, где отсутствует SR-IOV, болезненна.

SR-IOV надо использовать там, где оно поддерживается всеми гипервизорами, в рамках миграции. Если же нет, то для вас есть macvtap.

macvtap

Это для тех, у кого сетевая карта не поддерживает SR-IOV. Это light-версия bridge: на одну сетевую карту навешиваются разные MAC-адреса, и используется unicast filtering: сетевая карта принимает не все подряд, а строго по списку MAC-адресов.

Больше кровавых подробностей можно прочитать в замечательном докладе Toshiaki Makita «Virtual switching technologies and Linux bridge». Он полон боли и страдания.

90% материалов о том, как строить сеть в KVM, бесполезны.

Если кто-то говорит, что bridge это классно — не разговаривайте больше с этим человеком.

С macvtap CPU экономит около 30% за счет меньшего числа копирований. Но с promiscuous mode есть свои нюансы. Нельзя с самого гипервизора — с хоста, — соединиться с сетевым интерфейсом гостевой машины. В докладе Toshiaki подробно описано об этом. Но если кратко — не получится.

С самого гипервизора редко ходят по SSH. Там удобнее стартовать консоль, например, Win-консоль. «Смотреть» трафик на интерфейсе возможно — нельзя по TCP соединиться, но трафик на гипервизоре видно.

Если ваши скорости выше 1 Гигабита — выбирайте macvtap.

При скоростях интерфейса до или около 1 Гигабита в секунду можно использовать и bridge. Но если у вас сетевая карта на 10 Gb и вы хотите как-то ее утилизировать, то остается только macvtap. Никаких других вариантов нет. Кроме SR-IOV.

systemd-networkd

Это отличный способ хранить сетевую конфигурацию на самом гипервизоре. В нашем случае это Ubuntu, но и для других систем systemd работает.

Раньше у нас был файл /etc/network/interfaces , в котором мы все держали. Один файл неудобно редактировать каждый раз — systemd-networkd позволяет разбить конфигурацию на россыпь маленьких файлов. Это удобно, потому что работает с любой системой версионирования: отправили в Git и видите, когда и какое изменение произошло.

Есть недостаток, который обнаружили наши сетевики. Когда нужно добавить новый VLAN в гипервизоре, я иду и конфигурирую. Потом говорю: «systemctl restart systemd-networkd». В этот момент у меня все хорошо, но если подняты BGP-сессии с этой машины — они рвутся. Наши сетевики это не одобряют.

Для гипервизора ничего страшного не происходит. Systemd-networkd непригодно для пограничных бордеров, серверов с поднятым BGP, а для гипервизоров — отлично.

Systemd-networkd далек от финала и не будет закончен никогда. Но это удобнее, чем редактировать один огромный файл. Альтернатива systemd-networkd в Ubuntu 18.04 — Netplan. Это «классный» способ конфигурировать сеть и наступать на грабли.

Устройство сети

После установки KVM и LXD на гипервизор, первое, что вы увидите, — два bridge. Один себе сделал KVM, а второй — LXD.

LXD и KVM пытаются развернуть свою сеть.

Если вам все-таки нужен bridge — для тестовых машин или поиграться, убейте bridge, который включается по умолчанию и создайте свой — такой, какой хотите. KVM или LXD это делают ужасно — подсовывают dnsmasq, и начинается ужас.

Хранилище

Не важно, какие реализации вам нравятся — используйте общее хранилище.

Например, по iSCSI для виртуальных машин. Вы не избавитесь от «точки отказа», но сможете консолидировать хранение в одной точке. Это открывает новые интересные возможности.

Для этого надо внутри дата-центра иметь интерфейсы хотя бы 10 Гбит/с. Но даже если у вас только 1 Гбит/с — не огорчайтесь. Это примерно 125 Мбайт/с — вполне хорошо, для гипервизоров, которые не требуют высокой дисковой нагрузки.

KVM умеет мигрировать и перетаскивать хранилища. Но, например, в режиме рабочей нагрузки перенос виртуальной машины на пару Терабайт — это боль. Для миграции с общим хранилищем хватает передачи только оперативной памяти, что элементарно. Это сокращает время миграции.

В итоге LXD или KVM?

Первоначально мы полагали, что для всех виртуалок, где ядро совпадает с хостовой системой, мы возьмем LXD. А там, где нам нужно брать другое ядро — возьмем KVM.

В реальности планы не взлетели. Чтобы понять почему, посмотрим внимательнее на LXD.

Главный плюс — экономия памяти на ядре. Ядро одно и когда запускаем новые контейнеры ядро все то же. На этом плюсы кончились и начались минусы.

Блочное устройство c rootfs надо монтировать. Это тяжелее, чем кажется.

Миграции толком нет. Она есть, и базируется на чудесном сумрачном инструменте criu, который пилят наши соотечественники. Я горжусь ими, но в простых случаях criu не работает.

zabbix-agent странно ведет себя в контейнере. Если его запустить внутри контейнера, то ряд данных вы увидите с хостовой системы, а не из контейнера. Пока с этим ничего сделать нельзя.

При взгляде на список процессов на гипервизоре, невозможно быстро понять, из какого контейнера растет конкретный процесс. Требуется время, чтобы выяснить, какой там namespace, что и куда. Если нагрузка где-то подскочила больше, чем обычно, то быстро это не понять. Это главная проблема — ограничение в возможностях реагирования. Для каждого случая проводится мини-расследование.

Единственный плюс LXD — экономия памяти на ядре и сокращение overhead.

Но Kernel Shared Memory в KVM и так экономит память.

Читайте также:  Установка двух раздаток на уаз

Пока не вижу причин знакомить серьезный продакшн и LXD. Несмотря на все усилия Canonical в этой области, LXD в продакшн приносит больше проблем, чем решений. В ближайшее время ситуация не изменится.

Но, нельзя сказать, что LXD это зло. Он хорош, но в ограниченных случаях, о которых расскажу чуть позже.

Criu — это сумрачная утилита.

Создайте пустой контейнер, он приедет с DHCP-клиентом и скажите ему: «Suspend!» Получите ошибку, потому что там DHCP-клиент: «Ужас-ужас! Он сокет открывает с признаком «raw» — какой кошмар!» Хуже некуда.

Впечатления от контейнеров: миграции нет, Criu работает через раз.

Мне «нравится» рекомендация от команды LXD, что делать с Criu, чтобы не было проблем:

Возьмите из репозитория версию посвежее!

А можно ее как-то из пакета поставить, чтобы не бегать в репозиторий?

Выводы

LXD чудесен, если хочется создать CI/CD инфраструктуру. Мы берем LVM — Logical Volume Manager, делаем с него снапшот, и на нем стартуем контейнер. Все отлично работает! За секунду создается новый чистый контейнер, который настроен для тестирования и прокатки chef — мы это активно используем.

LXD слаб для серьезного продакшн. Мы не можем понять, что делать с LXD в продакшн, если он плохо работает.

Выбираем KVM и только KVM!

Миграция

Скажу об этом кратко. Для нас миграция оказалась чудесным новым миром, который нам нравится. Там все просто — есть команда для миграции и две важные опции:

Если наберете в Google «KVM migration» и откроете первый же материал, то увидите команду для миграции, но без двух последних ключей. Вы не увидите упоминания, что они важны: «Просто выполните эту команду!» Выполните команду — а оно действительно мигрирует, но только как?

undefinesource — удалить виртуальную машину из гипервизора, с которого мигрируем. Если после такой миграции ребутнетесь, то гипервизор, с которого вы ушли, заново запустит эту машину. Вы удивитесь, но это нормально.

Без второго параметра — persistent — гипервизор, куда вы переехали, вообще не считает, что это постоянная миграция. После ребута гипервизор ничего не вспомнит.

Без этого параметра виртуальная машина — круги на воде. Если первый параметр указан без второго, то догадайтесь, что будет.

С KVM таких моментов много.

  • Сеть: вам все время рассказывают про bridge — это кошмар! Читаешь и думаешь — как так?!
  • Миграция: про нее тоже ничего внятного не скажут, пока сами головой не побьетесь об эту стенку.

С чего начать?

Поздно начинать — я про другое.

Provisioning: как это разворачивать

Если вас устраивают стандартные опции установки, то механизм preseed прекрасен.

Под ESXi мы использовали virt-install. Это штатный способ разворачивать виртуальную машину. Он удобен тем, что вы создаете preseed-файл, в котором описываете образ вашего Debian/Ubuntu. Запускаете новую машину, скормив ей ISO дистрибутива и preseed-файл. Дальше машина сама раскатывается. Вы подсоединяетесь к ней по SSH, цепляете ее в chef, прокатываете кукбуки — все, понеслись в прод!

Но если вам хватает virt-install, у меня плохие новости. Это значит, что вы еще не дошли до стадии, когда хочется что-то сделать иначе. Мы дошли и поняли, что virt-install недостаточно. Мы пришли к некоторому «золотому образу», который мы клонируем и потом запускаем виртуалки.

А как правильно устроить виртуальную машину?

Почему мы пришли к этому образу, и почему вообще provisioning важен? Потому что до сих пор в community слабое понимание, что между виртуальной машиной и обычной машиной большие отличия.

Виртуальной машине не нужен сложный процесс загрузки и умный загрузчик. Гораздо проще прицепить диски виртуальной машины к машине, у которой есть полный набор инструментов, чем в recovery mode пытаться куда-то вылезти.

Виртуальной машине нужна простота устройства. Зачем нужны разделы на виртуальном диске? Зачем люди берут виртуальный диск, и ставят туда разделы, а не LVM?

Виртуальной машине нужна максимальная расширяемость. Обычно виртуалки растут. Это «классный» процесс — увеличение раздела в MBR. Вы его удаляете, в этот момент вытирая пот со лба и думаете: «Только не записать бы сейчас, только бы не записать!» — и создаете заново с новыми параметрами.

LVM @ lilo

В итоге мы пришли к LVM @ lilo. Это загрузчик, который позволяет настраиваться из одного файла. Если для настройки конфига GRUB вы редактируете специальный файл, который управляет шаблонизатором и строит монструозный boot.cfg, то с Lilo — один файл, и больше ничего.

LVM без разделов позволяет сделать систему идеальной легко и просто. Проблема в том, что GRUB без MBR или GPT жить не может и идет на мороз. Мы ему говорим: «GRUB установись сюда», а он не может, потому что разделов нет.

LVM позволяет быстро расширяться и делать резервные копии. Стандартный диалог:

— Ребята, а как вы делаете виртуалке бэкап?

— … мы берем block device и копируем.

— Развертывать обратно пробовали?

— Ну нет, у нас же все работает!

Можно block device в виртуальной машине слизать в любой момент, но если там файловая система, то любая запись в нее требует трех телодвижений — эта процедура не атомарна.

Если вы изнутри делаете снапшот виртуальной машины, то она умеет говорить с файловой системой, чтобы та пришла в нужное консистентное состояние. Но это не для всего подходит.

Как строить контейнер?

Для запуска и создания контейнера есть штатные средства из шаблонов. LXD предлагает шаблон Ubuntu 16.04 или 18.04. Но если вы продвинутый боец и хотите не штатный шаблон, а свой кастомный rootfs, который настроите под себя, то возникает вопрос: а как в LXD создавать контейнер с нуля?

Контейнер с нуля

Подготавливаем rootfs. В этом поможет debootstrap: объясняем, какие пакеты нужны, какие нет — и ставим.

Объяснить LXD, что мы хотим создать контейнер из конкретного rootfs. Но сначала создаем пустой контейнер короткой командой:

Это даже можно автоматизировать.

Вдумчивый читатель скажет — а где rootfs my-container? Где указано, в каком месте он лежит? Но я же не сказал, что это все!

Монтируем rootfs контейнера туда, где он будет жить. Потом указываем, что у контейнера rootfs будет жить вот там:

Опять же это автоматизируется.

Жизнь контейнеров

У контейнера нет своего ядра, поэтому загрузка у него проще: systemd, init и полетели!

Если вы не используете штатные средства для работы с LVM, то в большинстве случаев для запуска контейнера понадобится монтировать rootfs контейнера в гипервизоре.

Я иногда нахожу статьи, в которых советуют «autofs». Не делайте так. У systemd есть automount-юниты, которые работают, а autofs — нет. Поэтому systemd automount-юниты можно и нужно использовать, а autofs — не стоит.

Выводы

Нам по вкусу KVM с миграцией. С LXD пока не по пути, хотя для тестов и построения инфраструктуры мы ее используем — там, где нет продакшн-нагрузки.

Нам нравится производительность KVM. Привычнее смотреть в top, видеть там процесс, который имеет отношение к этой виртуальной машине, и понимать, кто и чем у нас занимается. Это лучше, чем при помощи набора странных утилит с контейнерами выяснять, что там за подводные стуки.

Мы в восторге от миграции. Во многом это благодаря общему хранилищу. Если бы мы мигрировали, перетаскивая диски, то были бы не так счастливы.

Если вы так же, как и Лев, готовы рассказать о преодолении сложностей эксплуатации, интеграции или поддержки, то сейчас самое время подать доклад на осеннюю конференцию DevOpsConf. А мы в программном комитете поможем подготовить такое же воодушевляющие и полезное выступление, как это.

Мы не дожидаемся дедлайна Call for Papers и уже приняли несколько докладов в программу конференции. Подпишитесь на рассылку и telegram-канал и будете в курсе новостей о подготовке к DevOpsConf 2019 и не пропустите новые статьи и видео.

источник

Популярные записи

Добавить комментарий