Меню Рубрики

Установка esxi на supermicro

Установка esxi 6.5, с правильной настройкой

Установка esxi 6.5, с правильной настройкой

Добрый день! Уважаемые читатели и гости, крупнейшего IT блога Pyatilistnik.org. Продолжаем с вами изучать технологии виртуализации и различные гипервизоры. В прошлый раз мы с вами рассматривали установку гипервизора ESXI 5.5, данная версия хорошая, но уже имеет обновленную версию 6.5 или 6.7. Сегодня я подробно рассмотрю, как производится установка Esxi 6.5 с последующей, начальной настройкой, которая вам позволит получить хост виртуализации, готовый к вводу в эксплуатацию со всеми последними возможностями. В следующих статьях, я покажу алгоритм перехода с 5.5 на 6.5 и выше.

Алгоритм установки гипервизора VMware ESXI 6.5

Хочу отметить, что существуют несколько методов достижения нашей поставленной цели, которые могут инсталлировать данную операционную систему:

  • Первый метод, это установка ESXi 6.5 с помощью установочного диска записанного на болванку. Тут вы вольны использовать любую программу для записи на диск, например, UltraISO. После чего вставляете диск и загружаетесь с него, не забываем его выбрать в качестве основного устройства загрузки в BIOS.
  • Второй метод. это использование ISO образа с дистрибутивом. который мы будем использовать в KVM-консоли, доступной на портах управления (IMM, IDRAC, ILO, IPMI), примеры монтирования вы можете посмотреть по ссылкам.
  • Третий метод установки Vmware ESXI 6.5, заключается в использовании виртуального CD-ROM Zalman, который умеет монтировать ISO образы, данный метод похож на первый, тут только в качестве основного устройства в BIOS нужно выбрать именно Virtual-Zalman
  • Четвертый метод, это использование загрузочной флешки или SD карты, так же подразумевает создание загрузочной флешки Vmware 6.5 1 методом или вторым, с последующей загрузкой в BIOS с нее.
  • Пятый метод, это установка по сети, через PXE сервер. Тут вам придется создать специальный сервер, на котором будет выложен дистрибутив с гипервизором, об этом я подробно рассказывал.

Когда вы выбрали метод загрузки дистрибутива Vmware ESXI 6.5, можно приступать к его установке, сама инсталляция во всех методах одинакова. Загрузившись с вашего носителя, у вас появится вот такое синее окно инсталлятора, тут будет два пункта:

  1. ESXI-6.5.0-standard installer — собственно сама установка, выбираем данный пункт
  2. Boot from local disk — загрузка с локального диска

У вас появится окно загрузчика «Load ESXi installer», тут можно выбрать старую версию загрузчика или же продолжить установку, нажав Enter.

Начинается процесс подгрузки в оперативную память необходимых файлов Vmware ESXI 6.5 инсталлятора.

Через пару мгновений у вас появится привычный серо-желтый экран, в котором будут загружаться библиотеки и пакеты, тут вы увидите версию релиза, количество вашей ОЗУ и CPU.

Если у вас будет в сервере оперативной памяти меньше, чем 4 ГБ, то вы увидите вот такое пурпурное окно с напоминанием:

Если по ресурсам у вас все хорошо, то вы увидите приветственный баннер, на котором нажимаем «Enter».

Читаем лицензионное соглашение и если все вас устраивает, то нажимаем клавишу F11.

Установщик ESXI 6.5, начнет сканирование сервера, на предмет локальный, сетевых или внешних дисков.

В списке дисковых устройств выберите нужные вам, на которое будет устанавливаться ваш гипервизор, хочу отметить, что вы спокойно можете установить на встроенную SD карту, если такая есть или же на внешнюю флешку. Я выбираю локальный диск, размером 5 ГБ.

Задаем язык гипервизора Vmware ESXI 6.5, я оставлю по умолчанию английский, нажимаем Enter.

Указываем пароль от root пользователя, тут требования минимум 7 символов и желательно большие и маленькие буквы.

При нажатии клавиши F11 у вас начинается установка esxi 6.5.

Вот так вот выглядит сам процесс инсталляции гипервизора Vmware ESXI.

Как видим установка Vmware ESXi 6.5, успешно закончена и вам предлагается перезагрузить ваш сервер, соглашаемся.

Начальная настройка VMware ESXI 6.5

После успешной установки ESXI 6.5, у вас после перезагрузки появится вот такое черное окно, в котором у вас будет два возможных варианта развития событий:

  • В левом нижнем углу, будет подсказка нажать клавишу F2, для настройки VMware ESXI 6.5
  • В правом нижнем углу, будет подсказка, как выключить или перезагрузить хост виртуализации

заходим в режим «Customize SystemView Logs», у вас появится окно авторизации, где вы указываете логин root и пароль, который задавали при установке ESXI 6.5.

У вас откроется окно «System Customization». На первом пункте «Configure Password», вы можете поменять пароль от root.

Вы указываете один раз старый пароль и два раза новый.

Переходим к пункту меню «Configure Management Network», тут производится настройка сети управления у ESXI 6.5, справа вы можете так же получить информацию, о IPv-4 адресах. Переходим в данный пункт.

Пункт «Network Adapters», покажет вам ваши сетевые интерфейсы, переходим в него

В моем примере их два, один активный, второй нет, если вы его хотите активировать, то выберите его и нажмите клавишу пробел, на против него появится крестик. Обратите внимание, выделенные сети будут отданы под сеть управления. В идеале для нее лучше назначать минимум два адаптера, для отказоустойчивости. Тут же вы найдете и mac-адреса.

Следующим этапом настройки ESXI 6.5, будет пункт меню «VLAN (options)», отвечающий за указание в каком сегменте VLAN у вас располагается ваш сетевой интерфейс, если у вас их нет, то тут стоит оставить все по умолчанию. Обычно с помощью VLAN и отделяют сеть управления от остальных.

Задается он просто, числом от 1 до 4095

Далее настройка EXI 6.5, позволяет вам в пункте «IPv4 Configuration», изменить ip-адрес на статический или вообще отключить сетевой интерфейс.

На выбор будет три пункта:

  • Disable IPv4 configuration for management network — выключить сетевой интерфейс в сети управления
  • Use dynamic IPv4 address and network configuration — по сути использовать DHCP сервер, для автоматического получения адреса, выставлено по умолчанию
  • Set static IPv4 address network configuration — настройка статического адреса, все активации происходят, через кнопку Enter.

То же самое вы можете выполнить и по отношению к интерфейсу IPv6.

Далее переходим к настройке DNS серверов, через пункт «DNS Configuration»

  • Obtain DNS server address and hostname automatically- автоматическое получение DNS серверов из DHCP
  • Use the following DNS server address and hostname — использовать заданные DNS сервера, ручная настройка.

В пункте «Custom DNS Suffixes», можно задать доменный суффикс.

В моем примере, это root.pyatilistnk.org.

Выходя из настроек сети ESXI 6.5, необходимо будет сохранить настройки и перезапустить сеть управления.

Отдельно можно перезапустить сеть управления из пункта «Restart Management Network»

Выглядит это вот так, вы соглашаетесь с рестартом.

В итоге сеть управления ESXI 6.5 будет выключена и заново включена.

В момент настройки VMware ESXI 6.5 у вас есть возможность из «System Customization», произвести сетевые тесты, на предмет доступности DNS или шлюза, сделать это можно из пункта «Test Management Network».

Проверяются пинги до нужных адресов и разрешение DNS имен.

Вот так вот выглядят результаты тестирования, тут сразу можно увидеть, есть ли проблемы с DNS или маршрутизацией.

Если вы допустили какие-либо ошибки в момент настройки или работы хоста виртуализации, и не знаете как все восстановить, то можно сбросить сетевые настройки на те, что были по умолчанию и быстро потом все перенастроить, так как появится доступ к сети управления. Делается, это все из меню «Network Restore Options».

источник

Форум vMind.ru

Проблема с установкой ESXi на Supermicro X7DB3 c AIC-9410w

Версия для печати Пред. тема | След. тема
Автор Сообщение
snippyy

Доброго времени суток!
Пытаюсь установить ESXi 4.1 U1 на Supermicro X7DB3 с интегрированным контроллером Adaptec AIC-9410w.
В процессе инсталяции возникает ошибка:
“Unable to find a supportive device to write the VMware EXSI 4.1.0 image to.”
SYSTEM INFORMATION:
Manufacturer: Supermicro
Model: X7DB8
Service Tag: 0123456789
BIOS Rev: Phoenix technologies Ltd.

ESXi не может определить контроллер. Хотя в HCL он вроде есть.
Почему то криво определяет материнку. Разница между X7DB3 и X7DB8 — контроллеры , на X7DB3 — SAS\SATA AIC-9410w, а на X7DB8 — AIC-7902 SCSI.
Вендоры контроллера AIC-9410 из HCL:
9005 041f 0000 0000
у меня же:
9005 041f 15d9 6080
Разница похоже только в субвендоре.

Как принудить ESXi увидеть AIC-9410w рейд контроллер ?

Не в сети
Модератор

Зарегистрирован: 11 янв 2011, 12:54
Сообщения: 350
Благодарил (а): 2 раз.
Поблагодарили: 35 раз.
Откуда: Пермь

Возможно проблема в прошивке контроллера

Но, как говорится, на свой страх и риск.

Мде, отож. Я ограничился пока только прошивкой свежего БИОС материнки.
Прошивать внутр. контроллер как то стремно. Оставлю как последнее средство.

На соседнем форуме нашел тему, где описывается, как изготовить пользовательскую установку ESXi, добавив нужные драйверы в некий файлик oem.tgz. Есь честно, пока не понял как это сделать. И поможет ли мне . Может кто сталкивался?

Не в сети
Модератор

Зарегистрирован: 11 янв 2011, 12:54
Сообщения: 350
Благодарил (а): 2 раз.
Поблагодарили: 35 раз.
Откуда: Пермь

Мде, новую можно было и не плодить. Только тема результатом не закончилась и топикстартер пропал.
Там есть еще одна тема с похожими результатами
http://www.vm-help.com/forum/viewtopic.php?f=14&t=2069&hilit=aic+9410
Раз уж разговор зашел за вм-хелп, то подкину еще один линк
http://www.vm-help.com/forum/viewtopic.php?f=4&t=3062&p=11568&hilit=aic+9410#p11568
Похожая ситуевина, вот что пишет уважаемый на том форуме чел ) Процитирую его, думаю он не обидется

«ESXi has a driver that should recognize the controller. However, the ESXi drivers don’t support HostRAID which is a form of software RAID. The best you should be able to get is ESXi seeing the individual disks.

If you access the console (press ALT+F1 during the install and login with root / no password) and run fdisk -l do you see the physical disks attached to the controller?
«

Сегодня попробую это проделать.

ESXi has a driver that should recognize the controller. However, the ESXi drivers don’t support HostRAID which is a form of software RAID. The best you should be able to get is ESXi seeing the individual disks.

If you access the console (press ALT+F1 during the install and login with root / no password) and run fdisk -l do you see the physical disks attached to the controller?

источник

Как переехать с ESXi на KVM/LXD и не сойти с ума

В компании «Макснет Системы» в качестве гипервизора долгое время использовалась бесплатная версия VMware — ESXi, начиная с версии 5.0. Платная версия vSphere отпугивала моделью лицензирования, а у бесплатной был ряд недостатков, которые отсутствовали в платной, но с ними можно было смириться. Но когда в новых версиях ESXi новый веб-интерфейс отказался работать со старым, а мониторинг RAID-массивов перестал подавать признаки жизни, компания решила искать более универсальное и открытое решение. В компании уже был неплохой опыт и приятное впечатление от LXC — Linux Containers. Поэтому стало очевидно, что гипервизор мечты будет гибридным и сочетать для разных нагрузок KVM и LXD — эволюционное продолжение LXC. В поисках информации относительно KVM, компания сталкивалась с заблуждениями, граблями и вредными практиками, но тесты и время расставили все по местам.

О том, как справиться с переездом с ESXi на KVM и не проколоть колеса на граблях, расскажет Лев Николаев (maniaque) — администратор и разработчик высоконагруженных систем, тренер по информационным технологиям. Поговорим о Сети, хранилищах, контейнерах, KVM, LXD, LXC, provisioning и удобных виртуалках.

Пролог

Сразу обозначим ключевые мысли, а дальше разберем их подробнее.

Сеть. Пока скорости ваших интерфейсов не превышают 1 Гбит/с, вам хватит bridge. Как только захотите выжать больше — он будет вас ограничивать.

Хранилище. Создайте общее сетевое хранилище. Даже если вы не готовы внутри сети использовать 10 Гбит/с, то даже 1 Гбит/с даст вам 125 МБ/с хранилища. Для целого ряда нагрузок этого будет достаточно с запасом, а миграция виртуальных машин будет элементарным делом.

Контейнер или KVM? Плюсы, минусы, подводные камни. Какие виды нагрузки лучше положить в контейнер, а какие лучше оставить в KVM?

LXD или LXC. LXD — это LXC? Или другая версия? Или надстройка? Что это вообще? Развеем мифы и поймем, в чем отличия между LXD и LXC.

Удобный provisioning. Что удобнее: брать одинаковый образ или инсталлировать систему с нуля каждый раз? Как это делать быстро и аккуратно каждый раз?

Удобная виртуальная машина. Здесь будут страшные рассказы о загрузчиках, разделах, LVM.

Разное. Много мелких вопросов: как быстро перетащить виртуальную машину c ESXi на KVM, как хорошо мигрировать, как правильно виртуализировать диски?

Причина переезда

Откуда у нас появилась безумная идея переезда с ESXi на KVM/LXD? ESXi популярно среди малого и среднего бизнеса. Это хороший и дешевый гипервизор. Но есть нюансы.

Мы начинали с версии 5.0 — удобно, все работает! Следующая версия 5.5 — тоже.

С версии 6.0 — уже сложнее. На ESXi Web-интерфейс не сразу стал бесплатным, только с версии 6.5, до этого требовалась утилита под Windows. Мы с этим смирились. Кто работает на OS X покупает Parallels и ставит эту утилиту. Это всем известная боль.

Периодически слетал мониторинг. Приходилось в консоли сервера перезапускать службы менеджмента — тогда снова появлялся CIM Heartbeat. Мы терпели, так как он не всегда отваливался.

Версия ESXi 6.5 — треш, угар и бесчинства. Ужасный гипервизор. И вот почему.

  • Angular вываливается с исключением еще на входе в Web-интерфейс. Как только вы вводите логин и пароль — сразу исключение!
  • Не работает возможность удаленно мониторить статус RAID-массива так, как удобно нам. Раньше было удобно, а в версии 6.5 — все плохо.
  • Слабая поддержка современных сетевых карт от Intel. Сетевые карты от Intel и ESXi порождают боль. На форуме поддержки ESXi есть ветка агонии по этому поводу. VMware и Intel не дружат и в ближайшее время отношения не улучшатся. Печально то, что проблемы испытывают даже клиенты платных решений.
  • Нет миграции в рамках ESXi. Если только не считать миграцией процедуру с паузой, копированием и запуском. Ставим машину на паузу, быстро ее копируем и запускаем в другом месте. Но назвать это миграцией нельзя — все-таки есть простой.

Посмотрев на это все, у нас и появилась безумная идея переезда с ESXi 6.5.

Список пожеланий

Для начала мы написали список пожеланий идеального будущего, в которое мы уходим.

Управление из-под SSH, а Web и прочее опционально. Web-интерфейс — это здорово, но в командировке с iPhone зайти в Web-интерфейс ESXi и что-то там сделать неудобно и тяжело. Поэтому, единственный способ управлять всем — это SSH, другого не будет.

Виртуализация Windows. Иногда клиенты просят странные вещи, а наша миссия — им помогать.

Всегда свежие драйвера и возможность настраивать сетевую карту. Адекватное желание, но нереализуемое под чистым ESXi.

Живая миграция, а не кластеризация. Мы хотим возможность перетаскивать машины с одного гипервизора на другой, не ощущая никаких задержек, простоев и неудобств.

Список желаний готов, дальше начался тяжелый поиск.

Муки выбора

Рынок крутится вокруг KVM или LXC под разными соусами. Иногда кажется, что Kubernetes где-то сверху, где все хорошо, солнце и рай, а на уровне ниже сидят морлоки — KVM, Xen или что-то подобное…

Например, Proxmox VE — это Debian, на который натянули ядро от Ubuntu. Это выглядит странно, но приносить ли это в продакшн?

Наши соседи этажом ниже — Alt Linux. Они придумали красивое решение: собрали Proxmox VE в виде пакета. Они просто ставят пакет одной командой. Это удобно, но мы не катаем Alt Linux в продакшн, поэтому нам не подошло.

Берем KVM

В итоге мы выбрали KVM. Не взяли, Xen, например, из-за сообщества — оно у KVM сильно больше. Казалось, что мы всегда найдем ответ на свой вопрос. Позже мы выяснили, что размер сообщества не влияет на его качество.

Изначально мы рассчитывали, что возьмем Bare Metal машину, добавим Ubuntu, с которой работаем, а сверху будем катать KVM/LXD. Мы рассчитывали на возможность запускать контейнеры. Ubuntu хорошо знакомая система и никаких сюрпризов в плане решения проблем загрузки/восстановления для нас нет. Мы знаем куда пинать, если гипервизор не заводится. Нам все понятно и удобно.

Ускоренный курс по KVM

Если вы из мира ESXi, то вас ждет много интересного. Выучите три слова: QEMU, KVM и libvirt.

QEMU транслирует желания виртуализируемых ОС в вызовы обычного процесса. Отлично работает практически везде, но медленно. Сам по себе QEMU — это отдельный продукт, который виртуализирует кучу других устройств.

Дальше на сцену выходит связка QEMU-KVM. Это модуль ядра Linux для QEMU. Все инструкции виртуализировать дорого, поэтому у нас есть модуль ядра KVM, который транслирует только некоторые инструкции. Как результат — это ощутимо быстрее, потому что обрабатывается всего несколько процентов инструкций от общего набора. Это и есть все издержки на виртуализацию.

Если у вас просто QEMU, запуск виртуальной машины без обвязки выглядит так:

В параметрах описываете сеть, блочные устройства. Все замечательно, но неудобно. Поэтому есть libvirt.

Задача libvirt — быть единым инструментом для всех гипервизоров. Он может работать с чем угодно: с KVM, с LXD. Кажется, что остается только учить синтаксис libvirt, но на деле он работает хуже, чем в теории.

Эти три слова — все, что нужно, чтобы поднять первую виртуалку в KVM. Но опять-таки есть нюансы…

У libvirt есть конфиг, где хранятся виртуалки и прочие настройки. Он хранит конфигурацию в xml-файлах — стильно, модно и прямо из 90-х. При желании их можно редактировать руками, но зачем, если есть удобные команды. Также удобно то, что изменения xml-файлов чудесно версионируются. Мы используем etckeeper — версинонируем директорию etc. Использовать etckeeper уже можно и давно пора.

Ускоренный курс по LXC

По поводу LXC и LXD существует множество заблуждений.

LXC — это возможность современного ядра использовать namespaces — делать вид, что оно совсем не то ядро, что было изначально.

Этих namespaces можно создавать сколько угодно под каждый контейнер. Формально ядро одно, но ведет себя как много одинаковых ядер. LXC позволяет запускать контейнеры, но предоставляет только базовые инструменты.

Компания Canonical, которая стоит за Ubuntu и агрессивно двигает контейнеры вперед, выпустила LXD — аналог libvirt. Это обвязка, которая позволяет удобнее запускать контейнеры, но внутри это все равно LXС.

LXD — это гипервизор контейнеров, который базируется на LXС.

В LXD царствует энтерпрайз. LXD хранит конфиг в своей базе — в директории /var/lib/lxd . Там LXD ведет свой конфиг в конфиг в SQlite. Копировать его не имеет смысла, но можно записывать те команды, которые вы использовали для создания конфигурации контейнера.

Выгрузки как таковой нет, но большая часть изменений автоматизируется командами. Это аналог Docker-файла, только с ручным управлением.

Продакшн

С чем мы столкнулись, когда на этом всем поплыли в эксплуатацию.

Сколько же адского треша и угара в интернете о сети в KVM! 90% материалов говорят использовать bridge.

Перестаньте использовать bridge!

Что с ним не так? В последнее время у меня ощущение, что с контейнерами творится безумие: поставим Docker поверх Docker, чтобы можно было запускать Docker в Docker смотря Docker. Большинство не понимает, что делает bridge.

Он помещает ваш сетевой контроллер в promiscuous mode и принимает весь трафик, потому что не знает, какой его, а какой нет. В результате весь трафик bridge идет через замечательный, быстрый сетевой Linux-стек, а там много копирования. В итоге все медленно и плохо. Поэтому не используйте bridge в продакшн.

SR-IOV

SR-IOV — это возможность виртуализироваться в пределах сетевой карты. Сама сетевая карта умеет выделять часть себя для виртуальных машин, что требует определенной поддержки железом. Именно это и будет мешать мигрировать. Миграция виртуальной машины туда, где отсутствует SR-IOV, болезненна.

SR-IOV надо использовать там, где оно поддерживается всеми гипервизорами, в рамках миграции. Если же нет, то для вас есть macvtap.

macvtap

Это для тех, у кого сетевая карта не поддерживает SR-IOV. Это light-версия bridge: на одну сетевую карту навешиваются разные MAC-адреса, и используется unicast filtering: сетевая карта принимает не все подряд, а строго по списку MAC-адресов.

Больше кровавых подробностей можно прочитать в замечательном докладе Toshiaki Makita «Virtual switching technologies and Linux bridge». Он полон боли и страдания.

90% материалов о том, как строить сеть в KVM, бесполезны.

Если кто-то говорит, что bridge это классно — не разговаривайте больше с этим человеком.

С macvtap CPU экономит около 30% за счет меньшего числа копирований. Но с promiscuous mode есть свои нюансы. Нельзя с самого гипервизора — с хоста, — соединиться с сетевым интерфейсом гостевой машины. В докладе Toshiaki подробно описано об этом. Но если кратко — не получится.

С самого гипервизора редко ходят по SSH. Там удобнее стартовать консоль, например, Win-консоль. «Смотреть» трафик на интерфейсе возможно — нельзя по TCP соединиться, но трафик на гипервизоре видно.

Если ваши скорости выше 1 Гигабита — выбирайте macvtap.

При скоростях интерфейса до или около 1 Гигабита в секунду можно использовать и bridge. Но если у вас сетевая карта на 10 Gb и вы хотите как-то ее утилизировать, то остается только macvtap. Никаких других вариантов нет. Кроме SR-IOV.

systemd-networkd

Это отличный способ хранить сетевую конфигурацию на самом гипервизоре. В нашем случае это Ubuntu, но и для других систем systemd работает.

Раньше у нас был файл /etc/network/interfaces , в котором мы все держали. Один файл неудобно редактировать каждый раз — systemd-networkd позволяет разбить конфигурацию на россыпь маленьких файлов. Это удобно, потому что работает с любой системой версионирования: отправили в Git и видите, когда и какое изменение произошло.

Есть недостаток, который обнаружили наши сетевики. Когда нужно добавить новый VLAN в гипервизоре, я иду и конфигурирую. Потом говорю: «systemctl restart systemd-networkd». В этот момент у меня все хорошо, но если подняты BGP-сессии с этой машины — они рвутся. Наши сетевики это не одобряют.

Для гипервизора ничего страшного не происходит. Systemd-networkd непригодно для пограничных бордеров, серверов с поднятым BGP, а для гипервизоров — отлично.

Systemd-networkd далек от финала и не будет закончен никогда. Но это удобнее, чем редактировать один огромный файл. Альтернатива systemd-networkd в Ubuntu 18.04 — Netplan. Это «классный» способ конфигурировать сеть и наступать на грабли.

Устройство сети

После установки KVM и LXD на гипервизор, первое, что вы увидите, — два bridge. Один себе сделал KVM, а второй — LXD.

LXD и KVM пытаются развернуть свою сеть.

Если вам все-таки нужен bridge — для тестовых машин или поиграться, убейте bridge, который включается по умолчанию и создайте свой — такой, какой хотите. KVM или LXD это делают ужасно — подсовывают dnsmasq, и начинается ужас.

Хранилище

Не важно, какие реализации вам нравятся — используйте общее хранилище.

Например, по iSCSI для виртуальных машин. Вы не избавитесь от «точки отказа», но сможете консолидировать хранение в одной точке. Это открывает новые интересные возможности.

Для этого надо внутри дата-центра иметь интерфейсы хотя бы 10 Гбит/с. Но даже если у вас только 1 Гбит/с — не огорчайтесь. Это примерно 125 Мбайт/с — вполне хорошо, для гипервизоров, которые не требуют высокой дисковой нагрузки.

KVM умеет мигрировать и перетаскивать хранилища. Но, например, в режиме рабочей нагрузки перенос виртуальной машины на пару Терабайт — это боль. Для миграции с общим хранилищем хватает передачи только оперативной памяти, что элементарно. Это сокращает время миграции.

В итоге LXD или KVM?

Первоначально мы полагали, что для всех виртуалок, где ядро совпадает с хостовой системой, мы возьмем LXD. А там, где нам нужно брать другое ядро — возьмем KVM.

В реальности планы не взлетели. Чтобы понять почему, посмотрим внимательнее на LXD.

Главный плюс — экономия памяти на ядре. Ядро одно и когда запускаем новые контейнеры ядро все то же. На этом плюсы кончились и начались минусы.

Блочное устройство c rootfs надо монтировать. Это тяжелее, чем кажется.

Миграции толком нет. Она есть, и базируется на чудесном сумрачном инструменте criu, который пилят наши соотечественники. Я горжусь ими, но в простых случаях criu не работает.

zabbix-agent странно ведет себя в контейнере. Если его запустить внутри контейнера, то ряд данных вы увидите с хостовой системы, а не из контейнера. Пока с этим ничего сделать нельзя.

При взгляде на список процессов на гипервизоре, невозможно быстро понять, из какого контейнера растет конкретный процесс. Требуется время, чтобы выяснить, какой там namespace, что и куда. Если нагрузка где-то подскочила больше, чем обычно, то быстро это не понять. Это главная проблема — ограничение в возможностях реагирования. Для каждого случая проводится мини-расследование.

Единственный плюс LXD — экономия памяти на ядре и сокращение overhead.

Но Kernel Shared Memory в KVM и так экономит память.

Пока не вижу причин знакомить серьезный продакшн и LXD. Несмотря на все усилия Canonical в этой области, LXD в продакшн приносит больше проблем, чем решений. В ближайшее время ситуация не изменится.

Но, нельзя сказать, что LXD это зло. Он хорош, но в ограниченных случаях, о которых расскажу чуть позже.

Criu — это сумрачная утилита.

Создайте пустой контейнер, он приедет с DHCP-клиентом и скажите ему: «Suspend!» Получите ошибку, потому что там DHCP-клиент: «Ужас-ужас! Он сокет открывает с признаком «raw» — какой кошмар!» Хуже некуда.

Впечатления от контейнеров: миграции нет, Criu работает через раз.

Мне «нравится» рекомендация от команды LXD, что делать с Criu, чтобы не было проблем:

Возьмите из репозитория версию посвежее!

А можно ее как-то из пакета поставить, чтобы не бегать в репозиторий?

Выводы

LXD чудесен, если хочется создать CI/CD инфраструктуру. Мы берем LVM — Logical Volume Manager, делаем с него снапшот, и на нем стартуем контейнер. Все отлично работает! За секунду создается новый чистый контейнер, который настроен для тестирования и прокатки chef — мы это активно используем.

LXD слаб для серьезного продакшн. Мы не можем понять, что делать с LXD в продакшн, если он плохо работает.

Выбираем KVM и только KVM!

Миграция

Скажу об этом кратко. Для нас миграция оказалась чудесным новым миром, который нам нравится. Там все просто — есть команда для миграции и две важные опции:

Если наберете в Google «KVM migration» и откроете первый же материал, то увидите команду для миграции, но без двух последних ключей. Вы не увидите упоминания, что они важны: «Просто выполните эту команду!» Выполните команду — а оно действительно мигрирует, но только как?

undefinesource — удалить виртуальную машину из гипервизора, с которого мигрируем. Если после такой миграции ребутнетесь, то гипервизор, с которого вы ушли, заново запустит эту машину. Вы удивитесь, но это нормально.

Без второго параметра — persistent — гипервизор, куда вы переехали, вообще не считает, что это постоянная миграция. После ребута гипервизор ничего не вспомнит.

Без этого параметра виртуальная машина — круги на воде. Если первый параметр указан без второго, то догадайтесь, что будет.

С KVM таких моментов много.

  • Сеть: вам все время рассказывают про bridge — это кошмар! Читаешь и думаешь — как так?!
  • Миграция: про нее тоже ничего внятного не скажут, пока сами головой не побьетесь об эту стенку.

С чего начать?

Поздно начинать — я про другое.

Provisioning: как это разворачивать

Если вас устраивают стандартные опции установки, то механизм preseed прекрасен.

Под ESXi мы использовали virt-install. Это штатный способ разворачивать виртуальную машину. Он удобен тем, что вы создаете preseed-файл, в котором описываете образ вашего Debian/Ubuntu. Запускаете новую машину, скормив ей ISO дистрибутива и preseed-файл. Дальше машина сама раскатывается. Вы подсоединяетесь к ней по SSH, цепляете ее в chef, прокатываете кукбуки — все, понеслись в прод!

Но если вам хватает virt-install, у меня плохие новости. Это значит, что вы еще не дошли до стадии, когда хочется что-то сделать иначе. Мы дошли и поняли, что virt-install недостаточно. Мы пришли к некоторому «золотому образу», который мы клонируем и потом запускаем виртуалки.

А как правильно устроить виртуальную машину?

Почему мы пришли к этому образу, и почему вообще provisioning важен? Потому что до сих пор в community слабое понимание, что между виртуальной машиной и обычной машиной большие отличия.

Виртуальной машине не нужен сложный процесс загрузки и умный загрузчик. Гораздо проще прицепить диски виртуальной машины к машине, у которой есть полный набор инструментов, чем в recovery mode пытаться куда-то вылезти.

Виртуальной машине нужна простота устройства. Зачем нужны разделы на виртуальном диске? Зачем люди берут виртуальный диск, и ставят туда разделы, а не LVM?

Виртуальной машине нужна максимальная расширяемость. Обычно виртуалки растут. Это «классный» процесс — увеличение раздела в MBR. Вы его удаляете, в этот момент вытирая пот со лба и думаете: «Только не записать бы сейчас, только бы не записать!» — и создаете заново с новыми параметрами.

LVM @ lilo

В итоге мы пришли к LVM @ lilo. Это загрузчик, который позволяет настраиваться из одного файла. Если для настройки конфига GRUB вы редактируете специальный файл, который управляет шаблонизатором и строит монструозный boot.cfg, то с Lilo — один файл, и больше ничего.

LVM без разделов позволяет сделать систему идеальной легко и просто. Проблема в том, что GRUB без MBR или GPT жить не может и идет на мороз. Мы ему говорим: «GRUB установись сюда», а он не может, потому что разделов нет.

LVM позволяет быстро расширяться и делать резервные копии. Стандартный диалог:

— Ребята, а как вы делаете виртуалке бэкап?

— … мы берем block device и копируем.

— Развертывать обратно пробовали?

— Ну нет, у нас же все работает!

Можно block device в виртуальной машине слизать в любой момент, но если там файловая система, то любая запись в нее требует трех телодвижений — эта процедура не атомарна.

Если вы изнутри делаете снапшот виртуальной машины, то она умеет говорить с файловой системой, чтобы та пришла в нужное консистентное состояние. Но это не для всего подходит.

Как строить контейнер?

Для запуска и создания контейнера есть штатные средства из шаблонов. LXD предлагает шаблон Ubuntu 16.04 или 18.04. Но если вы продвинутый боец и хотите не штатный шаблон, а свой кастомный rootfs, который настроите под себя, то возникает вопрос: а как в LXD создавать контейнер с нуля?

Контейнер с нуля

Подготавливаем rootfs. В этом поможет debootstrap: объясняем, какие пакеты нужны, какие нет — и ставим.

Объяснить LXD, что мы хотим создать контейнер из конкретного rootfs. Но сначала создаем пустой контейнер короткой командой:

Это даже можно автоматизировать.

Вдумчивый читатель скажет — а где rootfs my-container? Где указано, в каком месте он лежит? Но я же не сказал, что это все!

Монтируем rootfs контейнера туда, где он будет жить. Потом указываем, что у контейнера rootfs будет жить вот там:

Опять же это автоматизируется.

Жизнь контейнеров

У контейнера нет своего ядра, поэтому загрузка у него проще: systemd, init и полетели!

Если вы не используете штатные средства для работы с LVM, то в большинстве случаев для запуска контейнера понадобится монтировать rootfs контейнера в гипервизоре.

Я иногда нахожу статьи, в которых советуют «autofs». Не делайте так. У systemd есть automount-юниты, которые работают, а autofs — нет. Поэтому systemd automount-юниты можно и нужно использовать, а autofs — не стоит.

Выводы

Нам по вкусу KVM с миграцией. С LXD пока не по пути, хотя для тестов и построения инфраструктуры мы ее используем — там, где нет продакшн-нагрузки.

Нам нравится производительность KVM. Привычнее смотреть в top, видеть там процесс, который имеет отношение к этой виртуальной машине, и понимать, кто и чем у нас занимается. Это лучше, чем при помощи набора странных утилит с контейнерами выяснять, что там за подводные стуки.

Мы в восторге от миграции. Во многом это благодаря общему хранилищу. Если бы мы мигрировали, перетаскивая диски, то были бы не так счастливы.

Если вы так же, как и Лев, готовы рассказать о преодолении сложностей эксплуатации, интеграции или поддержки, то сейчас самое время подать доклад на осеннюю конференцию DevOpsConf. А мы в программном комитете поможем подготовить такое же воодушевляющие и полезное выступление, как это.

Мы не дожидаемся дедлайна Call for Papers и уже приняли несколько докладов в программу конференции. Подпишитесь на рассылку и telegram-канал и будете в курсе новостей о подготовке к DevOpsConf 2019 и не пропустите новые статьи и видео.

источник

Читайте также:  Установка adsl модема d link