Меню Рубрики

Установка esxi на hdd

Установка esxi 6.5, с правильной настройкой

Установка esxi 6.5, с правильной настройкой

Добрый день! Уважаемые читатели и гости, крупнейшего IT блога Pyatilistnik.org. Продолжаем с вами изучать технологии виртуализации и различные гипервизоры. В прошлый раз мы с вами рассматривали установку гипервизора ESXI 5.5, данная версия хорошая, но уже имеет обновленную версию 6.5 или 6.7. Сегодня я подробно рассмотрю, как производится установка Esxi 6.5 с последующей, начальной настройкой, которая вам позволит получить хост виртуализации, готовый к вводу в эксплуатацию со всеми последними возможностями. В следующих статьях, я покажу алгоритм перехода с 5.5 на 6.5 и выше.

Алгоритм установки гипервизора VMware ESXI 6.5

Хочу отметить, что существуют несколько методов достижения нашей поставленной цели, которые могут инсталлировать данную операционную систему:

  • Первый метод, это установка ESXi 6.5 с помощью установочного диска записанного на болванку. Тут вы вольны использовать любую программу для записи на диск, например, UltraISO. После чего вставляете диск и загружаетесь с него, не забываем его выбрать в качестве основного устройства загрузки в BIOS.
  • Второй метод. это использование ISO образа с дистрибутивом. который мы будем использовать в KVM-консоли, доступной на портах управления (IMM, IDRAC, ILO, IPMI), примеры монтирования вы можете посмотреть по ссылкам.
  • Третий метод установки Vmware ESXI 6.5, заключается в использовании виртуального CD-ROM Zalman, который умеет монтировать ISO образы, данный метод похож на первый, тут только в качестве основного устройства в BIOS нужно выбрать именно Virtual-Zalman
  • Четвертый метод, это использование загрузочной флешки или SD карты, так же подразумевает создание загрузочной флешки Vmware 6.5 1 методом или вторым, с последующей загрузкой в BIOS с нее.
  • Пятый метод, это установка по сети, через PXE сервер. Тут вам придется создать специальный сервер, на котором будет выложен дистрибутив с гипервизором, об этом я подробно рассказывал.

Когда вы выбрали метод загрузки дистрибутива Vmware ESXI 6.5, можно приступать к его установке, сама инсталляция во всех методах одинакова. Загрузившись с вашего носителя, у вас появится вот такое синее окно инсталлятора, тут будет два пункта:

  1. ESXI-6.5.0-standard installer — собственно сама установка, выбираем данный пункт
  2. Boot from local disk — загрузка с локального диска

У вас появится окно загрузчика «Load ESXi installer», тут можно выбрать старую версию загрузчика или же продолжить установку, нажав Enter.

Начинается процесс подгрузки в оперативную память необходимых файлов Vmware ESXI 6.5 инсталлятора.

Через пару мгновений у вас появится привычный серо-желтый экран, в котором будут загружаться библиотеки и пакеты, тут вы увидите версию релиза, количество вашей ОЗУ и CPU.

Если у вас будет в сервере оперативной памяти меньше, чем 4 ГБ, то вы увидите вот такое пурпурное окно с напоминанием:

Если по ресурсам у вас все хорошо, то вы увидите приветственный баннер, на котором нажимаем «Enter».

Читаем лицензионное соглашение и если все вас устраивает, то нажимаем клавишу F11.

Установщик ESXI 6.5, начнет сканирование сервера, на предмет локальный, сетевых или внешних дисков.

В списке дисковых устройств выберите нужные вам, на которое будет устанавливаться ваш гипервизор, хочу отметить, что вы спокойно можете установить на встроенную SD карту, если такая есть или же на внешнюю флешку. Я выбираю локальный диск, размером 5 ГБ.

Задаем язык гипервизора Vmware ESXI 6.5, я оставлю по умолчанию английский, нажимаем Enter.

Указываем пароль от root пользователя, тут требования минимум 7 символов и желательно большие и маленькие буквы.

При нажатии клавиши F11 у вас начинается установка esxi 6.5.

Вот так вот выглядит сам процесс инсталляции гипервизора Vmware ESXI.

Как видим установка Vmware ESXi 6.5, успешно закончена и вам предлагается перезагрузить ваш сервер, соглашаемся.

Начальная настройка VMware ESXI 6.5

После успешной установки ESXI 6.5, у вас после перезагрузки появится вот такое черное окно, в котором у вас будет два возможных варианта развития событий:

  • В левом нижнем углу, будет подсказка нажать клавишу F2, для настройки VMware ESXI 6.5
  • В правом нижнем углу, будет подсказка, как выключить или перезагрузить хост виртуализации

заходим в режим «Customize SystemView Logs», у вас появится окно авторизации, где вы указываете логин root и пароль, который задавали при установке ESXI 6.5.

У вас откроется окно «System Customization». На первом пункте «Configure Password», вы можете поменять пароль от root.

Вы указываете один раз старый пароль и два раза новый.

Переходим к пункту меню «Configure Management Network», тут производится настройка сети управления у ESXI 6.5, справа вы можете так же получить информацию, о IPv-4 адресах. Переходим в данный пункт.

Пункт «Network Adapters», покажет вам ваши сетевые интерфейсы, переходим в него

В моем примере их два, один активный, второй нет, если вы его хотите активировать, то выберите его и нажмите клавишу пробел, на против него появится крестик. Обратите внимание, выделенные сети будут отданы под сеть управления. В идеале для нее лучше назначать минимум два адаптера, для отказоустойчивости. Тут же вы найдете и mac-адреса.

Читайте также:  Установка ксенона в туманки шкода октавия

Следующим этапом настройки ESXI 6.5, будет пункт меню «VLAN (options)», отвечающий за указание в каком сегменте VLAN у вас располагается ваш сетевой интерфейс, если у вас их нет, то тут стоит оставить все по умолчанию. Обычно с помощью VLAN и отделяют сеть управления от остальных.

Задается он просто, числом от 1 до 4095

Далее настройка EXI 6.5, позволяет вам в пункте «IPv4 Configuration», изменить ip-адрес на статический или вообще отключить сетевой интерфейс.

На выбор будет три пункта:

  • Disable IPv4 configuration for management network — выключить сетевой интерфейс в сети управления
  • Use dynamic IPv4 address and network configuration — по сути использовать DHCP сервер, для автоматического получения адреса, выставлено по умолчанию
  • Set static IPv4 address network configuration — настройка статического адреса, все активации происходят, через кнопку Enter.

То же самое вы можете выполнить и по отношению к интерфейсу IPv6.

Далее переходим к настройке DNS серверов, через пункт «DNS Configuration»

  • Obtain DNS server address and hostname automatically- автоматическое получение DNS серверов из DHCP
  • Use the following DNS server address and hostname — использовать заданные DNS сервера, ручная настройка.

В пункте «Custom DNS Suffixes», можно задать доменный суффикс.

В моем примере, это root.pyatilistnk.org.

Выходя из настроек сети ESXI 6.5, необходимо будет сохранить настройки и перезапустить сеть управления.

Отдельно можно перезапустить сеть управления из пункта «Restart Management Network»

Выглядит это вот так, вы соглашаетесь с рестартом.

В итоге сеть управления ESXI 6.5 будет выключена и заново включена.

В момент настройки VMware ESXI 6.5 у вас есть возможность из «System Customization», произвести сетевые тесты, на предмет доступности DNS или шлюза, сделать это можно из пункта «Test Management Network».

Проверяются пинги до нужных адресов и разрешение DNS имен.

Вот так вот выглядят результаты тестирования, тут сразу можно увидеть, есть ли проблемы с DNS или маршрутизацией.

Если вы допустили какие-либо ошибки в момент настройки или работы хоста виртуализации, и не знаете как все восстановить, то можно сбросить сетевые настройки на те, что были по умолчанию и быстро потом все перенастроить, так как появится доступ к сети управления. Делается, это все из меню «Network Restore Options».

источник

VMware: установка и начальная настройка ESXi

Пошаговое руководство по установке и первоначальной настройке VMware vSphere Hypervisor™ ESXi.

CPU Minimum: Single socket, dual core
Ideal: Dual-socket, 4 or more cores per CPU Memory Minimum: 2GB
Ideal: 8+GB Network Minimum: one NIC, plus one for Management interface
Ideal: One for Management Interface plus multiple NICs for VMs Local Storage (SATA/SAS) Minimum: one 80GB drive
Ideal:2 mirrored drives, plus 4 RAID5 drives for VMs Shared Storage NFS, iSCSI, Fibre Channel for VM storage

Более подробную информацию можно получить на странице VMware .

После загрузки сервера получаем приглашение на загрузку установщика ESXi или загрузку с жесткого диска:

Выбираем первый вариант — ESXi-5.1.10 Installer, и наблюдаем процесс загрузки ядра и файлов системы:

Следующее окно — процесс проверки совместимости серверного «железа» с уcтанавливаемой системой:

Если всё в порядке — получаем приглашение начать установку:

Лицензионное соглашение — F11 что бы согласиться:

Далее будет проведена проверка жестких дисков, RAID-а:

Если проверка прошла успешно — будет предложено выбрать жесткий диск, на который будет проведена установка. В примере — тестовый сервер с 1 диском:

Подтверждение выбора диска:

Установка пароля пользователя root:

Предупреждение, что не включена/не поддерживается виртуализация процессором. Можно пока не обращать внимание — установку провести получится:

Последнее предупреждение перед начfлом установки — F11 для начала процесса, F9 — вернуться:

Установка завершена. Напоминание о лицензии, регистрации:

После перезагрузки — ESXi попытался по DHCP получить IP (и даже какой-то установил), но DHCP там нет, далее настроим вручную:

Нажимаем F2, что бы попасть в панель управления. Вводим логин root и пароль, который указывали во время установки:

С помощью стрелок вверх-вниз переходим на пункт Configure Managment Network и нажимаем Enter что бы изменить настройки:

Далее выбираем IP configuration, снова жмём Enter что бы перейти в редактирование:

Выбираем пункт Set static IP, с помощью кнопки Пробел отмечаем его — тогда станет доступно редактирование параметров:

Устанавливаем параметры сети — IP адрес:

Потом возвращаемся в предыдущее меню — и переходим на пункт DNS Configuration:

Устанавливаем параметры сети — DNS и имя хоста:

Возвращаемся в предыдущее меню при помощи кнопки Esc, и нажимаем её снова — будет запрошено подтверждение на перезагрузку сети:

Перезагружаемся и видим окно с указанием — откуда можно взять утилиту для управления сервером:

источник

Ускорение домашнего ESXi 6.5 с помощью SSD кэширования

В данной статье хочу рассказать о том, как немного повысить производительность хоста ESXi с помощью SSD кэширования. На работе и дома я использую продукты от компании VMware, домашняя лаборатория построена на базе Free ESXi 6.5. На хосте запущены виртуальные машины как для домашней инфраструктуры, так и для тестирования некоторых рабочих проектов (как-то мне пришлось запустить на нем инфраструктуру VDI). Постепенно приложения толстых ВМ начали упираться в производительность дисковой системы, а на SDD все не помещалось. В качестве решения был выбран lvmcache. Логическая схема выглядит так:

Читайте также:  Установка камеры заднего fielder

Основой всей схемы является ВМ svm на базе CentOS 7. Ей презентованы HDD диски средствами RDM и небольшой диск VMDK с датастора SSD. Кэширование и зеркалирование данных реализуются программными средствами — mdadm и lvmcache. Дисковое пространство ВМ монтируется к хосту как NFS датастор. Часть датастора SSD отведена ВМ, которым требуется производительная дисковая подсистема.

Вычислительный узел собран на десктопном железе:

MB: Gygabyte GA-Z68MX-UD2H-B3 (rev. 1.0)
HDD: 2 x Seagate Barracuda 750Gb, 7200 rpm
SSH: OCZ Vertex 3 240Gb

На материнской плате имеется 2 RAID контроллера:

— Intel Z68 SATA Controller
— Marvell 88SE9172 SATA Controller

Завести 88SE9172 в ESXi у меня не получилось (There is a bug in the firmware of some Marvell adapters (at least 88SE91xx)), решил оставить оба контроллера в режиме ACHI.

Технология RDM (Raw Device Mapping) позволяет виртуальной машине обращаться напрямую к физическому накопителю. Связь обеспечивается через специальные файлы «mapping file» на отдельном томе VMFS. RDM использует два режима совместимости:

— Виртуальный режим — работает так же, как и в случае с файлом виртуального диска, позволяет использовать преимущества виртуального диска в VMFS (механизм блокировки файлов, мгновенные снэпшоты);
— Физический режим — предоставляет прямой доступ к устройству для приложений, которые требуют более низкого уровня управления.

В виртуальном режиме на физическое устройство отправляются операции чтения\записи. RDM устройство представлено в гостевой ОС как файл виртуального диска, аппаратные характеристики скрыты.

В физическом режиме на устройство передаются практически все команды SCSI, в гостевой ОС устройство представлено как реальное.

Подключив дисковые накопители к ВМ средствами RDM, можно избавиться от прослойки VMFS, а в физическом режиме совместимости их состояние можно будет мониторить в ВМ (с помощью технологии S.M.A.R.T.). К тому же, если что-то случится с хостом, то получить доступ к ВМ можно, примонтировав HDD к рабочей системе.

lvmcache

lvmcache обеспечивает прозрачное кэширование данных медленных устройств HDD на быстрых устройствах SSD. LVM cache размещает наиболее часто используемые блоки на быстром устройстве. Включение и выключение кэширования можно производить, не прерывая работы.

При попытке чтения данных выясняется, имеются ли эти данные в кэше. Если требуемых данных там нет, то чтение происходит с HDD, и попутно данные записываются в кэш (cache miss). Дальнейшее чтение данных будет происходить из кэша (cache hit).

Запись

— Режим write-through — когда происходит операция записи, данные записываются и в кэш, и на HDD диск, более безопасный вариант, вероятность потери данных при аварии мала;
— Режим write-back — когда происходит операция записи, данные записываются сначала в кэш, после чего сбрасываются на диск, имеется вероятность потери данных при аварии. (Более быстрый вариант, т.к. сигнал о завершении операции записи передается управляющей ОС после получения данных кэшем).

Так выглядит сброс данных из кэша (write-back) на диски:

Настройка системы

На хосте создается SSD датастор. Я выбрал такую схему использования доступного пространства:

220Gb — DATASTORE_SSD
149Gb — Отведено для особых ВМ
61Gb — Том для кэша и метаданных
10Gb — Host Swap Cache

Виртуальная сеть выглядит следующим образом:

Networking → Virtual Switches → Add standart virtual switch — указываем желаемое имя виртуального свитча (svm_vSwitch, в названиях я использую префикс svm_), остальное оставляем как есть.

К нему через порт группу подключается VMkernel NIC:

Networking → VMkernel NICs → Add VMkernel NIC
— Port group — New Port group
— New port group — Имя порт группы — svm_PG
— Virtual switch — svm_vSwitch
— IPv4 settings — Configuration — Static — указываем IP и маску сети

Создана порт группа, к которой будет подключена ВМ svm:

Networking → Port Groups → Add port group — указываем имя (svm_Network) и свитч svm_vSwitch

Подготовка дисков

Необходимо зайти на хост по ssh и выполнить следующие команды:

Подготовка ВМ

Теперь эти диски можно подключить (Existing hard disk) к новой ВМ. Шаблон CentOS 7, 1vCPU, 1024Gb RAM, 2 RDM disk, 61Gb ssd disk, 2 vNIC (порт группы VM Network, svm_Network) – во время установки ОС используем Device Type – LVM, RAID Level — RAID1

Настройка NFS сервера довольно проста:

Подготавливаем тома кэша и метаданных для включения кэширования тома cl_svm/data:

Уведомления о изменении состояния массива:

В конце файла /etc/mdadm.conf нужно добавить параметры, содержащие адрес, на который будут отправляться сообщения в случае проблем с массивом, и, если необходимо, указать адрес отправителя:

MAILADDR alert@domain.ru
MAILFROM svm@domain.ru

Чтобы изменения вступили в силу, нужно перезапустить службу mdmonitor:

Почта с ВМ отправляется средствами ssmtp. Так как я использую RDM в режиме виртуальной совместимости, то проверять состояние дисков будет сам хост.

Читайте также:  Установки из под установленной ос что это

Добавляем NFS датастор в ESXi:

Storage → Datastores → New Datastore → Mount NFS Datastore
Name: DATASTORE_NFS
NFS server: 10.0.0.2
NFS share: /data

Host → Manage → System → Autostart → Edit Settings
Enabled — Yes
Start delay — 180sec
Stop delay — 120sec
Stop action — Shut down
Wait for heartbeat — No

Virtual Machines → svm → Autostart → Increase Priority
(Автозапуск не сработал, пришлось удалить ВМ из Inventory и добавить заново)

Данная политика позволит ВМ svm запуститься первой, гипервизор примонтирует NFS датастор, после этого будут включаться остальные машины. Выключение происходит в обратном порядке. Время задержки запуска ВМ подобрано по итогам краш-теста, т. к. при малом значении Start delay NFS датастор не успевал примонтироваться, и хост пытался запустить ВМ, которые еще недоступны. Также можно поиграться параметром NFS.HeartbeatFrequency .

Более гибко автостарт ВМ можно настроить с помощью командной строки:

Включить Jumbo Frames на хосте:

Jumbo Frames: Networking → Virtual Switches → svm_vSwitch указать MTU 9000;
Networking → Vmkernel NICs → vmk1 указать MTU 9000

В Advanced Settings установить следующие значения:

NFS.HeartbeatFrequency = 12
NFS.HeartbeatTimeout = 5
NFS.HeartbeatMaxFailures = 10
Net.TcpipHeapSize = 32 (было 0)
Net.TcpipHeapMax = 512
NFS.MaxVolumes = 256
NFS.MaxQueueDepth = 64 (было 4294967295)

Включить Jumbo Frames на ВМ svm:

Производительность

Производительность измерялась синтетическим тестом (для сравнения, я снял показания с кластера на работе (в ночное время)).

Используемое ПО на тестовой ВМ:

— ОС CentOS 7.3.1611 (8 vCPU, 12Gb vRAM, 100Gb vHDD)
— fio v2.2.8

Полученные результаты представлены в таблицах (* во время тестов отмечал среднюю загрузку ЦП на ВМ svm):

VMFS6 Datastore

Тип диска FIO depth 1 (iops) FIO depth 24 (iops)
randread randwrite randread randwrite
HDD 77 99 169 100
SSD 5639 17039 40868 53670

NFS Datastore

SSD Cache FIO depth 1 (iops) FIO depth 24 (iops) CPU/Ready* %
randread randwrite randread randwrite
Off 103 97 279 102 2.7/0.15
On 1390 722 6474 576 15/0.1

Рабочий кластер

Тип диска FIO depth 1 (iops) FIO depth 24 (iops)
randread randwrite randread randwrite
900Gb 10k (6D+2P) 122 1085 2114 1107
4Tb 7.2k (8D+2P) 68 489 1643 480

Результаты, которые можно потрогать руками, получились при одновременном запуске пяти ВМ с Windows 7 и офисным пакетом (MS Office 2013 Pro + Visio + Project) в автозагрузке. По мере нагревания кэша, ВМ грузились быстрее, при этом HDD практически не участвовал в загрузке. При каждом запуске отмечал время полной загрузки одной из пяти ВМ и полной загрузки всех ВМ.

Одновременный запуск пяти ВМ

Datastore Первый запуск Второй запуск Третий запуск
Время загрузки первой ВМ Время загрузки всех ВМ Время загрузки первой ВМ Время загрузки всех ВМ Время загрузки первой ВМ Время загрузки всех ВМ
1 HDD VMFS6 4мин. 8сек. 6мин. 28сек. 3мин. 56сек. 6мин. 23сек. 3мин. 40сек. 5мин. 50сек.
2 NFS (SSD Cache Off) 2мин. 20сек. 3мин. 2сек. 2мин. 34сек. 3мин. 2сек. 2мин. 34сек. 2мин. 57сек.
3 NFS (SSD Cache On) 2мин. 33сек. 2мин. 50сек. 1мин. 23сек. 1мин. 51сек. 1мин. 0сек. 1мин. 13сек.

Время загрузки одиночной ВМ составило:

— HDD VMFS6 — 50 секунд
— NFS с выключенным кэшем — 35 секунд
— NFS с включенным и нагретым кэшем — 26 секунд

Краш-тест

Отключение питания

После включения и загрузки хоста ВМ svm загрузилась с проверкой ФС (данные остались в кэше), на хосте примонтировался NFS датастор, далее загрузились остальные ВМ, проблем и потери данных не наблюдалось.

Выход из строя HDD (имитация)

Решил отключить питание SATA диска. К сожалению, горячая замена не поддерживается, необходимо аварийно выключать хост. Сразу после отключения диска появляется информация в Events.

Неприятным моментом оказалось, что при потере диска гипервизор просит для ВМ svm ответить на вопрос — «You may be able to hot remove this virtual device from the virtual machine and continue after clicking Retry. Click Cancel to terminate this session» — машина находится в состоянии фриза.

Если представить, что с диском была временная, незначительная проблема (например, причина в шлейфе), то после устранения проблемы и включения хоста все загружается в штатном режиме.

Выход из строя SSD

Наиболее неприятная ситуация — выход ssd из строя. Доступ к данным осуществляется в аварийном режиме. При замене ssd необходимо повторить процедуру настройки системы.

Обслуживание (Замена диска)

Если с диском вот-вот случится беда (по результатам S.M.A.R.T.), для того чтобы заменить его на рабочий необходимо выполнить следующую процедуру (на ВМ svm):

В настройках ВМ нужно «оторвать» погибающий vHDD, затем заменить HDD на новый.
После чего подготовить RDM накопитель и добавить к ВМ svm:

Аварийный доступ к данным

Один из дисков подключается к рабочей станции, далее необходимо «собрать» RAID, отключить кэш и получить доступ к данным, примонтировав LVM том:

Также я пробовал загрузить систему непосредственно с диска, настроил сеть и на другом хосте подключил NFS датастор — ВМ доступны.

источник