Меню Рубрики

Установка esxi на ssd

Ускорение домашнего ESXi 6.5 с помощью SSD кэширования

В данной статье хочу рассказать о том, как немного повысить производительность хоста ESXi с помощью SSD кэширования. На работе и дома я использую продукты от компании VMware, домашняя лаборатория построена на базе Free ESXi 6.5. На хосте запущены виртуальные машины как для домашней инфраструктуры, так и для тестирования некоторых рабочих проектов (как-то мне пришлось запустить на нем инфраструктуру VDI). Постепенно приложения толстых ВМ начали упираться в производительность дисковой системы, а на SDD все не помещалось. В качестве решения был выбран lvmcache. Логическая схема выглядит так:

Основой всей схемы является ВМ svm на базе CentOS 7. Ей презентованы HDD диски средствами RDM и небольшой диск VMDK с датастора SSD. Кэширование и зеркалирование данных реализуются программными средствами — mdadm и lvmcache. Дисковое пространство ВМ монтируется к хосту как NFS датастор. Часть датастора SSD отведена ВМ, которым требуется производительная дисковая подсистема.

Вычислительный узел собран на десктопном железе:

MB: Gygabyte GA-Z68MX-UD2H-B3 (rev. 1.0)
HDD: 2 x Seagate Barracuda 750Gb, 7200 rpm
SSH: OCZ Vertex 3 240Gb

На материнской плате имеется 2 RAID контроллера:

— Intel Z68 SATA Controller
— Marvell 88SE9172 SATA Controller

Завести 88SE9172 в ESXi у меня не получилось (There is a bug in the firmware of some Marvell adapters (at least 88SE91xx)), решил оставить оба контроллера в режиме ACHI.

Технология RDM (Raw Device Mapping) позволяет виртуальной машине обращаться напрямую к физическому накопителю. Связь обеспечивается через специальные файлы «mapping file» на отдельном томе VMFS. RDM использует два режима совместимости:

— Виртуальный режим — работает так же, как и в случае с файлом виртуального диска, позволяет использовать преимущества виртуального диска в VMFS (механизм блокировки файлов, мгновенные снэпшоты);
— Физический режим — предоставляет прямой доступ к устройству для приложений, которые требуют более низкого уровня управления.

В виртуальном режиме на физическое устройство отправляются операции чтения\записи. RDM устройство представлено в гостевой ОС как файл виртуального диска, аппаратные характеристики скрыты.

В физическом режиме на устройство передаются практически все команды SCSI, в гостевой ОС устройство представлено как реальное.

Подключив дисковые накопители к ВМ средствами RDM, можно избавиться от прослойки VMFS, а в физическом режиме совместимости их состояние можно будет мониторить в ВМ (с помощью технологии S.M.A.R.T.). К тому же, если что-то случится с хостом, то получить доступ к ВМ можно, примонтировав HDD к рабочей системе.

lvmcache

lvmcache обеспечивает прозрачное кэширование данных медленных устройств HDD на быстрых устройствах SSD. LVM cache размещает наиболее часто используемые блоки на быстром устройстве. Включение и выключение кэширования можно производить, не прерывая работы.

При попытке чтения данных выясняется, имеются ли эти данные в кэше. Если требуемых данных там нет, то чтение происходит с HDD, и попутно данные записываются в кэш (cache miss). Дальнейшее чтение данных будет происходить из кэша (cache hit).

Запись

— Режим write-through — когда происходит операция записи, данные записываются и в кэш, и на HDD диск, более безопасный вариант, вероятность потери данных при аварии мала;
— Режим write-back — когда происходит операция записи, данные записываются сначала в кэш, после чего сбрасываются на диск, имеется вероятность потери данных при аварии. (Более быстрый вариант, т.к. сигнал о завершении операции записи передается управляющей ОС после получения данных кэшем).

Так выглядит сброс данных из кэша (write-back) на диски:

Настройка системы

На хосте создается SSD датастор. Я выбрал такую схему использования доступного пространства:

220Gb — DATASTORE_SSD
149Gb — Отведено для особых ВМ
61Gb — Том для кэша и метаданных
10Gb — Host Swap Cache

Виртуальная сеть выглядит следующим образом:

Networking → Virtual Switches → Add standart virtual switch — указываем желаемое имя виртуального свитча (svm_vSwitch, в названиях я использую префикс svm_), остальное оставляем как есть.

К нему через порт группу подключается VMkernel NIC:

Networking → VMkernel NICs → Add VMkernel NIC
— Port group — New Port group
— New port group — Имя порт группы — svm_PG
— Virtual switch — svm_vSwitch
— IPv4 settings — Configuration — Static — указываем IP и маску сети

Создана порт группа, к которой будет подключена ВМ svm:

Networking → Port Groups → Add port group — указываем имя (svm_Network) и свитч svm_vSwitch

Подготовка дисков

Необходимо зайти на хост по ssh и выполнить следующие команды:

Подготовка ВМ

Теперь эти диски можно подключить (Existing hard disk) к новой ВМ. Шаблон CentOS 7, 1vCPU, 1024Gb RAM, 2 RDM disk, 61Gb ssd disk, 2 vNIC (порт группы VM Network, svm_Network) – во время установки ОС используем Device Type – LVM, RAID Level — RAID1

Настройка NFS сервера довольно проста:

Подготавливаем тома кэша и метаданных для включения кэширования тома cl_svm/data:

Уведомления о изменении состояния массива:

В конце файла /etc/mdadm.conf нужно добавить параметры, содержащие адрес, на который будут отправляться сообщения в случае проблем с массивом, и, если необходимо, указать адрес отправителя:

MAILADDR alert@domain.ru
MAILFROM svm@domain.ru

Чтобы изменения вступили в силу, нужно перезапустить службу mdmonitor:

Почта с ВМ отправляется средствами ssmtp. Так как я использую RDM в режиме виртуальной совместимости, то проверять состояние дисков будет сам хост.

Добавляем NFS датастор в ESXi:

Storage → Datastores → New Datastore → Mount NFS Datastore
Name: DATASTORE_NFS
NFS server: 10.0.0.2
NFS share: /data

Host → Manage → System → Autostart → Edit Settings
Enabled — Yes
Start delay — 180sec
Stop delay — 120sec
Stop action — Shut down
Wait for heartbeat — No

Virtual Machines → svm → Autostart → Increase Priority
(Автозапуск не сработал, пришлось удалить ВМ из Inventory и добавить заново)

Данная политика позволит ВМ svm запуститься первой, гипервизор примонтирует NFS датастор, после этого будут включаться остальные машины. Выключение происходит в обратном порядке. Время задержки запуска ВМ подобрано по итогам краш-теста, т. к. при малом значении Start delay NFS датастор не успевал примонтироваться, и хост пытался запустить ВМ, которые еще недоступны. Также можно поиграться параметром NFS.HeartbeatFrequency .

Более гибко автостарт ВМ можно настроить с помощью командной строки:

Включить Jumbo Frames на хосте:

Jumbo Frames: Networking → Virtual Switches → svm_vSwitch указать MTU 9000;
Networking → Vmkernel NICs → vmk1 указать MTU 9000

Читайте также:  Установка автосигнализации с автозапуском недорого

В Advanced Settings установить следующие значения:

NFS.HeartbeatFrequency = 12
NFS.HeartbeatTimeout = 5
NFS.HeartbeatMaxFailures = 10
Net.TcpipHeapSize = 32 (было 0)
Net.TcpipHeapMax = 512
NFS.MaxVolumes = 256
NFS.MaxQueueDepth = 64 (было 4294967295)

Включить Jumbo Frames на ВМ svm:

Производительность

Производительность измерялась синтетическим тестом (для сравнения, я снял показания с кластера на работе (в ночное время)).

Используемое ПО на тестовой ВМ:

— ОС CentOS 7.3.1611 (8 vCPU, 12Gb vRAM, 100Gb vHDD)
— fio v2.2.8

Полученные результаты представлены в таблицах (* во время тестов отмечал среднюю загрузку ЦП на ВМ svm):

VMFS6 Datastore

Тип диска FIO depth 1 (iops) FIO depth 24 (iops)
randread randwrite randread randwrite
HDD 77 99 169 100
SSD 5639 17039 40868 53670

NFS Datastore

SSD Cache FIO depth 1 (iops) FIO depth 24 (iops) CPU/Ready* %
randread randwrite randread randwrite
Off 103 97 279 102 2.7/0.15
On 1390 722 6474 576 15/0.1

Рабочий кластер

Тип диска FIO depth 1 (iops) FIO depth 24 (iops)
randread randwrite randread randwrite
900Gb 10k (6D+2P) 122 1085 2114 1107
4Tb 7.2k (8D+2P) 68 489 1643 480

Результаты, которые можно потрогать руками, получились при одновременном запуске пяти ВМ с Windows 7 и офисным пакетом (MS Office 2013 Pro + Visio + Project) в автозагрузке. По мере нагревания кэша, ВМ грузились быстрее, при этом HDD практически не участвовал в загрузке. При каждом запуске отмечал время полной загрузки одной из пяти ВМ и полной загрузки всех ВМ.

Одновременный запуск пяти ВМ

Datastore Первый запуск Второй запуск Третий запуск
Время загрузки первой ВМ Время загрузки всех ВМ Время загрузки первой ВМ Время загрузки всех ВМ Время загрузки первой ВМ Время загрузки всех ВМ
1 HDD VMFS6 4мин. 8сек. 6мин. 28сек. 3мин. 56сек. 6мин. 23сек. 3мин. 40сек. 5мин. 50сек.
2 NFS (SSD Cache Off) 2мин. 20сек. 3мин. 2сек. 2мин. 34сек. 3мин. 2сек. 2мин. 34сек. 2мин. 57сек.
3 NFS (SSD Cache On) 2мин. 33сек. 2мин. 50сек. 1мин. 23сек. 1мин. 51сек. 1мин. 0сек. 1мин. 13сек.

Время загрузки одиночной ВМ составило:

— HDD VMFS6 — 50 секунд
— NFS с выключенным кэшем — 35 секунд
— NFS с включенным и нагретым кэшем — 26 секунд

Краш-тест

Отключение питания

После включения и загрузки хоста ВМ svm загрузилась с проверкой ФС (данные остались в кэше), на хосте примонтировался NFS датастор, далее загрузились остальные ВМ, проблем и потери данных не наблюдалось.

Выход из строя HDD (имитация)

Решил отключить питание SATA диска. К сожалению, горячая замена не поддерживается, необходимо аварийно выключать хост. Сразу после отключения диска появляется информация в Events.

Неприятным моментом оказалось, что при потере диска гипервизор просит для ВМ svm ответить на вопрос — «You may be able to hot remove this virtual device from the virtual machine and continue after clicking Retry. Click Cancel to terminate this session» — машина находится в состоянии фриза.

Если представить, что с диском была временная, незначительная проблема (например, причина в шлейфе), то после устранения проблемы и включения хоста все загружается в штатном режиме.

Выход из строя SSD

Наиболее неприятная ситуация — выход ssd из строя. Доступ к данным осуществляется в аварийном режиме. При замене ssd необходимо повторить процедуру настройки системы.

Обслуживание (Замена диска)

Если с диском вот-вот случится беда (по результатам S.M.A.R.T.), для того чтобы заменить его на рабочий необходимо выполнить следующую процедуру (на ВМ svm):

В настройках ВМ нужно «оторвать» погибающий vHDD, затем заменить HDD на новый.
После чего подготовить RDM накопитель и добавить к ВМ svm:

Аварийный доступ к данным

Один из дисков подключается к рабочей станции, далее необходимо «собрать» RAID, отключить кэш и получить доступ к данным, примонтировав LVM том:

Также я пробовал загрузить систему непосредственно с диска, настроил сеть и на другом хосте подключил NFS датастор — ВМ доступны.

источник

Настройка SSD Host Cache в ESXi 5.x / 6.x

Одним из нововведений в vSphere 5.x является функция Host Cache, которая позволяет администратору разместить файл подкачки (vswp) виртуальной машины на локальном диске с целью увеличения скорости работы за счет размещения свопа на локальных высокопроизводительных дисках (оптимально на SSD дисках, так как скорость доступа на них выше). Реализуется технология за счет создания на SSD диске отдельного раздела VMFS, который затем определяется службой SATP (Storage Adapter Type Plugin) и которая позволяет добавлять и управлять кэшированием на локальном хранилище VMFS.

С текущим падением цен на SSD это может дать реальный прирост производительности VMware ESXi 5.x-сервера, которому, например, не хватает памяти.

Собственно на новых серверах (которые заказывались с SSD дисками) мы и решили протестировать технологию SSD Host Cache. Но столкнулись с трудностью, по умолчанию локальное SSD хранилище не отображается как доступное для работы функции кэширования (пустая вкладка Host Cache Configuration).

Для борьбы с этой проблемой пришлось немного повозиться. Как оказалось, стандартные правила SATP не позволяют обнаружить установленный SSD диск, однако можно создать специальное правило для конкретного устройства SSD .

  • Отключаем все диски, презентованные серверу по сети SAN (чтобы не возникло путаницы)
  • Открываем локальную консоль сервера ESXi5 (зайти можно по ssh или через vMA) и выполняем команду:
  • Затем выполняем команду

Проверяем применение настроек командами:

Если ESXi установлен на этом же диске, нужно перезагрузить сервер, если же диск пустой, сразу выполняем

И еще раз проверяем настройки командой

Что еще можно отметить: после включения SSD Host Cache на локальном хранилище будет создана папка с произвольным (сгенерированным автоматически) именем, внутри которой будет находится папка hostCahe с кучей файлов по 1 MB, представляющие собой файлы свопа для страниц памяти виртуальных машин, запущенных на данном ESX сервере. При миграции (VMotion) этих виртуалок, данные файлы также должны быть перенесены на другой хост (или на общее хранилище, если на хосте Host Cache не включен), за счет чего время миграции несколько увеличивается.

В случае же отказа хост-сервера, надобность в этих файлах исчезает, т.к. виртуалки перезапускаются на другом хосте, и данные из старого файла подкачки им больше не нужны.

Для чего это может понадобиться? Ну, например, для того, чтобы единственной настройкой сказать гипервизору, чтобы хранил все swap’ы на этом Storage.

На вот такую конфигурацию: жмем Edit.

Теперь файлы подкачки всех ВМ хоста будут хранится на выделенном SSD хранилище.


Интересующимся применением технологии SSD в других современных продуктах, рекомендуем познакомиться со статьей «Оптимизация SSD для Windows 8»

источник

Как увеличить производительность ssd в ESXi 5.5

Как увеличить производительность ssd в ESXi 5.5

Все доброго времени суток, как вы уже видели из названия статьи речь пойдет о том, как увеличить производительность ssd на примере гипервизора VMware ESXi 5.5. Данная методика подойдет и для любых ссд дисков, особенно для тех кто уже успел поработать пару лет и изрядно потрепанны. Все сделано, для того, чтобы старые и новые RA >

Ранее я вам уже рассказывал как увеличить срок службы ssd диска, есть еще один очень важный параметр или даже требование, которое так же увеличит его долголетие на порядок, о нем чуть ниже, я лишь напомню, что сами вендоры вас предупреждают, что когда места на ссд диске совсем нет, он сильно теряет в производительности, но 90 процентов пользователей не знают, что советуют производители, чтобы избежать падения скорости.

Напомню, что при покупке и выборе ssd диска, вы можете понять сколько и при какой нагрузке он проживет для этого есть такие показатели DWPD и TBW, на основании этих параметров вы поймете сколько можно в день записывать данных и на сколько лет хватит запаса твердотельного диска при такой нагрузке.

Влияние свободного места на производительность ssd

Выше я описал, что от размера свободного места на ssd вы продлеваете ее жизнь и производительность, ниже рассмотрим почему так и что за свободное место имеется в виду.

как работает заполнение SSD диска

Ниже я выложил картинку, с копированием данных, и так у нас с вами есть в распоряжении контроллера свободный блок Y и блок данных X, мы начинаем перемещать четыре страницы данных A,B,C,D. Если у твердотельника много свободных блоков, то проблем не будет. Ссд контроллер, старается работать с постоянной скоростью, но его производительность зависит от некоторых факторов и может варьироваться.

Если у ssd контроллера не достаточно или очень мало свободного пространства, ему приходится в фоновом режиме совершать большее количество операций ввода/вывода (iops), что как сами понимаете не увеличивает производительность ssd

А что будет если вы забьете ваш диск на 99 процентов и у вас практически не останется свободных блоков, тут не нужно быть гадалкой, производительность ssd просядет, и просесть может существенно, все будет зависеть от контроллера и флеш памяти на нем. Нам поможет резервная область SSD или как ее еще называют over provisioning

Что такое резервная область ssd или over provisioning

Давайте теперь разберемся в понятии резервная область over provisioning. И так все твердотельные диски изначально имеют больший объем памяти, чем видит любая ос, этот резерв диска (spare area) расположен в монопольном распоряжении контроллера, и вот это обладание прелестью 🙂 и называется over provisioning.

Думаю теперь немного стало проясняться, что это некая скрытая и заложенная производителем область свободных блоков, отданная ssd контроллеру.

Ниже представлена сводная таблица, где вы увидите рекомендуемые проценты, под тот или иной сектор задач.

Как считается объем ссд

У единиц измерения емкости дисков существует два типа приставок: В 1998 году Международное бюро мер и весов заявило, что приставки СИ относятся только к степеням десяти и не должны использоваться для обозначения степеней двойки.

В 1999 году МЭК ввела стандарт IEC 60027-2 с новыми приставками для обозначения количества информации. В 2008 году вышел аналогичный стандарт IEEE 1541 (различие только в том, что IEC предлагает писать «bit» полностью вместо «b» у IEEE). Использование этих приставок одобрено Международным комитетом мер и весов. Для обозначения степеней двойки в ближайшей приставке СИ второй слог заменяется на «bi» от binary (двоичный): kibibyte — KiB, mebibyte — MiB, gibibyte — GiB.

ГОСТ 8.417-2002, приложение А: «В соответствии с международным стандартом МЭК 60027-2 единицы «бит» и «байт» применяют с приставками СИ» (заглавные буквы К, М, Г,… обозначающие степени 10).

Также в стандарте сказано: «Исторически сложилась такая ситуация, что с наименованием «байт» некорректно (вместо 1000 = 10 3 принято 1024 = 2 10 ) использовали (и используют) приставки СИ: 1Кбайт = 1024 байт, 1Мбайт = 1024 Кбайт, 1Гбайт = 1024 Мбайт и т.д. При этом обозначение Кбайт начинают с прописной буквы в отличие от строчной буквы «к» для обозначения множителя 10 3 .»

31 октября 2009 года Правительство РФ утвердило «Положение о единицах величин, допускаемых к применению в Российской Федерации», которое гласит: «Наименование и обозначение единицы количества информации «байт» (1 байт = 8 бит) применяются с двоичными приставками «Кило», «Мега», «Гига», которые соответствуют множителям «2 10 », «2 20 » и «2 30 » (1 Кбайт = 1024 байт, 1 Мбайт = 1024 Кбайт, 1 Гбайт = 1024 Мбайт). Данные приставки пишутся с большой буквы. Допускается применение международного обозначения единицы информации с приставками «K» «M» «G», рекомендованного Международным стандартом Международной электротехнической комиссии МЭК 60027-2 (KB, MB, GB, Kbyte, Mbyte, Gbyte).»

Т.е. для байт приставки СИ теперь обозначают степени двойки, а для бит всё остаётся по ГОСТ — приставки СИ обозначают степени 10.
1 Мбайт = 1 MiB = 1024х1024 байт, 1 Мбит = 1 Mb = 1000х1000 бит.

  • Десятичные (приставки СИ) – это гигабайты, которые обозначаются символом GB или ГБ. В одном гигабайте 10 9 или 1 000 000 000 байт.
  • Двоичные (приставки МЭК) – это гибибайты, которые обозначаются символом GiB или ГБ. В одном гибибайте 2 30 или 1 073 741 824 байт.

Подытожим, вендоры выпускающие HDD и SSD используют десятичные приставки, и пишут емкость в Гб, вот ос подсчитывают объем hdd и ssd в гибибайтах (за исключением Apple OS X 10.6 и старше, использующих гигабайты), а так как GB имеет меньший объем чем GiB, то и полезная область диска будет меньше, чем будет написано на самом диске. Еще иMicrosoft со своим Windows внесла небольшую путаницу, отображая размер hdd в GB, а самое интересное что считает их в GiB. Тут все дело в том, что винда вышла раньше чем данный стандарт, и видимо им сложно перелопачивать кучу кода, чтобы подстроиться под него.

Как посчитать GiB

Тут тоже Америку открывать не нужно, все уже известно, для того чтобы понять реальный объем в GiB, нужно

Для примера возьмем 1 тб sumsung evo 850 и вычислим, что в итоге у вас будет 953,67 gib, но все это опять же зависит от вендора, так как у каждого свои дополнительные технологии имеются, вот простой пример sumsung evo 840 и мы видим 931 gb

а вот transend и вроде бы тот же 1тб, но мы видим уже 953,344 gb.

Откуда берется over provisioning ssd

Давайте рассмотрим вопрос откуда на ssd присутствует резервная область over provisioning ssd.

И так, все компании, которые сами создают ssd диски, пишут его емкость в гигабайтах, но не все детали так прозрачны. Предположим у вас твердотельный ссд с 256 gb, как пишет вендор у вас будет 256GiB флэш-памяти NAND, но вы увидите 238.4GiB дискового пространства, вопрос где остальное? А вот остальная память и есть тот самый резервный фонд под названием over provisioning, он спрятан от вас специально. В итоге мы видим, что это где то 7 процентов, от общего объема.

История круглых цифр в объемах SSD

Наверное вам известно, что существуют твердотельные ссд объема в 120 или 240 gb, а вам приходило в голову почему такие цифры, когда все привыкли к 128 и 256GB. Не стандартные объемы вы можете увидеть например у SandForce, так как у них есть технология RAISE, и для ее реализации нужна дополнительная память. В дисках с заявленным объемом 240GB на самом деле 256GiB флэш-памяти, в них вам будет 223.5 GiB доступно, и если посчитать то получается контроллер оставил себе 12,7 процента в over provisioning.

Для чего нужна резервная область over provisioning

У всех твердотельных накопителей резервная область служит для трех целей.

  • Хранение мусора > ссд накопители, всегда имеют запас блоков памяти, которые операционная система не видит и не имеет туда доступа, в результате чего сборка хлама производится не так часто.
  • Увеличение времени износа ссд > ну тут все логично если у вас есть у контроллера запасные блоки, то это увеличивает время жизни, а так же позволяет проводить выравнивание более равномерно, задачей контроллера является равномерное распределение данных по всем блокам SSD
  • Замена отработавших блоков памяти > тут тоже логично, если блок отработал свое время и есть возможность его заменить на резервный, то это положительно скажется на увеличение производительности ssd

Напомню, что ос видит только размеченную область флэш-памяти, а вот контроллер использует все полностью, логично что чем больше у него памяти в наличии, тем меньше появляется нужда в сборе мусора, что в итоге влияет на улучшение производительности ssd,

Увеличиваем резервную область

Все теперь мы с вами знаем, что увеличить производительность ssd можно за счет увеличения резервной области ssd или параметра over provisioning, из этого вытекает логичный вопрос, а можно ли увеличить самостоятельно данный параметр, ответ конечно же да, многие вендоры предлагают вам специальные родные утилиты для получения smart дисков, да и функционал увеличения over provisioning ssd, хотя можно и без них, я вам все покажу.

  • Утилиты производителей твердотельных дисков > приведу простой пример, если у вас ссд от samsung, у данного производителя есть программка Samsung Magician в которой вы можете в пункте System management > over provisioning задать нужный процент, в данном примере это 10 процентов, ниже мы рассмотрим как этот процент влияет на производительность ssd

  • Не размеченное пространство > да именно его прячут и увеличивают специальные утилиты, так что если вы в ручную это сделаете, то это будет то же самое. Если мы говорим про windows, то когда вы инициализируете диск и в дальнейшем его форматируете, в Управлении дисками, то выбирайте не весь размер, а чтобы у вас было минимум 7-10 процентов, посмотрите по таблице выше, если это для серверов оставляем 30 процентов.

Если вы уже разметили диск и хотите ее высвободить, то можно сжать место на диске, если мы говорим про Vmware ESXI 5.5, то там так же можно при форматировании datastore выбрать нужное количество пространства, которое требуется использовать, и вы также оставляете не размеченным 30 процентов от общего объема. Напомню это делается Configuration > Storage > Add storage > Formating и выбираете там Custom space settings

Как видите второй способ более универсальный и не привязывает вас к тому или иному вендору.

  • На RAID контроллере > если у вас сервер и ваша дисковая подсистема построена на raid технологии, то можно сразу там отрезать он lun нужное количество объема, это будет более правильно, чем на уровне операционной системы.

Что еще влияет на производительность ssd

Тут приведу еще несколько примеров, что вам позволит увеличить производительность ssd на гипервизоре Vmware ESXi 5.5

  • SSD имеет тип Drive Type SSD > важно чтобы ваш гипервизор определял тип дисков из которого состоит его datastore как ссд, почитайте по ссылке как это сделать.
  • Виды кэша на RAID контроллере > тут тоже ни для кого не секрет, что правильный режим работы RAID контроллера залог производительности дисковой подсистемы, ознакомьтесь со всеми видами по ссылке слева.

Производительность в цифрах

И так давайте теперь разберемся, что это сулит в цифрах, у меня есть сервер IBM 3650 и в нем для установки VMware ESXi 5.5 стоят две ssd, samsung evo 840, сразу скажу, что он уже отслужили свое и плюс в 840-х были проблемы с производительностью. При обычном линейном копировании на зеркальный raid из данных ssd, у меня через 5-8 минут падала скорость с 800 мегабайт в секунду, до 10-30 мегабайт в секунду, была сильная просадка.

После того как я увеличил over provisioning, до 30 процентов, то скорость стала в 6 раз больше, и ниже 175 не падала

Так же можно сделать тестирование iops и скорости с помощью CrystalDiskMark, где при тесте 32 гигабайтным файлом, я получил 75 000 iops на чтение

вот как выглядят скорости при записи 1 ГБ файла.

Еще проведем тесты случайной записи блоков по 4К, проверим стабильность. На первой картинке мы не используем over provisioning, и как видите стабильность записи сильно скачет.

вот тут уже резервирование 12 процентов, видно улучшение

при 25 процентах over provisioning, стабильность еще лучше

при 50 еще больше, но это слишком жирно, отдавать половину места.

источник