Меню Рубрики

Установка debian 7 для proxmox

PROXMOX установка на Debian 8

Настроим лучшую свободную систему виртуализации Proxmox VE на Raid1 в операционной системе Debian 8. В качестве гипервизора система использует KVM и LXC, что позволяет виртуализировать все популярные операционные системы. Браузерная панель управления.

Вступление

Вышла новая 5 версия Proxmox и о ней я написал новую статью PROXMOX 5 установка и настройка. Принцип моего использования системой не поменялся. В новой статье вы узнаете некоторые нюансы c которыми я столкнулся при переходе на новую версию.

Первое что я стал изучать в Linux это была система виртуализации. По множественным рекомендациям администраторы Linux не советуют использовать все виды серверных служб на одной системе в виду сложности обслуживания и крайней нестабильности. В случае аппаратного выхода из строя компьютера придется устанавливать всё практически с нуля. Пользуясь системой виртуализации все можно восстановить очень быстро.

Основными моими требованиями было:

  • Простота установки,
  • Удобное управление,
  • Установка разных систем OC (Linux, Windows и тд.),
  • Удобная система архивирования,
  • Информирование на почту об ошибках системы,
  • Подключение ИБП с отключение системы при пропадании 220 вольт,
  • Проброс портов USB в виртуальную систему.

Все виды не свободных систем управления виртуализацией или всё что связанно с Microsoft я отбросил в сторону и искал только свободный вариант. Единственная система которая устроила меня по всем параметрам это была система Proxmox.

Система Proxmox не поддерживает установку из коробки на mdadm для использования программного raid1, хотя есть система zfs. Может эта файловая система и хороша но мне она пока не нужна.

Система Proxmox базируется на OC Debian. У разработчика есть инструкция по установке системы, которую мы возьмем за основу.

Проверка аппаратной поддержки виртуализации

Проверка поддержки виртуализации в процессоре выполняется командой:

Если в выводе присутствует параметр svm (Secure Virtual Machines) — значит процессор с поддержкой аппаратной виртуализации от AMD, если vmx (Virtual Machine eXtension) — значит процессор Intel.

Если вывод пустой, то смотрите в bios на предмет включения виртуализации, в противном случае использовать Proxmox не получится.

Исходные параметры системы

  • proxmox — название машины
  • sevo44.loc — полное имя домена
  • 192.168.0.150 — ip системы с Proxmox
  • 192.168.0.106 — шлюз сети
  • 255.255.255.0 — маска сети
  • 2 жестких диска по 107,4 GB.

Установка Debian 8 на mdadm raid1

Установка до начала работы с дисками



Создание RAID1

Общая схема создания raid1 массивов состоит из нескольких шагов:

  • Создаем одинаковые разделы на дисках с типом «физический том для RAID»,
  • Объединяем два одинаковых раздела в необходимый раздел RAID1,
  • Форматируем наш RAID1 под нужный нам формат файловой системы.

Скрины сделаны на создание разделов только на одном из дисков на другом делаем по аналогии. Всё пространство диска не использовалось специально. Мы установим саму систему и позже решим как и где мы хотим хранить наши образы системы, бэкапы и другие данные. Раздел swap был специально не создан. Пропустите этот пункт. Мы создадим его позже.









  • Загрузочный раздел /boot с меткой «загрузочный» и размером 500 MB форматом ext2,
  • Корневой раздел / размером 50 GB форматом ext4.

Не указывайте раздел boot меньше 500 MB если не хотите проблем при первом обновлении системы Proxmox.

Завершение установки Debian 8



Настройка Debian 8

Установка текстового редактора mc

Установку выполним командой:

Настроим редактор mc по умолчанию командой:

Разрешение подключения под root в ssh

По умолчанию подключиться под root через ssh не получиться. Подключаться под обычным пользователем и потом переходить на права root мне не удобно и не вижу в этом смысла. Поправим конфигурационный файл введя команду:

Полное обновление системы с перезагрузкой

  • Произведёт обновление индекса пакетов до последних изменениях в репозитории,
  • Выполним обновление всех пакетов системы,
  • Перезагрузимся.

Настройка статического IP адреса

Последнее что нам надо чтобы сразу подключаться к системе по ssh это назначит системе статический ip адрес.

Определим ip адрес системы введя команду:

Мы видим что наш адрес inet 192.168.0.168/24 brd 192.168.0.255 scope global eth0

Подключится к система через ssh введя команду в консоли другого компьютера:

При установке мы использовали получение ip адреса по DHCP сменим его на статический.

Отредактируем файл interfaces, который отвечает за сетевые настройки в Debian. Для того, чтобы назначить постоянный статический ip адрес, его нужно привести к следующему виду:

Сохраним и перезагрузимся командой:

Проверим после перезагрузки ip адрес:

Проверка работы интернета

Проверим интернет отправив 4 пакета на ya.ru.

Установка загрузчика GRUB на оба жестких диска

Без этого мы не сможем загрузится со второго диска в случае отказа первого по причине отсутствия загрузочного раздела.

Установим grub на оба жестких диска. Для этого выполняем команду:

На все вопросы даём дефолтные значения, в конце выбираете оба жестких диска для установки загрузчика.

Информация о разделах дисков в системе

Проверка работы массивов RAID1

Параметр “UU” говорит о том что всё в порядке.

Уже сейчас можно отключить один диск и система спокойно загрузится с другого. При подключении отключенного ранее диска raid не заработает так как для этого нужно произвести определенные манипуляции. Далее мы в статье настроим почту и в случае ошибки raid1 нам придет сообщение на необходимый e-mail.

В другой статье Вы можете узнать Как работать с raid 1 после отказа.

Создание раздела SWAP

При установке Debian мы отказались от создания swap раздела, так как по многим рекомендациям не советуют создавать raid 1 для раздела swap.

Наличие раздела swap важно и необходимо.

Проверим наличие swap раздела:

Если пусто, значит его нет.

Создадим файл для будущего swap раздела:

Размер файла 4 GB, равен объему памяти на сервере. Выбирайте размер на свое усмотрение.

Читайте также:  Установка производства водорода башнефть

Форматируем файл в формат свопа:

Подключаем файл к системе:

Проверяем результат работы:

Сделаем чтобы swap раздел монтировался при загрузке. Для этого добавляем в fstab строку:

В конце файла делаем переход на новую строку.

Сохраняем файл и перезагружаемся.

Все необходимые настройки произвели переходим к непосредственной установке Proxmox.

Установка Proxmox

За основу мы взяли инструкцию от разработчика исходя из неё и будем устанавливать.

Правка /etc/hosts

В нашем случае файл /etc/hosts выглядит так:

Добавление репозитория Proxmox

Добавим Proxmox репозиторий выполнив команду:

Добавляем цифровую подпись Proxmox репозитория:

Обновим репозитории и систему выполнив команду:

Установка необходимых пакетов Proxmox

Установка производиться командой:

В процессе установке необходимо будет настроить Postfix.

  • Интернет-сайт,
  • proxmox.sevo44.loc — укажем полное название машины.


Если нам в последствии надо будет изменить настройки Postfix то выполнить это можно командой:

Перезагружаем систему, новое ядро Proxmox VE ​​будет автоматически выбрано в меню загрузчика GRUB.

Отправка почты на внешний e-mail адрес

Отправим тестовое письмо на внешнюю почту в котором отправим данные файла /etc/fstab:

Настроим чтобы эти письма отправленные root пересылались на нужную нам внешнюю e-mail почту.

Открываем файл /etc/aliases для правки выполнив команду:

В данном виде почта будет приходить как в локальный файл так и на почту. Можете выбрать что то одно.

Применим изменения выполнив команду:

Можно еще раз отправить тестовое письмо и убедиться что оно пришло.

Обязательно проверьте спам почты. Если в спаме нет то смотрите логи отправки почты. Всегда использую почтовый сервис yandex.ru и проблем с ними нет.

Удаление пакета ОС-Prober

Удаление Debian kernel

Проверим конфигурацию Grub командой:

Ускоряем работу дисков ext4

Для проверки работы дисковой подсистем в Proxmox есть утилита pveperf которую мы будем использовать.

Посмотрим все смонтированые разделы в системе:

Посмотрим информацию о необходимом разделе:

Из вывода видно, что параметр FSYNCS маловат и надо его улучшить.

Откроем необходимый файл и сделаем изменения:

После перезагрузки системы Proxmox проверим результат:

Вот так поигравшись с настройками файловой системы ext4 мы значительно увеличили производительность дисковой системы. Варианты настройки могут быть разные и тут все зависит от ваших требований к данным на дисках.

Панель управления Proxmox

Теперь мы можем зайти по адресу https://192.168.0.150:8006 и увидеть после авторизации панель управления Proxmox.



Сообщение о том что не подключены платные репозитории можно конечно убрать, но после обновления системы оно появиться снова.

Давайте уважать разработчиков, раз они хотят чтобы мы видели это сообщение в свободной системе, то пусть так и будет.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

источник

www.itroad.ru

Путь IT-шника, иногда сложнее, чем путь самурая…

Установка Proxmox VE на Debian 7 (Wheezy), а так же рабочие момены

На официальном сайте Proxmox VE есть официальное же руководство по установке Proxmox VE на уже работающий Debian. Все инструкции в интернете не что иное, как отсебячий перевод, без комментариев и разбора спорных моментов. В данной статье я привожу опять же перевод, но с некоторыми комментариями и объяснениями не однозначных моментов.

Самое первое о чем хотелось бы порассуждать, это причины по которым большинство народу ставит Proxmox VE на уже настроенный Debian, а не пользуется готовым дистрибутивом.

1. Возможность сделать LVM.

2. Специфическая разбивка дисков (не берем во внимание ситуации, когда используется аппаратный RAID с отсутствующими в сборке драйверами, или когда надо сделать программный RAID).

Начнем со второй причины, а именно с разбивки дисков.

Конечно же я понимаю иногдашную необходимость в какой то экзотической разбивке дисков, скажем, сделать /var поболее и на отдельном разделе, дабы хранить логи годами, или как то так.

Но если использовать имеющуюся машину только как сервер виртуализации, надо ли это? Proxmox VE генерирует не так много логов, система в дистрибутиве идет минимальная, а большой /home вполне пригодится для хранения шаблонов и исошников.

Отсюда мой вывод, специфической разбивкой дисков можно пренебречь и использовать предложенную в дистрибутиве Proxmox VE.

Теперь первая и самая главная причина, это LVM. Мало кто задумывается для чего нужен LVM в системах виртуализации, многие заканчивают думать на такой мысли: «LVM позволяет делать снапшоты, и это круто, я смогу бэкапить машины не прерывая их работы. Или делать снапшоты (снимки), а после изменений возвращаться к ним, как делаю это в VirtualBox или VMware Workstation«.

Но тут ждет разочарование, во первых, снапшоты (тут надо уточнить, под снапшотом тут понимается бэкап машины без прерывания ее работы) на LVM сильно тормозят виртуальную машину и всю дисковую систему сервера, а во вторых, в Proxmox VE на LVM доступен только RAW формат дисков, а он не поддерживает снапшоты в классическом понимание (как снимки в VirtualBox или VMware Workstation), остаются только снапшоты средствами самого LVM, но это опять же дикие тормоза ведь когда есть LVM снапшот, то при записи данных на LV экстент сначала переписывается на снапшотный том и только потом на него записываются новые данные. То есть, запись на том приводит к двум дополнительным операциям: чтению оригинального дома + записи на снапшот. Эти лишние операции и съедают скорость. И чем больше снапшотов, тем медленнее работает дисковая систем. К тому же попытки сделать такой снапшот через консоль (в обход веб морды) почему то в 90% случаев гробят машину.

Нахрена же нужен вообще тогда этот LVM спросите вы, ответ находится немного не в том месте, на которое устремлены взгляды общественности.

Дело в том, что при создание жесткого диска как объекта (файла) в файловой системе сервера, этот жесткий диск подвержен всем влияниям (достоинствам и недостаткам) той файловой системы на которой находится. Так же этот объект пострадает в случае повреждения родительской файловой системы.

Читайте также:  Установка видеонаблюдения в школе регламентирующие документы

Что же касается LVM, то при его использование жесткий диск виртуальной машины по сути является разделом, никак не относящимся к родительской системе и ее файловой системе в частности, от этого и увеличение производительности за счет сокращения уровней абстракции (нет наслоения файловых систем одной на другу, если так можно выразится), к RAW дискам находящимся на LVM нет необходимости применять кэширование, что благотворно влияет на надежности системы.

Про кэширование хотелось бы упомянуть более подробно. Кэширование, это такая штука, которая применяется и на уровне хост системы (родительской) к контейнеру жесткого диска виртуальной машины, как обычному фалу (настраивается в вэб морде), и на уровне виртуальной машины (ОС самой машины). Отсюда вытекает проблема надежности «конструкции», так как дисковый кэш это передержка данных в оперативной памяти, и каждая система отвечает за этот процесс сам (хост и гостевая), в случае падения гостевой системы, данные находящиеся в оперативной памяти хост системы с очень большой вероятностью не верно запишутся в образ жесткого диска, чем похерят его и соответственно виртуальную машину (классно так, на ровном месте из за бзода виртуальной машины потерять ее). Это происходит из за того, что хост система не знает о кэширование гостевой системы, гостевая система применяя кэш периодически сбрасывает данные на свой диск, но при падение, это процесс не завершается, а хост система не может его завершить, так как она не в курсе чего и куда, она видит завершение процесса доступа к файлу и тупо очищает блоки памяти.

Более четко не могу сформулировать, тут лучше было бы нарисовать этот процесс, но мне лень.

А теперь непосредственно установка Proxmox VE на новенький Debian 7 (Wheezy).

Первым делом правим файл /etc/hosts так, чтобы имя сервера (которое было указано при установке) разрешалось не 127.0.1.1, а в тот ip который присвоен интерфейсу через который будем управлять Proxmox VE, без этого Proxmox VE не установится.

Далее добавляем в список репиозиториев репозиторй Proxmox VE

Добавляем ключ репозитория и обновляемся

Смотрим какое pve ядро есть на данный момент и ставим его вместе с pve-firmware (пропиетарные дровишки для разного оборудования).

По инструкции тут предлагают поставить заголовки ядра, но лично я их не ставлю, зачем хранить ненужный хлам, который при необходимости не составляет труда доставить.

После этого перезагружаемся и убеждаемся, что стартуем с новым ядром pve

Получаем положительный ответ
2.6.32-20-pve

Если ядро осталось прежним, можно выбрать один из двух вариантов.

1. Как рекомендует инструкция, просто удалить ядро Debian, тогда ядро Proxmox будет загружаться автоматом.
2. Изменить порядок загрузки, оставив ядро Debian.

Я из соображений нежности предпочитаю второй вариант. Для изменения порядка загрузки делаем следующее:

1. Смотрим какие есть ядра к загрузке:

и понимаем какое по порядку ядро pve с учетом того, что нумерация идет с ноля, а не единицы.

menuentry ‘Debian GNU/Linux, с Linux 3.2.0-4-amd64′
menuentry ‘Debian GNU/Linux, с Linux 3.2.0-4-amd64 (режим восстановления)’
menuentry ‘Debian GNU/Linux, с Linux 2.6.32-26-pve’
menuentry ‘Debian GNU/Linux, с Linux 2.6.32-26-pve (режим восстановления)’

Т.е. у меня нужное ядро с учетом отсчета от ноля будет 2.

Зная номер ядра, правим меню загрузки:

Меняем параметр GRUB_DEFAULT= ставя нужную цифру, в моем случае 2.

И обновляем меню загрузки:

После этого будет загружаться нужное ядро и старое ядро будет в наличие, на всякий случай.

Теперь ставим пакет Proxmox VE предварительно посмотрев его последнюю версию

Веб-интерфейс раньше работал через Apache, сейчас имеется встроенный web сервер, из за чего теперь при установке перестал создаваться конфигурационный файл виртуального сайта Apache. В связи с чем, если у вас уже стоит Apache для каких то нужд, веб морда Proxmox VE работать не будет (по крайней мере редирект с ip на нужный порт и https), поэтому для удобства лучше создать конфиг руками.

В официальном руководстве предлагают поставить дополнительные компоненты такой вот строчкой:
apt-get install ntp ssh lvm2 postfix ksm-control-daemon vzprocps open-iscsi bootlogd

Но с этой строчкой я не согласен, а почему, расскажу ниже.

Если у вас нет кластера из нескольких машин, вам не нужен NTP.

SSH и так должен быть, не через физ же интерфейс мы все это ставили (хотя кто как, найдутся и такие извращенцы).

lvm2 или вообще не нужен, если вы решили делать все без LVM или он уже должен стоять.

А вот ksm-control-daemon очень нужная вещь, это пакет позволяет виртуальным машинам использующим одинаковые данные в памяти, не дублировать их, а использовать одни блоки на всех. Это существенно экономит память и добавляет немножко быстродействия.

Если вы не собираетесь использовать сервер с гипервизором под что то еще, то postfix явно лишний, для целей рассылки почты о событиях системы лучше подойдет легковесный MTA sSMTP который у меня и установлен.

Пакет vzprocps лично мне не нужен, этот пакет предоставляет ps и top утилиты которые можно использовать для просмотра процессов в гостевой системе из хост системы. Работают они только с OpenVZ машинам (что естественно означает только Linux системы). Рассчитаны они в первую очередь на хостинг-провайдеров у которых есть необходимость посмотреть что же за процесс у клиента грузит машину и затем написать в личный кабинет сообщение типа: «php скрипты вашего сайта не оптимизированы и потребляют слишком много ресурсов, предоставление вам услуг временно приостановлено». Хотя можно придумать для них более приземленное применение. Как пример это ситуация полного исчерпание ресурсов машины до такой степени, что даже vzctl enter 101 не работает а посмотреть процесс-злоумышленник надо в целях предотвращения подобного в будущем.

Читайте также:  Установка пружины кикстартера на мопед карпаты

Пакет bootlogd нужен для вывода лога загрузки системы в специально отведенном для этого окошке веб морды, штука иногда полезная, поэтому рекомендую к установке.

По итогу, моя строка «доустановки» выглядит так:

После всех выше описанных действий можно еще раз перезагрузиться и попробовать зайти в веб-интерфейс по адресу https://192.168.1.1:8006, или какой там ip вы указали в файле /etc/hosts.

На всякий случай хочу дать ссылку на скачку iso образа с драйверами под Windows системы для виртуальных устройств virtio, которые дают некоторый прирост в скорости по сравнению со стандартными устройствами.

Ко всему прочему, я очень рекомендую установить на сервер связку указанную в этой статье и получать все сообщения о странностях на сервере.

У разработчиков Proxmox VE произошли некоторые изменения в подходе к продукту, теперь есть платная и бесплатная версия. Подробности тут .

В последнее время начал активно использовать VZ контейнеры и столкнулся со следующей проблемой. По умолчанию, контейнеры работают из /var/lib/vz а у меня он находится не на быстром рейде.

Пришлось решать вопрос быстродействия.

Для этого на быстром рейде, который отдан весь под LVM раздел выделил кусочек размером в 100Gb, смонтировал его в /mnt, остановил машины, остановил VZ демон service vz stop перенес содержимое /var/lib/vz на смонтированный раздел и сделал с перенесенных папок сим линки обратно в /var/lib/vz, снова запустил демона.

Все заработало, машины стали работать гораздо быстрее, но начались новые траблы.

При бэкапе машин на nfs хранилище, да и вообще за пределы /var/lib/vz начались дикие тормоза, как позже выяснилось, машины вообще отказывались бэкапиться в режиме снапшота.

INFO: mode failure — unable to detect lvm volume group
INFO: trying ‘suspend’ mode instead
INFO: backup mode: suspend

После множества экспериментов оказалось что дело в симлинках, они не подходят и надо этот кусочек в 100 гигов монтировать прямо в /var/lib/vz.

Ну и конечно же из очевидных вещей, то, что для бэкапа на LVM томе должно быть свободное место, куда будет делаться снапшот, но об этом все и так знают.

Теперь следующая проблема, вытекающая из предыдущей. После переноса машин на другой раздел на LVM перестал работать график отражающий нагрузку на диск OpenVZ машин. Ё маЁ подумал я, и начал рыть.

Оказалось, что мои перемещения вообще не при чем, оказалось, что разработчики изменили планировщик ввода-вывода — ссылка

В той теме форума, на которую я дал ссылку выше, по мимо информации о смене планировщика, есть ссылка на wiki где дана инструкция, по изменения одного типа планировщика, на другой тип. Повторять мануал не буду, скажу лишь что надо выставить режим cfq для всех дисков, в том числе, если они у вас в программном рейде и тогда все графики начнут работать.

Смотрите так же:

  • Коммерциализация Proxmox VE (ошибка репозитория) Недавно я написал статью об установке Proxmox VE на Debian 7 (Wheezy), с недавнего времени […]
  • Удаление OpenVZ Web Panel Все знаю эту замечательную, а главное бесплатную панель управления виртуальными машинами. Многие из тех кто знает, […]
  • Из нового Debian 7 (Wheezy) убрали поддержку OpenVZ Случилось то, чего я не видел уже много лет, еще со времен Debian 4, а именно косяк после обновления системы. […]
  • UPnP в Linux, а точнее, в Debian или торрент/DC++ через роутер Для того чтобы клиенты могли прозрачно открывать порты на шлюзе, был разработан набор протокол Universal Plug and […]
  • Динамический диапазон памяти в Proxmox (Automatically allocate within range) Сегодня я хотел бы поговорить о возможности выделения динамического объема памяти виртуальным машинам в […]
  • Ошибка при бэкапе виртуальной машины OpenVZ при помощи команды vzdump —suspend Когда то давным давно я решил перевести все свои сайты и некоторые службы в виртуальную среду. В качестве таковой я […]

Установка Proxmox VE на Debian 7 (Wheezy), а так же рабочие момены : 54 комментария

Подскажите у меня после ребута сервера все виртуальные машины не стартуют через автозапуск, приходиться вручну их включать
в описании задачи Srart all VMs and Containers — TASK ERROR: cluster not ready — no quorum?
не знаю где смотреть, подскажите пожалуйста
спасибо

Если сервер один, или был в кластере, который потом был разобран, можно попробовать pvecm expected 1

Отключил его на время, но не разбирал из кластера пока

Ну собственно от этого и проблема, кластер ругается на кворум, вполне логично и ожидаемо. Или восстанавливайте кворум, или разбирайте кластер, делайте то, что я выше написал. Только придется потом все равно как то решать ситуацию.

Какие-то новые нюансы в связи с выходом версии 3.3. будут присутствовать при установке?

При установке нет, кроме отсутствия необходимости установки апача, о чем я уже писал. Но нововведений там много. Динамические изменения конфигурации, изменили планировщик статистики, теперь его под опен везед машины надо руками включать, иначе не будет активности диска, изменили, в интерфейсе много поменяли, наконец ушли от vnc на основе джавы, теперь это на html5.

По установке, надо еще модули ставить отдельно для iscsi, цепха и некоторых других плюшек, но это не обязательно.

ого,чудненько, особенно что «наконец ушли от vnc на основе джавы, теперь это на html5», а с 3.2 нормально обновится?

Да, нормально. У меня на нескольких серверах обновления применились без проблем.

источник

Добавить комментарий

Adblock
detector