Меню Рубрики

Установка debian 8 разметка диска вручную

Разметка дисков в Debian с помощью LVM

По большому счету можно не сильно задумываться о размере томов, можно оставить некоторый объем неразмеченного дискового пространства, а потом, по мере надобности расширять нужные тома. Используя LVM можно создавать резервные копии томов «на лету»! По-моему, это достаточно веские доводы, для использования менеджера логических томов.

Эта статья является часть цикла статей о Debian/GNU Linux и является дополнением к статье «Установка Debian на сервер». В этой статье я расскажу, как произвести разметку диска используя LVM.
LVM – это аббревиатура от Logical Volume Manager, что переводится как менеджер логических томов. LVM применяется в Linux и OS\2. С его помощью можно распределять пространства жестких, физических дисков (PV – Physical Volume) по логическим томам (LV – Logical Volume). В отличие от обычных разделов, размеры томов можно изменять даже без размонтирования файловой системы. Причем том может находиться на нескольких жестких дисках. Это очень удобно! Заканчивается дисковое пространство? Добавляем жесткий диск и расширяем нужный нам том не него. Или производим расширение тома за счет уменьшения размеров других томов. В этой статье приводится пример, в котором два физических диска (40 Гб и 80 Гб) объединяются в одно дисковое пространство (120 Гб), которое называется группой томов (VG — Volume Group). В дополнение к этому, создается логический том, который больше самого большого используемого физического диска.

По большому счету можно не сильно задумываться о размере томов, можно оставить некоторый объем неразмеченного дискового пространства, а потом, по мере надобности расширять нужные тома. Используя LVM можно создавать резервные копии томов «на лету»! По-моему, это достаточно веские доводы, для использования менеджера логических томов.

И так, произведем разметку дисков, используя LVM. Схема разметки дискового пространства будет отличаться от схемы, описанной в корневой статье «Установка Debian на сервер». В основной статье используется простейший пример для новичков, в этой же статье рассмотрим пример посложнее. Разметим имеющиеся у нас диски (40 Гб и 80 Гб) следующим образом: под подкачку выделим 512 Мб, столько же выделим под /boot, 1Гб выделим для хранения временных файлов, 20 Гб под корневой том, столько же выделим под /var и всё остальное пространство отведем для хранения сообщений электронной почты.
Разметку дисков, естественно, производим вручную.

Выбираем пункт «Настройка логических томов».

Подтверждаем запись информации о разделах. И приступаем к собственно разметке.

Сначала создадим виртуальную группу томов. Назовем её vg01.

Выбираем оба наших жестких диска (физических тома) для группировки и опять подтверждаем запись информации о разделах.

Создаем первый логический том (LV) в группе томов vg01.

Называем его vg01boot.

Выделяем под этот том 512 Мб.

Создаем следующий том.

Называем его vg01swap и так же выделяем под него 512 Мб

Далее по аналогии создаем:

  • том vg01root размером 20 Гб
  • том vg01tmp размером 1 Гб
  • том vg01var размером 20 Гб
  • том vg01mail, который займет все оставшееся свободное место, примерно 86 Гб. Сразу же обратим внимание на размер этого тома. Самый большой из используемых нами жестких дисков имеет размер 80 Гб, а логический том имеет 86 Гб. Все потому, что том располагается на обоих физических дисках. Используя простые разделы, разве можно было бы это сделать?

Заканчиваем создание томов и переходим к их настройке.

Настройка томов не сильно отличается от настройки разделов, которую мы уже рассматривали в основной статье по установке Debian. Сначала настроим раздел /boot на томе vg01boot.

В настройках тома, в пункте «Использовать как» выбираем «Журналируемая файловая система Ext3».

Точку монтирования выбираем /boot, устанавливаем одноименную метку и заканчиваем настройку раздела. Затем настраиваем раздел подкачки на томе vg01swap. Для этого выбираем «Раздел подкачки» в пункте «Использовать как» в настройках тома и заканчиваем настройку раздела.

Остальные разделы настраиваем по аналогии с разделом /boot. Используем следующие параметры:
Раздел /root
Использовать как: Журналируемая файловая система Ext4
Точка монтирования: /root
Метка: root
Раздел /tmp
Использовать как: Журналируемая файловая система Ext4
Точка монтирования: /tmp
Метка: tmp
Раздел /var
Использовать как: Журналируемая файловая система Ext4
Точка монтирования: /var
Метка: var
Раздел /mail
Использовать как: Журналируемая файловая система Ext4
Точка монтирования: /var/mail
Метка: mail

Для раздела /mail точку монтирования вводим вручную.

После того как все разделы настроены, заканчиваем разметку, после подтверждения записываем изменения на диск и продолжаем установку Debian. Удачи!
Если Вы хотите быть в курсе новых статей, то подключитесь к RSS каналу или подпишитесь на рассылку «Работаем с Debian» на сайте Aitishnik.RU.

Помните, что у нас вы можете не только купить готовый сайт или заказать его разработку, но и подобрать подходящий тариф поддержки сайта, заказать продвижение сайта в поисковых системах, а так же зарегистрировать домен в одной из двухсот доменных зон и выбрать недорогой тариф хостинга! Айтишник РУ

источник

Работа с дисками в Debian — информация, скорость, добавление и т.д.

У меня обычно по разрозненным шпаргалкам располагаются различные полезные команды. Решил собрать воедино все, что касается работы с дисками в debian, их настройка, добавление, подключение, расширение и т.д. и поделиться с вами. Все эти команды и приемы будут актуальны практически для любого дистрибутива linux.

Данная статья является частью единого цикла статьей про сервер Debian.

Цели статьи

  1. Рассмотреть наиболее актуальные вопросы по работе с дисками.
  2. Поделиться своими примерами утилит и команд.
  3. На конкретных примерах рассмотреть проверку, добавление, расширение дисков.

Введение

Данная статья будет написана на базе операционной системы Debian. Но в целом, это все будет актуально для любого linux дистрибутива. Я решил пройтись по всем основным темам, касающимся работы с дисками. Постарался выстроить повествование последовательно, от простого к сложному, насколько это возможно в данной тематике.

Информация о дисках

Информацию о дисках в системе можно получить различными способами. Зачастую, интересна информация не только о физических дисках, но и о разделах. Начнем все же с физических дисков. Подробную информацию о железе, в том числе и о дисках, выдает программа hwinfo. В базовой системе ее нет, нужно поставить отдельно.

Теперь смотрим информацию о дисках:

Программа выведет железную информацию о всех дисках в системе. Вот пример вывода одного из физических дисков.

На выходе максимально подробная информация о диске — вендор, модель, серийный номер, метки диска в системе и много другое. Программа показывает принадлежность диска к рейд массиву, что бывает удобно. Вот вывод информации о диске из рейда adaptec.

Следующая программа, которую я использую, чтобы посмотреть информацию о физическом диске в debian — smartmontools. Она более громоздкая, тянет за собой кучу зависимостей, но зато умеет по расписанию следить за смартом дисков, слать уведомления в случае проблем. Фактически это не утилита, а готовый сервис. Ставится так.

Возможностей у программы много. Я в рамках данной статьи, покажу только, как посмотреть информацию о диске, в том числе параметры SMART.

С диском некоторые проблемы, судя по смарту.

Физические диски посмотрели, теперь посмотрим на список дисков с привязкой к логическим разделам. Я обычно использую 2 утилиты для этого — lsblk и fdisk.

Fdisk позволяет сразу посмотреть более подробную информацию о разделах.

Мне обычно хватает этих команд, чтобы получить полную информацию о дисках и разделах на них.

Посмотреть свободное место на диске

Рассмотрим теперь вопрос, как удобнее всего смотреть свободное место на диске. Тут особо вариантов нет — используется известная и популярная утилита df.

Читайте также:  Установка псо на акм

Команда показывает информацию и заполнении всех примонтированных дисков, в том числе и сетевых, если они присутствуют в системе. Нужно понимать, что эта информация не всегда достоверная. Вот пример такой ситуации — Диск занят на 100% и не понятно чем, df и du показывают разные значения.

Сразу же покажу удобную комбинацию команд, чтобы посмотреть, кто в данной директории занимает больше всего места. Директории выстроятся в список, начиная с самой объемной и далее. В моем примере будут выведены 10 самых больших папок в каталоге.

В первой строке будет объем самой директории /usr, а далее вложенные в нее. Привожу пример небольшого скрипта, который я люблю использовать, чтобы оценить размер директорий, к примеру, в архиве бэкапов и сохранить информацию в текстовый файл. Актуально, если у вас не настроен мониторинг бэкапов в zabbix.

На выходе останется файл dir_size.txt следующего содержания.

В целом, по свободному месту на дисках все. Утилит df и du достаточно, чтобы закрыть этот вопрос.

Подключить сетевой диск

Расскажу, как быстро выполнить монтирование наиболее популярных сетевых дисков:

В общем случае, подключить сетевой диск по smb можно следующей командой.

10.1.4.4/backup сетевая шара
/mnt/backup локальная директория, куда монтируем сетевой диск
admin пользователь
passadmin пароль

Если команда не отработает и будет ошибка, установите отдельно cifs-utils.

С монтированием по smb есть куча нюансов. Сколько различных ошибок я ловил при этом — не счесть. То кодировка не совпадает, то в пароле спец. символы, то шара в домене и надо правильно указать домен. Если в пароле есть спец. символы, пароль можно взять в одинарные кавычки. Домен можно указать через слеш, через плюс, через @. Пробуйте разные варианты, если не получается. Так же имя пользователя с доменом можно тоже брать в кавычки, иногда помогает. Например, вот так — ‘domain\admin’. Так же обращайте внимание на версию протокола smb. Ее можно принудительно указывать через опцию vers. Так же можно вывести более подробный лог подключения.

Для подключения сетевого диска по nfs, необходимо установить на машину nfs-client, который находится в пакете nfs-common.

После этого можете подключить сетевую папку по nfs:

С nfs, так же как и с cifs, можно вывести расширенный лог и принудительно указать версию.

Перед подключением диска можете проверить, а если вам вообще доступ к сетевому диску на сервере:

Вы должны увидеть список nfs дисков, к которым у вас есть доступ. Если список пуст, подмонтировать ничего не получится.

Подключить и примонтировать диск

Расскажу, как подключить и настроить новый физический или виртуальный диск в Debian. У меня в системе есть один диск — /dev/sda. Я подключил к ней новый жесткий диск sdb. Хочу его отформатировать в файловую систему xfs и примонтировать в каталог /mnt/backup.

Разметка диска

Вы можете не создавать разделы на жестком диске, а создать файловую систему прямо по всему диску. Делать так не рекомендуется, хотя лично я никаких проблем не получал при таком использовании диска. С разделами просто удобнее, так как ими можно оперировать — изменять, перемещать, расширять. добавлять и т.д.

Создадим один раздел на диске с помощью утилиты cfdisk.

Если диск чистый, то вам будет предложено создать таблицу разделов на ней. Я обычно gpt создаю. Дальше через графический интерфейс создайте раздел на весь диск и укажите type — Linux filesystem.

Как закончите, сохраняйте изменения. Вас попросят подтвердить запись, написав yes. Пишите полное слово, не просто y, а именно yes, иначе изменения не будут записаны. Теперь надо обновить таблицу разделов. Иногда система автоматически не видит новые разделы, а требует перезагрузку, чтобы их увидеть. Перезагружаться не обязательно, достаточно запустить программу partprobe.

Если ее нет в системе, то установите пакет parted.

Создание файловой системы ext4, xfs

Раздел на новом диске создали. Теперь его надо отформатировать в файловую систему xfs. Это не родная система для Debian, поэтому нужно поставить отдельный пакет xfsprogs для работы с ней.

Создаем файловую систему xfs на новом диске.

Если вам нужно создать файловую систему ext4, то ничего ставить дополнительно не нужно. Сразу форматируете раздел в ext4 командой:

Теперь создаем директорию, куда будем монтировать новый диск и подключаем его.

Посмотрим, какую метку получил новый раздел с помощью blkid.

Метку будем использовать для того, чтобы монтировать диск автоматически при загрузке системы. Для этого редактируем файл /etc/fstab. Добавляем в самый конец новую строку, чтобы получилось примерно так.

Очень внимательно редактируйте fstab. Ошибка с этим файлом может привести к тому, что система не будет грузиться. Сам сталкивался с этим неоднократно. Я всегда убеждаюсь, что корректно отредактировал fstab перезагрузкой системы. У меня были ситуации, когда файл правился с ошибкой, а потом система не перезагружалась месяцами. Через пол года сделал ребут и система не загрузилась. Это был гипервизор с кучей виртуалок. Было не по себе от такого сюрприза. Оказалось, что была ошибка в fstab, которую оперативно исправил, благо был доступ к консоли. Внимательно за этим следите.

Поясню еще, почему использовали метку диска, а не название диска в системе — /dev/sdb1. Раньше я всегда так и делал. Ну как раньше — лет 7-10 назад. Потом пошли какие-то изменения и стали возникать ситуации, что после добавления новых дисков в систему, менялись системные названия дисков. Когда сталкиваешься с этим впервые — впадаешь в ступор. Вроде только добавил диск в систему, а у тебя все сломалось. То, что было /dev/sdb стало /dev/sdc со всеми вытекающими последствиями. Выход из этой ситуации — использовать метки разделов, а не названия. Метки не меняются.

Работа в debian с lvm

LVM тема обширная и раскрыть ее у меня задача не стоит. В сети все это есть, я сам постоянно пользуюсь поиском. Приведу только несколько команд из своей шпаргалки, которыми я регулярно пользуюсь для создания, подключения и изменения lvm дисков. Команды актуальны для любых дистрибутивов, где есть lvm, не только в Debian.

Допустим, вы подключили 2 новых диска или raid массива к серверу и хотите их объединить в единое адресное пространство. Я расскажу, как это сделать. Только сразу обращаю внимание, что подключать одиночные диски так не следует, если там будут храниться важные данные. Выход из строя любого из дисков объединенного раздела приведет к потере всех данных. Это в общем случае. Возможно их можно будет как-то вытащить, но это уже не тривиальная задача.

В системе у меня один диск /dev/sda, я добавил еще 2 — sdb и sdc.

Инициализируем диски в качестве физического тома lvm.

Теперь создадим группу томов, в которую будут входить оба диска.

В данном случае vgbackup — название созданной группы. Теперь в этой группе томов мы можем создавать разделы. Они в чем-то похожи на разделы обычных дисков. Мы можем как создать один раздел на всю группу томов, так и нарезать эту группу на несколько разделов. Создадим один раздел на всем пространстве группы томов. Фактически, этот раздел будет занимать оба жестких диска, которые мы добавили.

lv_full название логического раздела. Теперь с ним можно работать, как с обычным разделом. Создавать файловую систему и монтировать к серверу. Сделаем это.

Читайте также:  Установка проходного выключателя с индикатором

Мы подключили lvm раздел, который расположен на двух жестких дисках. Повторю еще раз — обычные жесткие диски так не собирайте, используйте только raid тома для этого.

Теперь для примера давайте удалим этот раздел и создадим 2 новых, один на 14 Гб, другой на 5 Гб и так же их подключим к системе. Для начала удаляем раздел lv_full, предварительно отмонтировав его.

Проверяем, что раздела нет.

Остался только один — системный. Создаем 2 новых раздела:

Дальше так же создаем файловые системы и монтируем новые разделы к серверу. Надеюсь, на конкретных примерах я сумел показать удобство и особенность работы с lvm томами и разделами. Дальше мы продолжим эту тему. При автомонтировании через fstab томов lvm можно использовать их имена вида /dev/mapper/vgbackup-lv_full, а не метки. Эти имена не меняются.

Вот наглядный пример, где можно использовать lvm тома размазанные на несколько дисков. Есть небольшой файловый сервер с 4-мя sata дисками по 4 tb. Нужно было сделать максимально объемное файловое хранилище. Были собраны 2 mdadm raid1. Немного объема ушло на служебные разделы, а потом все, что осталось объединили в единый lvm том и получили шару объемом 6.4 Tb.

Сразу могу сказать, что производительность такой штуки не очень высокая, но зато есть защита от отказа одного из дисков, плюс файловое хранилище нужного объема. Можно было сразу все собрать в raid10, но я сейчас уже не помню, почему от этого отказались. Были какие-то объективные причины, а привел эту ситуацию я просто для примера. Таким образом можно объединять различные разнородные массивы для увеличения суммарного объема одного раздела.

Расширение диска

Теперь представим ситуацию, что у вас используется какой-то lvm раздел и вы хотите его увеличить. В общем случае я не рекомендую это делать без особой нужды. Увеличивать можно даже системный диск с / , но на практике я получал неожиданные проблемы от такого расширения. Пример такой проблемы — Booting from Hard Disk error, Entering rescue mode. В общем случае все должно расширяться без проблем, но когда я разбирался с ошибкой, я находил в интернете информацию о том, что люди сталкивались с тем же самым именно после расширения системного lvm раздела.

Если раздел не системный, то проблем быть не должно. Последовательность действий следующая при расширении lvm раздела:

  1. Добавляем новый диск в систему.
  2. Подключаем диск к группе томов, на которой находится раздел, который будем увеличивать.
  3. Расширяем lvm раздел за счет свободного места, которое образовалось в группе томов за счет добавления нового диска.

Теперь по пунктам проделаем все это. У нас имеется группа томов из 2-х дисков — sdb и sdc. На этой группе размещен один раздел, который занимает все свободное пространство. Мы его расширим за счет нового диска.

Увеличим раздел lv_full до 30 Гб за счет добавления в группу томов нового диска на 10 Гб. Имя этого диска — sdd. Добавим его в существующую группу томов.

Смотрим информацию по томам.

Новый диск добавлен в группу и он пока пуст. Расширяем существующий раздел на 100% свободного места группы томов.

Раздел увеличен. Я его не отключал в процессе расширения. Все сделано, как говорится, на горячую. С lvm это очень просто и я наглядно рассказал, как это сделать. А теперь давайте расширим обычный раздел диска, не lvm. Это тоже реально и не сильно сложнее.

Допустим, у нас есть диск /dev/sdb размером 10 Гб, на нем один раздел sdb1, который занимает все свободное пространство диска. Это диск виртуальной машины, который мы можем увеличить через управление дисками гипервизора. Я расширил диск до 20 Гб. Смотрим, что получилось.

У нас объем диска 20 Гб, на нем только один раздел на 10 Гб. Нам его надо расширить до 20-ти Гб. Диск нужно отмонтировать, прежде чем продолжать.

Открываем диск в fdisk и выполняем там следующую последовательность действий:

  1. Удаляем существующий раздел sdb1 на 10G.
  2. Вместо него создаем новый sdb1 на 20G.
  3. Записываем изменения.

Монтируем раздел обратно в систему и проверяем размер.

Размер файловой системы на разделе не изменился. Расширяем ее отдельной командой.

Раздел ext4 расширился до желаемых 20 Гб. Я не пробовал расширять системный раздел ext4 без размонтирования, не было необходимости. Но если у вас системный раздел на xfs, то вот пример того, как его можно расширить без отмонтирования и без остановки сервера — Расширение (увеличение) xfs корневого раздела / без остановки.

Проверка диска на ошибки и bad blocks

С выходом файловых систем ext4 и xfs я практически забыл, что такое проверка диска на ошибки. Сейчас прикинул и ни разу не вспомнил, чтобы у меня были проблемы с файловой системой. Раньше с ext3 или ufs на freebsd проверка диска на ошибки было обычным делом после аварийного выключения или еще каких бед с сервером. Ext4 и xfs в этом плане очень надежны.

В основном ошибки с диском вызваны проблемами с железом. Как посмотреть параметры smart я уже показал выше. Но если у вас все же появились какие-то проблемы с файловой системой, то решить их можно с помощью fsck (File System Check). Обычно она входит в базовый состав системы. Запустить проверку можно либо указав непосредственно раздел или диск, либо точку монтирования. Раздел при этом должен быть отмонтирован.

Проверка завершена, ошибок у меня не обнаружено. Так же у fsck есть необычная опция, которая не указана в документации или man. Запустив fsck с ключем -c можно проверить диск на наличие бэд блоков.

Насколько я понимаю, проверка выполняет посекторное чтение и просто сообщает о том, что найден бэд блок. Теоретически, можно собрать все эти блоки в отдельный файл и затем передать их утилите e2fsck, которая сможет запомнить эти бэды и исключить из использования.

На практике я не проверял как это работает и имеет ли вообще смысл в таких действиях. Если с диском замечены хоть малейшие проблемы, я его сразу меняю.

Протестировать скорость диска

Проверка реальной скорости диска задача не простая. Во-первых, в операционной системе есть кэш. Если используется рейд контроллер, то в нем тоже есть свой кэш. Важно мерить скорость так, чтобы не попадать в эти кэши. К тому же проще всего измерить линейную скорость чтения и записи, но в реальном профиле нагрузки сервера линейной записи и чтения практически не бывает. Так что я предлагаю пару простых способов измерить скорость записи и чтения на глазок, просто чтобы прикинуть или сравнить разные диски.

Для теста записи можно воспользоваться утилитой dd, записав пустой файл. Размер файла выбирайте больше объема оперативной памяти. За это отвечает параметр count, который задает количество блоков bs в 1 мб, которые мы запишем.

Это обычный ssd диск Samsung 860 EVO. Виртуальная машина работает на нем. А вот результат на рейд контроллере с отложенной записью, где массив raid10 собран из 4-х sata hdd.

Тут явно запись полностью попадает в кэш контроллера, поэтому такая нереальная скорость для обычных hdd дисков. Привожу это для примера, чтобы вы понимали, что то, что вы видите на тестах скорости это не всегда скорость самих дисков. Вот обычный софтовый raid1 на двух hdd дисках.

Читайте также:  Установка датчиков движения к люминесцентным лампам

Скорость чтения диска можно измерить, к примеру, с помощью программы hdparm. Ставится из стандартных репозиториев.

Привожу в пример эту программу, так как у нее явно указано, что ключ t позволяет производить чтение непосредственно с диска, минуя кэш системы. Хотя способов это сделать есть множество, но этот, как мне кажется, самый простой.

Проверить нагрузку на диск

Теперь немного поговорим о том, как измерить или посмотреть нагрузку дисков. Иногда видно, что сервер явно очень сильно тормозит. При этом смотришь загрузку CPU и доступную память — всего в избытке, но приложение еле шевелится. Конечно, с нормальным мониторингом вы быстро поймете, что у вас проблемы с диском, но если мониторинга нет, то можно в консоли быстро оценить обстановку с помощью некоторых утилит.

Я предлагаю использовать небольшой пакет утилит sysstat. Ставим его.

Дальше запускаем iostat с параметрами.

Нас в первую очередь будет интересовать последний столбец %util. Чем больше он стремится к 100%, тем выше нагрузка на диск. Если она очень высокая, вы захотите узнать, какой процесс больше всего нагружает диск. Это можно узнать с помощью pidstat.

Видим, что основную нагрузку на диск генерирует процесс mysqld. Можем отдельно последить за ним. Для этого надо узнать его pid и запустить pidstat для конкретного процесса.

Так мы можем мониторить дисковую активность конкретного процесса.

Так же для наглядного мониторинга загрузки диска мне нравится использовать программу dstat.

Она в реальном времени показывает дисковую нагрузку конкретных приложений. Есть еще похожая команда.

Если я правильно понял описание, первая показывает скорость доступа к реальным устройствам, а вторая в том числе кэши и всякие виртуальные файловые системы. Возможно я ошибся, вот описание из документации:

—top-bio
show most expensive block I/O process
—top-io
show most expensive I/O process

Программа dstat показывает не только загрузку дисков. Ее можно использовать для комплексного наблюдения за системой. Например вот так.

При этом будет выводиться:

  • текущее время – t
  • средняя загрузка системы – l
  • использования дисков – d
  • загрузка сетевых устройств – n
  • активность процессов – p
  • использование памяти – m
  • использование подкачки – s
  • с интервалов в 10 секунд

На этом по анализу нагрузки на диск у меня все. Если у вас есть еще какие-то интересные утилиты для этих задач, прошу поделиться в комментариях. Загрузка дисков одна из самых востребованных метрик в серверах, так как очень сложно правильно ее оценить, в отличие от загрузки cpu и memory.

Создание диска из оперативной памяти (озу)

Расскажу об еще одной интересной возможности при работе с дисками — создание диска из оперативной памяти. Зачем это может пригодится на практике, я не знаю. Сам использовал только из любопытства для тестов. В проде лично я не вижу применения. Linux обычно и так использует всю доступную оперативную память и кэширует файловые операции. Так что большой необходимости в дисках в оперативной памяти я не вижу. Но может вы найдете реальное применение.

Создаем диск из оперативной памяти размером в 5 Гб и монтируем его в /mnt/tmpfs.

Я создал диск в оперативной памяти размером 5 Гб. Проверим его скорость записи.

Неплохо 🙂 Что примечательно, оперативная память не резервируется сразу при создании диска. Она расходуется только если на диск действительно записываются какие-то файлы. Причем расходуется память пропорционально количеству данных, которые на диск записаны. Если у вас есть идеи, как можно использовать такие разделы, делитесь в комментариях. Первое, что приходит в голову — использовать диск из оперативной памяти под кэш статических страниц web сайта. Но как я уже говорил, ядро linux и так должно кэшировать в памяти то, к чему идут интенсивные запросы.

На практике я все это не проверял. Есть какой-то прирост к отклику сайта или нет, если его кэш поместить на такой диск. Было бы любопытно проверить, но как-то все времени не хватает. Может кто-то проверит и поделится результатом. Так же такой диск можно использовать под какую-нибудь тестовую базу данных для ускорения обработки запросов. Можно, конечно, заморочиться и настроить нормально кэши самой базы. Но если файлы базы просто поместить на диск в оперативной памяти, то прирост очевидный будет сразу же, без всяких настроек.

Подключение Яндекс Диска

Статью с настройкой дисков завершу описанием подключения Я ндекс.Диска. Я лично давно и интенсивно его использую. У меня есть статья по созданию резервной копии сайта на яндекс.диск. Статья хоть и старая, но актуальная. Я продолжаю использовать предложенные там решения.

Яндекс диск можно подключить как системный диск по webdav. Скажу сразу, что работает это так себе, я давно им не пользуюсь в таком виде. Мне больше нравится работать с ним через консольный клиент linux.

Устанавливаем консольный клиент yandex-disk на Debian.

Дальше запускаете начальную настройку.

После этого яндекс диск подключен к системе и готов к работе. Посмотреть его статус можно командой.

Остановить или запустить Яндекс.Диск можно командами.

Файл конфигурации находится по адресу /root/.config/yandex-disk/config.cfg. Туда, к примеру, можно добавить список папок исключений, которые не нужно синхронизировать.

Консольный клиент поддерживает символьные ссылки. Я много где использовал его. В основном в скриптах по автоматизации бэкапов. К примеру, я останавливал сервис яндекс диска, готовил бэкапы к отправке. Упаковывал их архиватором с разбивкой архивов по размеру. Потом создавал символьные ссылки в папке яндекс диска и запускал синхронизацию. Когда она заканчивалась, удалял локальные файлы и останавливал синхронизацию.

Яндекс диск сильно тормозит и падает, если у вас много мелких файлов. Мне доводилось хранить в нем бэкапы с сотнями тысяч файлов. Передать их в облако напрямую было невозможно. Я паковал их в архивы по 2-10 Гб и заливал через консольный клиент. Сразу могу сказать, что это решение в пользу бедных. Этот облачный диск хорош для домашних нужд пользователей и хранения семейных фоток и видео. Когда у вас большие потоки данных, которые нужно постоянно обновлять, работа с яндекс диском становится сложной.

Во-первых, трудно мониторить такие бэкапы. Во-вторых, тяжело убедиться в том, что то, что ты залил в облако, потом нормально скачается и распакуется из бэкапа. Как запасной вариант для архивов, куда они будут складываться раз в неделю или месяц, подойдет. Но как основное резервное хранилище точно нет. Какие только костыли я не придумывал для Я ндекс.Диска в процессе промышленной эксплуатации. В итоге все равно почти везде отказался. Да, это очень дешево, но одновременно и очень ненадежно. Он иногда падает. Это хорошо, что упал, можно отследить и поднять. Так же он может зависнуть и просто ничего не синхронизировать, при этом служба будет работать. Все это я наблюдал, когда пытался синхронизировать сотни гигабайт данных. Иногда у меня это получалось 🙂

Заключение

На этом по настройке дисков в Debian у меня все. Постарался рассмотреть самые актуальные и полезные моменты. Использовал свои шпаргалки с командами для этого. Теперь можно лазить не в шпаргалки, а сюда 🙂 Надеюсь было полезно кому-то еще. Все замечания, пожелания, исправления и предложения по теме статьи жду в комментариях.

Напоминаю, что данная статья является частью единого цикла статьей про сервер Debian.

источник

Добавить комментарий

Adblock
detector