Меню Рубрики

Установка suse на raid

Создание программного Raid 1 и установка на него open Suse.

Райд массив был собран при установке операционной системы, поэтому по сборке райда после установки системы ничего сказать немогу, хотя видел статьи в которых описывалось как это сделать. ИМХО стремно это, ведь система может упасть и не факт что ее удастся восстановить. Так что мой путь, покупка двух дисков и установка на них новой ОС на райд разделы. Причем старый диск сохраним до полной работоспособности новой системы.

Рассмотрим подробно разметку файловой системы и сборку софт райд массива при установке системы, предполагается, что компьютер будет выступать сервером небольшой локальной сети поэтому будем собирать Raid 1(зеркало). В Raid 1 содержимое жестких дисков полностью дублируется. И система может работать при полном отказе одного из дисков. В Raid 1 можно объединять и более двух дисков, но смысла в этом для сервера небольшой сети я невижу. Если есть более двух дисков то лучше райд 5 делать.

Создаем новую разметку, если на винтах были какие то разделы, удаляем их.

И добавляем новые разделы. На действующем компьютере я делал три раздела:

  1. swap — 2гб
  2. раздел под операционную систему 100гб
  3. остаток места который можно также собрать в райд или же не собирать, а использовать как два диска.

В рассматриваемом примере разделы будут меньше так как скрины делаю не на действующем компе а в виртуальной машине.

Итак создаем первый раздел:

В последнем диалоге нужно обязательно выбрать ID файловой системы 0xFD.

Все один раздел создан, он будет использоваться под свап.

Аналогично создаем второй раздел для ОС, а также если необходимо третий и т.д.

Для второго жесткого диска создаем точно такие же по объему разделы, в результате должно получится както так:

Разделы готовы, теперь можно собрать райд массивы

Выбираем тип массива в нашем случае райд 1 и разделы которые будут собраны в райд диск.

По замыслу райд диск в два гигабайта будет отдан под свап, выбираем «форматировать раздел» — swap, и точку монтирования swap.

Аналогично собираем райд для системного раздела, ну и остальные если есть необходимость.

Естественно для системного раздела выбираем »форматировать раздел» — EXT4, и точку монтирования — «/»

Проверяем точки монтирования и типы райд, если все хорошо жмем принять и далее. На этом создание райд массива завершено, далее устанавливаем ОС как обычно.

В итоге проделанных операций мы получили полностью полностью дублирующиеся системные разделы, при выходе из строя любого из жестких дисков компьютер полностью сохранит работоспособность,а администратору останется только заменить вышедший из строя жесткий диск новым разметить его и подключить разделы в райд.

Для того чтобы компьютер загружался при отсутствии любого диска нужно обратить внимание на расположение загрузчика. Он должен быть не в MBR, а на «/dev/md1 («/»)».

Задать его расположение можно при установке системы

В следующей статье рассмотрим замену вышедшего из строя диска и команды мониторинга состояния массива.

источник

SuSe 9.3 и SATA RAID

Как запихнуть драйвер рейда при установке системы. Закачал драйвер с интеловского сайта, загнал образ на дискету RawWrite, а при загрузке дополнительных драйверов при установке СуСа их не видит. При установке модуля megaraid, инсталятор показывает два винта. Уже вроде бы все инструкции перечитал. Помогите «сняться с ручника»!

Re: SuSe 9.3 и SATA RAID

Re: SuSe 9.3 и SATA RAID

Это не ответ! Что значит не стоит использовать этот «райд»? Материнка серверная Intel SE7221BK1-E винты WD 250 Gb SATA. Для надежной сохранности НАДО RAID1 ! Помогите, пожалуйста решить эту проблему!

Re: SuSe 9.3 и SATA RAID

Намекаю — это херовый софтварный бюджетный райд с мордой в биосе.
Если надо зеркало — используй софтварный LinuxRaid.
Тем более на сервере.

Re: SuSe 9.3 и SATA RAID

Прошу прощение за свою тупость, но не подскажете как это сделать. Или ссылочку на доку (желательно по-русски). Заранее благодарен.

Re: SuSe 9.3 и SATA RAID

При установке выбирай RAID

Re: SuSe 9.3 и SATA RAID

Да, уж. Особенно много там написано про RAID. Может еще кто-то что-то посоветует?

Re: SuSe 9.3 и SATA RAID

Ну блин. Что там сложного?
Технолонию райдов знаешь? Нет? Тогда читай Software-RAID-HOWTO и Multi-Disk-HOWTO
Тебе нужен RAID1, т.е. зеркало.
Ну и объединяй 2 диска в один на программном уровне.
Неужели сложно потыкать мышкой по инсталлятору, который по-русски пишет.
И эти люди ставят сервера. докатились.

Читайте также:  Установка замка на акпп в сао

Re: SuSe 9.3 и SATA RAID

Я делаю так: Создаю два одинаковых раздела на разных винтах, затем обьединяю в рейд.

Есть еще пару вопросов: swap надо включать в рейд или нет?

почему LED винтов постоянно горит?

И эти люди уже 15 лет работают за компами, начиная с ДВК-2 и Искры-226. Так, что знания имеются в разных областях компутерной техники. А как гласит народная мудрость — человек не может всего знать. «Век живи — век учись!». И еще, гордыня является смертельным грехом.

Re: SuSe 9.3 и SATA RAID

> Создаю два одинаковых раздела на разных винтах, затем обьединяю в рейд.
Именно!
swap не надо объединять(да и не получится). Ещё такой трик — при большом количестве свопа, его лучше разбить на разделы по 2 гига.
Т.е. : Знаю, что разбил криво(не делал разделение на /usr /var и т.д.), но пофиг пока 🙂

источник

unixforum.org

Форум для пользователей UNIX-подобных систем

RA > (как создать RAID во время установки и поставить ОС на него?)

RA > Цитата

Re: RA > Цитата

Сообщение Lazy_Kent » 01.11.2010 15:30

Кто его знает. Можно попробовать загрузиться с Live CD и создать RAID5. Возможно, при установке и увидит.

Всё возможно стандартными средствами. Сначала создаёте массив, потом на нём разделы.

Для работы по сети файловая система не важна, т. е. NTFS вам не нужна.

Re: RA > Цитата

Re: RA > Цитата

Сообщение k0da » 01.11.2010 16:25

Re: RA > Цитата

Re: RA > Цитата

Сообщение Lazy_Kent » 01.11.2010 17:29

Re: RA > Цитата

Re: RA > Цитата

Сообщение Xandry » 03.11.2010 21:17

Re: RA > Цитата

30 Мб), который примонтировал как /boot. Косяк такого метода в том, что в моем RAID5 эти 30 Мб не используются на всех пяти винтчестерах, но имея пять винтов по 500 Гб могу себе позволить пожертвовать 150-ью мегабайтами. Все грузится и работает.

Пошаговая инструкция (чтоб будущим поколениям легче было гуглить):

Для всех манипуляций понадобятся два диска: LiveCD (я использовал openSUSE GNOME LiveCD) и установочный DVD openSUSE 11.3.
Если винтчестеры не новые и на них есть какая-либо важная информация, то ее нужно скопировать в безопасное место — на другой компьютер в сети, на сьемный USB диск, на винтчестер, который потом отключится от компьютера и переживет все страшные времена на полке шкафа и т.д.
Для начала грузимся с LiveCD и правильно разбиваем винтчестеры на логические диски. Так как мой LiveCD не захотел грузить рабочий стол, то пришлось работать в консоли. Для работы с винтчестерами использовал fdisk: для начала в консоли пишем
fdisk -l
Это отобразит информацию о всех винтчестерах и логических дисках на них. Выяснив количество и имена дисков начинаем работать с каждым в отдельности. Для этого пишем в консоли
fdisk /dev/sda
Эта команда запускает fdisk на винтчестере, который в системе значится как /dev/sda. fdisk просит ввести команду. Чтож, вводим «d» (удаление диска) и, если на винтчестере не один логический радел, номер раздела. Повторяем команду «d» пока не закончатся логические разделы. После этого создаем новый раздел командой «n», система просит указать primary или extend это будет раздел — вводим p для primary, номер раздела — 1, оставляем номер первого цилиндра 1 (жмем Enter), и указываем номер последнего цилиндра.
ПРИМЕЧАНИЕ: вот тут загвоздка — номера цилиндров с размерами в мегабайтах никак не пересекаются, а раздел нам нужен размером всего 30 Мб. Лично я смог создать раздел такого размера со второй попытки (с 1 по 4 цилиндр), но вообще лучше поэкспериментировать — создать раздел в несколько цилиндров и запустить установку системы, в которой посмотреть его размер.
Только что созданный первый раздел первого винтчестера оставляем в покое и создаем еще один раздел на этом разделе: еще раз вводим «n», номер раздела указываем 2, далее два раза жмем Enter чтобы задействовать весь оставшийся объем винтчестера. Следующий шаг — изменение типа второго раздела — команда «t», вводим номер раздела — 2, далее вводим тип — fd (это тип Linux raid autodetect, разделы такого типа могут быть объединены в RAID). И еще одна команда — «w» для запоминания сделанных изменений и выхода из fdisk’а.
Запускаем fdisk для остальных винтчестеров:
fdisk /dev/sd()
где () — буква английского алфавита b, c, d и т.д. На каждом так же удаляем все разделы командой «d», но создавать будем только по одному разделу на весь диск: вводим «n», 1, Enter, Enter. Изменяем тип этих разделов на Linux raid autodetect: «t», fd. И сохраняем изменения: «w».
После такой подготовки дисков выходим с LiveCD и грузимся с установочного openSUSE 11.3 DVD. Выбираем язык, начинаем установку в графическом режиме. В ходе установки достигаем шага с настройкой дисков. Здесь выбираем «Создать новуя разметку», «пользовательская разметка (для экспертов)» и попадаем в окно настройки дисков. В разделе «жесткие диски» выбираем первый винтчестер /dev/sda, на нем первый раздел /dev/sda1 и жмем на конопку «редактировать» внизу экрана. Там указываем форматировать раздел в файловую систему ext2 (поддерживает маленькие разделы) и монтируем раздел как /boot.
После этого идем в раздел RAID. Там жмем по кнопке «добавить» и в настройках RAID’a выбираем его тип (например, я создавал RAID5). В левом поле этого окна должны отобразиться все созданные нами разделы, имеющие тип Linux raid autodetect. Выбираем их все. Форматировать и монтировать создаваемый RAID не нужно.
Далее идем в раздел управления логическими томами. Аналогично жмем по кнопке «добавить» и создаем группу логических томов с каким-либо удобным именем. В качестве основы для группы томов выбираем наш RAID. После создания группы томов в ней можно создавать логические тома: переходим во вкладку «логические тома», выбираем «создать», указываем имя создаваемого тома, необходимый размер, форматируем в нужную ФС и монтируем куда нужно. У себя я создал такие тома:

Читайте также:  Установка армированного тормозного шланга

имя — размер — ФС — точка монтирования
OS — 20 ГБ — ext4 — /
SWAP — 2 ГБ — swap — swap
HOME — 15 ГБ — ext4 — /home
FILES — что осталось — ext4 — /files

Том FILES у меня предназначен для хранения всего и вся (собственно пять винтчестеров и RAID появились от того, что на ноутбуке катастрофически не хватает места и нужно неважную инфу куда-то сбрасывать), в том OS будет устанавливаться операционка, при выходе новых версий ОС будет переустановлена без затрагивания важных файлов в разделе FILES. Но не думаю, что такая разметка подойдет всем, так что создавайте разделы именно так, как нужно Вам.
Все, после всех этих манипуляций получается, что загрузка будет осуществляться с небольшого раздела на первом винтчестере, монтируемого как /boot, а все остальное будет находиться на RAID’e, поверх которого настроена группа томов LVM. В ходе дальнейшей установки нужно будет проверить настройки загрузчика grub и, при необходимости, установить загрузку с загрузочного раздела, но установщик openSUSE это и сам должен указать.
Заканчиваем уставновку и перезагружаемся, чтобы проверить результат.
Установщик openSUSE предоставляет удобные графичесике средства настройки дисков, RAID’ов и групп томов, единственное его ограничение для описанных действий — он не умеет форматировать разделы как Linux raid autodetect. Для этого и используется LiveCD. Хотя, при установке ОС без таких графических инструментов можно использовать и консольные приложения LiveCD для создания RAID’a и группы томов LVM.

источник

SuSe 9.3 и SATA RAID

Как запихнуть драйвер рейда при установке системы. Закачал драйвер с интеловского сайта, загнал образ на дискету RawWrite, а при загрузке дополнительных драйверов при установке СуСа их не видит. При установке модуля megaraid, инсталятор показывает два винта. Уже вроде бы все инструкции перечитал. Помогите «сняться с ручника»!

Re: SuSe 9.3 и SATA RAID

Re: SuSe 9.3 и SATA RAID

Это не ответ! Что значит не стоит использовать этот «райд»? Материнка серверная Intel SE7221BK1-E винты WD 250 Gb SATA. Для надежной сохранности НАДО RAID1 ! Помогите, пожалуйста решить эту проблему!

Re: SuSe 9.3 и SATA RAID

Намекаю — это херовый софтварный бюджетный райд с мордой в биосе.
Если надо зеркало — используй софтварный LinuxRaid.
Тем более на сервере.

Re: SuSe 9.3 и SATA RAID

Прошу прощение за свою тупость, но не подскажете как это сделать. Или ссылочку на доку (желательно по-русски). Заранее благодарен.

Re: SuSe 9.3 и SATA RAID

При установке выбирай RAID

Re: SuSe 9.3 и SATA RAID

Да, уж. Особенно много там написано про RAID. Может еще кто-то что-то посоветует?

Re: SuSe 9.3 и SATA RAID

Ну блин. Что там сложного?
Технолонию райдов знаешь? Нет? Тогда читай Software-RAID-HOWTO и Multi-Disk-HOWTO
Тебе нужен RAID1, т.е. зеркало.
Ну и объединяй 2 диска в один на программном уровне.
Неужели сложно потыкать мышкой по инсталлятору, который по-русски пишет.
И эти люди ставят сервера. докатились.

Читайте также:  Установка бсз на тмз

Re: SuSe 9.3 и SATA RAID

Я делаю так: Создаю два одинаковых раздела на разных винтах, затем обьединяю в рейд.

Есть еще пару вопросов: swap надо включать в рейд или нет?

почему LED винтов постоянно горит?

И эти люди уже 15 лет работают за компами, начиная с ДВК-2 и Искры-226. Так, что знания имеются в разных областях компутерной техники. А как гласит народная мудрость — человек не может всего знать. «Век живи — век учись!». И еще, гордыня является смертельным грехом.

Re: SuSe 9.3 и SATA RAID

> Создаю два одинаковых раздела на разных винтах, затем обьединяю в рейд.
Именно!
swap не надо объединять(да и не получится). Ещё такой трик — при большом количестве свопа, его лучше разбить на разделы по 2 гига.
Т.е. : Знаю, что разбил криво(не делал разделение на /usr /var и т.д.), но пофиг пока 🙂

источник

Загрузка Linux с корнем на RAID

Для того, чтобы загрузить ядро linux с корневой файловой системой лежащей на RAID-массиве нужно передать ядру следующие параметры (рабочий пример для Grub). Значимыми для нас опциями являются первая и вторая строка параметров.
title Gentoo Linux 3.0.8 Hardened
kernel (hd0,0)/linux-3.0.8-hardened/linux \
root=/dev/md0 \
md=0,/dev/sda1,/dev/sdc1 \
rootfstype=ext4 \
rootflags=nodelalloc,data=ordered,journal_checksum,barrier=1,acl,user_xattr \
panic=15 \
vga=792

Значения параметров:
1. root=/dev/md0 задает имя файла устройства с корневой ФС.
2. md=0,/dev/sda1,/dev/sdc1
На этом параметре хотелось бы остановиться подробнее. Он имеет следующий формат:
md=md_device_number,raid_level,chunk_size_factor,fault_level,dev0,dev1. devn

  • md_device_number — номер md-устройства. Например, 0 означает /dev/md0, 1 это /dev/md1. Прошу обратить внимание — это именно НОМЕР устройства, а не количество дисков входящих в массив, как иногда встречается в описаниях в Сети.
  • raid_level — уровень RAID. Является обязательным для линейного режима (значение -1) и RAID-0 (значение 0). Для остальных типов массивов информация берётся из суперблока и это значение должно быть опущено.
  • chunk_size_factor — задает размер чанка. Минимальное значение 4кб (4k).
  • fault_level — насколько я понял из документации, этот параметр игнорируется драйвером MD (нафига тогда предусматривали?)
  • dev0. devn — список устройств, входящих в массив.

Есть еще один важный момент. В документации заявлено, что драйвер поддерживает версии суперблока 0.90.0 и md-1.
Но загрузится с RAID-1 с версией суперблока 1.2, который создается mdadm по-умолчанию у меня не получилось. Пришлось пересоздавать массив с версией 0.90.0, после чего загрузка прошла успешно. Возможно, в виду имелась поддержка версии 1.0, за исключением версий 1.1 и 1.2.
Создать массив с суперблоком версии 0.90 можно указав mdadm ключ —metadata=0.90, например так:
$ mdadm —create /dev/md0 -n 2 -l 1 —metadata=0.90 /dev/sd[ac]1

Если массив уже создан, но суперблок имеет версию 1.2, изменить его на версию 0.90 можно только создав новый массив указанной выше командой, и перенеся данные со старого массива на новый. Т.е. бэкап данных ОБЯЗАТЕЛЕН!
Сейчас объясню почему. Я специально проверил возможность замены суперблока с 1.2 на 0.90 без потери данных на тестовом массиве. Забегая наперед скажу, что такой возможности нет. Во всяком случае у меня не получилось. Если знаете как это сделать — расскажите, буду признателен.
Теоретически, как можно было бы подумать, можно затереть суперблок командой:

#. Не выполняйте следующие две команды на реальном массиве. Это пример .
$ mdadm —zero-superblock /dev/sd[ac]1

и создать новый массив без синхронизации дисков (—assume-clean), но версии 0.90 командой:
$ mdadm —create /dev/md0 —assume-clean -n 2 -l 1 —metadata=0.90 /dev/sd[ac]1

Это работает. Массив создается, таблица разделов остается (на массиве был создан один раздел с ext4), но файловая система (ext4) созданная ранее (до очистки суперблоков) отказывается монтироваться, ругаясь на поврежденный суперблок. После сравнения суперблоков этой ФС в массивах v1.2 и v0.90 оказывается что они различаются. Причем не сохраняется ни главный, ни резервные суперблоки (в 1 блоке и в 8193). Таким образом даже команда
$ mount -o sb=8193,nocheck -t ext4 /dev/md0 /mnt/test

не спасёт. Т.е. для Ваших данных смена версии суперблока RAID-массива прошла х… В общем, плохо.

Поэтому лучше, и главное — безопаснее, создать новый массив и перенести данные на него.
К слову сказать, восстановление поврежденного суперблока той же версии (допустим был массив с версией 1.2, и восстанавливаете Вы поврежденный суперблок той же версии) двумя приведенными выше командами работает великолепно и данные остаются в порядке. Благодаря ключу —assume-clean, который создает только новые суперблоки на каждом диске массива, а сами данные не трогает.

источник

Добавить комментарий