Меню Рубрики

Установка grub аппаратный raid

Установка grub на RAID

Подскажите. Никак не получается. Главная загвоздка в том что в grub свой синтаксис именования дисков: (hd0) вместо /dev/hda, (hd1) вместо /dev/hdb. А у меня RAID как /dev/mapper/nvidia_bdebffcf

это RAID1? (на другие загрузчик не встанет)

используете dm-mapper?
Есть дуалбут? Если нет — лучше было бы воспользоваться mdadm, а не dm-mapper. Разницы нет, так как raid не аппаратный, однако работает гораздо лучше и прямее. Соответственно и установить загрузчик будет проще.

Гружусь с LiveCD, раздел с линуксом (ASP Linux пока что) монтирую как /mnt/asplinux, перехожу в него (chroot /mnt/asplinux), перехожу в /boot/grub, делаю grub-install /dev/mapper/nv >

и как вы думаете grub должен находить и склеивать куски вашего RAID0? Конечно grub2 могуч, не настолько. До включения RAID, firefox и skype прямо в загрузчик ещё далеко :). RAID1 он может обрабатывать только потому что можно на тот факт что это RAID забить и читать только с одного зеркала.

и как вы думаете grub должен находить и склеивать куски вашего RAID0?

Я думал, что куски в RAID склеивает BIOS, а загрузчик всё-таки выполняется после биоса, стало быть RAID видеть должен.

Вы мне скажите лучше, что я делать должен, чтобы загрузка у меня заработала всё-таки.

У меня то же самое, только Intel ICH RAID0. С grub2 не завелся, а grub1 — нормально. Я кажись редактировал /boot/grub/device.map чтобы (hd0) был /dev/mapper/blah_blah_blah_RAID0

так у тебя железный или софтовый RAID? В любом случае grub устанавливается командой «grub-install /dev/device», и ему наплевать на файл /boot/grub/device.map. Я честно говоря вообще не понимаю зачем этот файл нужен. Нумерация дисков BIOS’ом (т.е. назначение имён hd0,hd1. ) происходит ещё до чтения этого файла, поэтому на загрузку он никак не влияет. А отдельные разделы надо идентифицировать не как (hd0,2) а по GUID.

IMHO, за raid0 на /boot просто руки отрывать надо, а не советы давать.

Железный. На чипсете GeForce6100

это RAID1? (на другие загрузчик не встанет)

не слушай этого автора, он бредит.
Просто почитай мануал к грабу, на твой чипсет нормально все встает, у меня у самого рейд на матери нвидия, правда сейчас я зеркало использую, но и на стрип (нулевой) разумеется все вставало нормально.

Железный. На чипсете GeForce6100

Хотя поясню небольшим дополнением — когда я был неразумен и использовал RAID0 для системного раздела и хомяка, это было в общем несколько лет назад, и тогда делалось конечно же первым грабом. А второй граб может просто не научился еще (хз, он какой то сыроватый, имхо).

Кстати, ты рейд0 зачем используешь, из экономии места или ради скорости ?
Если юзать рейд1 то на чтение скорость будет тоже паралелиться, в мультизадачной ОС. т.е. с разных дисков разными процессами раскидывает (не вдавался что именно это делает, но проверял и это так).

А линейное чтение одного файла одним процессом конечно будет на рейд0 быстрее, а уж запись тем более. Но / и /home и прочее стремно держать все же, если данные ценные хранятся (ну например фотки, или если кодишь ченить, короче бэкапить надо чаще куда нить).

У меня вот диски хитачи и есть УПС но все равно решил перейти на рейд1, а в дальнейшем хочу на рейд6 даже, но пока денег жалко.

Зачем дома raid1? От бэкапов он не спасает, а аптаймы в домашних условиях не слишком важны.

Что бы важная информация не грохнулась тем кто не любит делать бэкапы.
А еще система быстрее работает (заметно ускоряется запуск программ, короче все те вещи которые на чтение).
Ну у меня компьютер еще не просто так, а я на нем работаю, поэтому мне важна стабильность, поэтому рейд и упс обязателен (а сейчас это недорого выходит, кста)

>Что бы важная информация не грохнулась тем кто не любит делать бэкапы.
rm -rf /*
И как raid1 от этого защитит? (^_^)
В общем, бэкапы — неизбежность.

А еще система быстрее работает

raid0 даёт ещё более быструю систему.

И как raid1 от этого защитит?

Че ты пристал то ? %-)
А как защитит бронежелет от винтовки хорошей ? Или если по тебе танк проедет ?
Про рейд0 то в принципе да, но на / актуальнее все таки с защитой.

Читайте также:  Установка ворот для забора из профлиста

>Че ты пристал то ?
Просто мне надоел популярный миф о том что с raid* бэкапы становятся ненужными.

У вас явно не железный raid.
Иначе linux видел бы обычный /dev/sd*, а не через device-mapper.

Просто мне надоел популярный миф о том что с raid* бэкапы становятся ненужными.

А кто это утверждает ? А даже если есть такие — тебе не пофиг ли ? Рейды и бэкапы — вообще разные вещи, которые прекрасно друг друга дополняют, поэтому не нужно здесь максимализма «или или»

>У вас явно не железный raid.
У него fake-raid. Дёшево и сердито. Да и быстрее чем настоящий железный.
Из преимуществ над полностью софтовым: можно поставить винду внутрь него.

У вас явно не железный raid.
Иначе linux видел бы обычный /dev/sd*, а не через device-mapper.

А для железного плата контроллера нужна?

Вобщем это мне очередной урок (не в первый раз кстати) что нужно учить матчасть, а не слушать продавцов. Зашёл, чтобы купить как раз плату контроллера и два жёстких диска, но продавец сказал зачем мне контроллер когда все современные мамы идут со встроенным. Старая то дисковая подсистема состоявшая из одного Seagate Barracuda скоропостиженно скончалась из-за чего и был совершён этот поход в компбютерный магаз, к тому же в старом компе был блок питания в стабильности которого я сомневался и мать несовместимая с линуксом. Вобщем ушёл с новым системником. А конфа такая: AMD ATHLON 2 X2 240 / 2 Gb DDR2 / MB ElitGroup Geforce6100PM-M2 V3.0 / RAID0 (stripe) WD2500AAJS 250Gb x2 / DVD-RW SATA

Полностью аппаратный — исключительно отдельный контроллер. Стоит от нескольких сот долларов. В мамки полностью аппаратных контроллеров не ставят.

fake-raid быстрее чем настоящий аппаратный?
Вы где такое прочитали?

На самом деле разница между fake-raid и софтовым только в том, что с fake-raid умеет работать винда. Если у человека не дуалбут — проще переключить контроллер в режим ahci (скорее всего он умеет так работать) и собирать raid средствами mdadm.

>Зашёл, чтобы купить как раз плату контроллера и два жёстких диска, но продавец сказал зачем мне контроллер когда все современные мамы идут со встроенным.
И правильно сказал. Сносные хардварные контроллеры стоят слишком много. А преимуществ перед софтовыми у них почти нет.

>fake-raid быстрее чем настоящий аппаратный?
Даже больше скажу: soft-raid быстрее чем настоящий аппаратный. За исключением решений с астрономической ценой.
Очевидная причина: CPU гораздо быстрее чем встроенный в контроллер процессор. Для кэша прекрасно подходит оперативная память (кстати, сколько там стоит лишний кэш в хардварных ra >

собирать raid средствами mdadm

Это можно сделать и с дуалбутом. Только винда будет вне рэйда.

На счёт производительности — вопрос спорный. Нужно тестировать. Из того с чем я работал — аппаратный был быстрее, правда потом умер контроллер, и теперь там работает soft-raid. Слава бэкапам)
Астрономическая цена для вас начинается с какого значения?
Вообще, хороший аппаратный raid — решения явно не для дома, так что, вопрос цены там стоит не так остро.

>На счёт производительности — вопрос спорный. Нужно тестировать.
Топикстартер уже выложил свой конфиг.

AMD ATHLON 2 X2 240 / 2 Gb DDR2

Сколько будет стоит контроллер, способный работать быстрее чем это?)
Хотя памяти маловато, но на дисковой кэш хватит если не слишком забивать её.

источник

Как правильно установить Ubuntu на RA >

Доброго времени суток всем. Столкнулся с проблемой при установке Ubuntu на SuperServer 1028R-WTRT. В принципе уже найдено два рабочих решения, но хочется спросить совета community — как все же правильнее и оптимальнее. Имеется платформа SuperServer 1028R-WTRT с MB X10DRW-iT. Задача — настроить RAID1 (mirror) используя встроенный C610/X99 series chipset sSATA контроллер в RAID MODE, либо софтовый RAID в самой Ubuntu (mdadm). Проблема заключается в следующем, если использовать авторазметку диска и в том и в другом случае, получаем либо черный экран с курсором после установки, либо выпадение в grub / grub rescue в зависимости от варианта установки. Что-то подобное уже было описано здесь — Как запустить Ubuntu Server c Supermicro Intel Raid 10? .

Путем различных экспериментов было найдено два рабочих решения:

Читайте также:  Установка гбо тойота хайлендер отзывы

1. Создаем RAID1 массив средствами контроллера:

2. Используем загрузку в UEFI. При установке Ubuntu RAID видится как отдельное устройство:

3. Размечаем устройство вручную, создавая один раздел ext4 с точкой монтирования / . Т.е. без ESP и swap разделов.

После этого все успешно загружается. Если дать установщику разметить устройство самостоятельно, т.е. с созданием ESP, ext4 (/) и swap — то после reboot’а получаем мигающий курсор, так как описано здесь. Решение не размещать swap на RAID подсмотрено там. Представленный вариант рабочий, но хочется услышать мнение All, жизнеспособна ли такая конфигурация без swap’а на боевом сервере? Или все-таки стоит создать потом swap в виде файла подкачки в уже работающей системе? На сервере 96 Gb RAM.

С софтовым RAID в Ubuntu пришлось поковыряться. Пробовались различные варианты загрузки и в UEFI, и с Legacy BIOS. В основном проблема сводится к невозможности установить GRUB на этапе установки, или опять же с невозможностью загрузки с получившегося RAID’а:

Правдами и неправдами при софтовом RAID’е был найден следующий вариант разметки (проверялось на UEFI):

Т.е. вначале размечаем оба диска как обычно, с созданием ESP, ext4 (/) и swap. Все это происходит через несколько перезагрузок, затем меняем тип раздела ext4 (/) на linux-raid на обоих дисках. Затем создаем из двух разделов linux-raid софтварный RAID и в нем уже ext4 (/) раздел. После этого и grub устанавливается нормально и нормально происходит загрузка с одного диска (для того чтобы грузилось и со второго — понятно что надо просто ESP склонить на другой диск). Вариант рабочий, но опять же кажется не особенно правильным.

В связи с чем вопрос — может у кого-то есть подобная платформа в эксплуатации. Какой вариант вы бы использовали, описанный в решении #1 или #2? Возможно у вас есть какая-то рабочая конфигурация, которая окажется более «грамотной» и «отказоустойчивой». Буду рад любым советам и предложениям.

источник

Не могу установить Grub на программный ra > centos, grub, mdadm, raid, кривые руки

Доброго времени суток. Пытаюсь поставить grub на програмный Ra >

Гугл по ошибке подсказал что такое бывает: 1)Если раздел был отформатирован с 256-битными inode. Исправил, не помогло:

В общем идеи кончились, прошу помощи! заранее спасибо)

Как ни странно, проблема не в руках. Если не хочешь проблем, то в RHEL 6 лучше не толкать /boot на RAID. Либо использовать GRUB2. GRUB 0.9x в принципе не сможет понять том массива с суперблоком в начале (1.2).

Это зеркальный рейд. Для /boot делается отдельный раздел и grub ставится на каждый диск отдельно. Зачем буту зеркало?

Начинается загрузка, вываливает

Вы указали в параметрах, передаваемых ядру и в /etc/fstab новый корень ?

grub загружает initramfs? md-устройства собираются?

Там среди сообщений перед

И из boot-строки ядра нужно убрать параметры «rhgb» и «quiet», чтобы видеть текстовые сообщения от ядра, а не красивую картинку.

Как ни странно, проблема не в руках. Если не хочешь проблем, то в RHEL 6 лучше не толкать /boot на RAID.

Отлично работает. На домашней тачке так юзаю, правда не rhel, a centos. Даже больше скажу — поверх RAID накатил LVM. Единственный нюанс — в LVM не должен быть /boot

при загрузке приглашение GRUB появляется?

Да паника сразу, ничего не вижу

Я, например, когда дома ставился, у меня тоже не взлетело — неправильно автоматом был сконфигурен grub. я редактировал в загрузчике диск (hdX,Y), на котором находилось ядро. Надо было вроде вписать (hd2,1), только у меня разметка чуть не такая как у тебя. В общем я с цифрами поигрался 10 минут и заработало. Исправил конфиг grub и все. initramfs не трогал. в ядро ничего не добавлял — свежая установка.

Попробуйте добавить к строке параметров ядра rootwait, вроде как это должно отложить панику и позволить прокручивать экран с сообщениями ядра.

Делал по руководству из centos wiki? Тогда попробуй удалить из массива один диск — в 6.3 после этого ломалась загрузка. И официально такая конфигурация не поддерживается.

Попробуй grub2. Я теперь не имею проблем с grubом2 на любом диске зеркала. На Debiane подсказал бы.

Делал по руководству из centos wiki?

Нет, у меня своя конфигурация. Литературой пользуюсь на access.redhat.com

Тогда попробуй удалить из массива один диск — в 6.3 после этого ломалась загрузка.

Пробовал, комп загружался (если конечно разрешена загрузка с деградировавшего raid). Такую вещь и на серваках делал. Просто загрузчик на оба винта ставишь. Принципиально загрузиться можно и с другого носителя если случилась беда, а загрузчик был установлен лишь на один диск.

И официально такая конфигурация не поддерживается.

Если все еще актуально, то при создании ra >

Читайте также:  Установка бзс на яву 638

mdadm —create —metadata=0.90 —level=1 —ra >

так же в grube необходимо указать следующее

title CentOS (2.6.32-358.23.2.el6.x86_64) hd1 root (hd0,0) kernel /boot/vmlinuz-2.6.32-358.23.2.el6.x86_64 ro root=/dev/md0 nomodeset rd_NO_LUKS KEYBOARDTYPE=pc KEYTABLE=us LANG=en_US.UTF-8 SYSFONT=latarcyrheb-sun16 crashkernel=auto rd_NO_LVM rd_NO_DM rhgb quiet initrd /boot/initramfs-2.6.32-358.23.2.el6.x86_64.img

Попробуй размер бута меньше 500 метров — хоть 499

источник

Загрузка Linux с корнем на RAID

Для того, чтобы загрузить ядро linux с корневой файловой системой лежащей на RAID-массиве нужно передать ядру следующие параметры (рабочий пример для Grub). Значимыми для нас опциями являются первая и вторая строка параметров.
title Gentoo Linux 3.0.8 Hardened
kernel (hd0,0)/linux-3.0.8-hardened/linux \
root=/dev/md0 \
md=0,/dev/sda1,/dev/sdc1 \
rootfstype=ext4 \
rootflags=nodelalloc,data=ordered,journal_checksum,barrier=1,acl,user_xattr \
panic=15 \
vga=792

Значения параметров:
1. root=/dev/md0 задает имя файла устройства с корневой ФС.
2. md=0,/dev/sda1,/dev/sdc1
На этом параметре хотелось бы остановиться подробнее. Он имеет следующий формат:
md=md_device_number,raid_level,chunk_size_factor,fault_level,dev0,dev1. devn

  • md_device_number — номер md-устройства. Например, 0 означает /dev/md0, 1 это /dev/md1. Прошу обратить внимание — это именно НОМЕР устройства, а не количество дисков входящих в массив, как иногда встречается в описаниях в Сети.
  • raid_level — уровень RAID. Является обязательным для линейного режима (значение -1) и RAID-0 (значение 0). Для остальных типов массивов информация берётся из суперблока и это значение должно быть опущено.
  • chunk_size_factor — задает размер чанка. Минимальное значение 4кб (4k).
  • fault_level — насколько я понял из документации, этот параметр игнорируется драйвером MD (нафига тогда предусматривали?)
  • dev0. devn — список устройств, входящих в массив.

Есть еще один важный момент. В документации заявлено, что драйвер поддерживает версии суперблока 0.90.0 и md-1.
Но загрузится с RAID-1 с версией суперблока 1.2, который создается mdadm по-умолчанию у меня не получилось. Пришлось пересоздавать массив с версией 0.90.0, после чего загрузка прошла успешно. Возможно, в виду имелась поддержка версии 1.0, за исключением версий 1.1 и 1.2.
Создать массив с суперблоком версии 0.90 можно указав mdadm ключ —metadata=0.90, например так:
$ mdadm —create /dev/md0 -n 2 -l 1 —metadata=0.90 /dev/sd[ac]1

Если массив уже создан, но суперблок имеет версию 1.2, изменить его на версию 0.90 можно только создав новый массив указанной выше командой, и перенеся данные со старого массива на новый. Т.е. бэкап данных ОБЯЗАТЕЛЕН!
Сейчас объясню почему. Я специально проверил возможность замены суперблока с 1.2 на 0.90 без потери данных на тестовом массиве. Забегая наперед скажу, что такой возможности нет. Во всяком случае у меня не получилось. Если знаете как это сделать — расскажите, буду признателен.
Теоретически, как можно было бы подумать, можно затереть суперблок командой:

#. Не выполняйте следующие две команды на реальном массиве. Это пример .
$ mdadm —zero-superblock /dev/sd[ac]1

и создать новый массив без синхронизации дисков (—assume-clean), но версии 0.90 командой:
$ mdadm —create /dev/md0 —assume-clean -n 2 -l 1 —metadata=0.90 /dev/sd[ac]1

Это работает. Массив создается, таблица разделов остается (на массиве был создан один раздел с ext4), но файловая система (ext4) созданная ранее (до очистки суперблоков) отказывается монтироваться, ругаясь на поврежденный суперблок. После сравнения суперблоков этой ФС в массивах v1.2 и v0.90 оказывается что они различаются. Причем не сохраняется ни главный, ни резервные суперблоки (в 1 блоке и в 8193). Таким образом даже команда
$ mount -o sb=8193,nocheck -t ext4 /dev/md0 /mnt/test

не спасёт. Т.е. для Ваших данных смена версии суперблока RAID-массива прошла х… В общем, плохо.

Поэтому лучше, и главное — безопаснее, создать новый массив и перенести данные на него.
К слову сказать, восстановление поврежденного суперблока той же версии (допустим был массив с версией 1.2, и восстанавливаете Вы поврежденный суперблок той же версии) двумя приведенными выше командами работает великолепно и данные остаются в порядке. Благодаря ключу —assume-clean, который создает только новые суперблоки на каждом диске массива, а сами данные не трогает.

источник

Добавить комментарий