[Eisfair] [E1] Installer vs.?==?utf-8?Q? 3TB HDD & RAID1 > 2TB
Alex
c-fragger at gmx.net
Do Jun 20 16:03:36 CEST 2013
Hallo NG,
ich versuche nun schon seit mehreren Tagen meinem EIS auf neuer Hardware
(VIA C7 1,8GHz / 4GB RAM / SATA_VIA / 2x 3TB WD Black)aufzusetzen.
Eisfair-1 2.3.0 (Kernel 2.6.32-eisfair-1 SMP / Based on 2.6.32.61.
Die vom Installer angebotene Installation mit Einrichtung eines RAID1
wird zwar abgeschlossen, nach dem nötigen Neustart wird ber alles als
"ro" gemountet und bei der Home-Partition ein fehleraftes Dateisystem
angemeckert.
Nachdem ich nun ein Live System gebootet, und eine der beiden
Festplatten
mit gdisk neu partitioniert und anschließend mit ext3 formatiert habe,
werden diese auch vom Installer genutzt.
Partitionen(GPT):
sda1= 64MB ext3 /boot
sda2= 10GB ext3 /root
sda3=~2,7TB ext3 /home
Hierbei werden dann nur /boot und /root bei der Installation
überschrieben.
Nach dem abschließende Neustart funktioniert alles einwandfrei.
Allerdings fördert ein
eis # mount
folgendes zu Tage:
/dev/sda2 on / type ext3
/dev/sda1 on /boot type ext3
/dev/sda3 on /home type ext4
sda3 wurde definitiv mit ext3 formatiert und wird nun als ext4
eingehangen!?
O.K. also in der fstab auf ext3 geändert - Ergebnis: sda3 wird nicht
eingehangen. Also in der fstab den Mountpoint wieder nach ext4
abgeändert -
alles bestens.
Nun wollte ich mit der 2. HD das System auf RAID1 umbauen.
Also mit angeschlossener 2. Platte neu gestartet, mit gdisk die
Partitionstabelle von sda nach sdb geklont, mit mdadm die entsprechenden
md-Devices erstellt (sda dabei als "missing" ausgelassen), md1-3 mit
mkfs.ext3 formatiert, daten von sda1-3 mach md1-3 kopiert, init.rd
angepasst
(/sbin/raidautorun md1/...2/...3), lilo angepasst & ausgeführt ...
Kurzum
die übliche und auch mehrfach beschriebene Vorgehnsweise.
Soweit funktionierte es wie erwartet, leider nur bis zum nächsten
reboot.
md1 (/boot) und md2 (/) wurden erstellt und eingehangen, md3 (/home) gab
es plötzlich nicht mehr. Auch eis # cat /proc/mdstat lieferte
nur Informationen über md1 und md2.
Gut, also md3 noch einmal erstellt, formatiert & eingehangen:
mdadm --zero-superblock /dev/sdb3
mdadm --cerate /dev/md3 --level=1 --raid-devices=2 missing /dev/sdb3
--verbose
mdadm: array /dev/md3 started.
mkfs.ext3 /dev/md3
mount -a
Bestens, md3 wird zwar als ext4 eingehangen aber gut.
Nach einem weiteren reboot:
Wieder nichts ... md3 gibts nicht mehr!
demsg bzw. /var/log/messages vermelden nur lapidar das es dem Kernel
nicht
möglich war md3 zu starten.
md: AutodetectingRAID arrays.
md: invalid raid superblock magic on sdb3
Merkwürdig ist hierbei das "/dev/md/3" für das array md3.
mdadm --examine --scan /dev/sdb1
ARRAY /dev/md1 level=raid1 num-devices=2 UUUID=...
mdadm --examine --scan /dev/sdb2
ARRAY /dev/md2 num-devices=2 UUUID=...
mdadm --examine --scan /dev/sdb3
ARRAY /dev/md/3 level=raid1 metadate=1.0 num-devices=2 UUUID=... name=3
Einziger Unterschied scheint die Version zu sein, zumindest wird die
Größe schon mal richtig erkannt.
mdadm --detail /dev/md1
Version : 0.90
..
mdadm --detail /dev/md2
Version : 0.90
..
mdadm --detail /dev/md3
Version : 1.00
..
Array Size : 2919720252 (2784.46 GiB 2989.79 GB)
Used Dev Size : 2919720252 (2784.46 GiB 2989.79 GB)
..
Nun meine Fragen:
Was mache ich falsch?
oder
Kann es sein, das der 2.6.32 Eis-Kernel RAID-Arrays mit metadata>0.9
nicht starten kann?
oder besser noch
Weiß jemand wie ich ein RAID1 mit ~2,7TB erstellen muß, damit es auch
nach einem reboot noch funktioniert?
Vielen Dank für eure Unterstützung schon mal vorweg ...
Gruß Alex
--
Mail: mailto:c-fragger at gmx.net
Mehr Informationen über die Mailingliste Eisfair