[Eisfair] [E1] Installer vs.?==?utf-8?Q? 3TB HDD & RAID1 > 2TB

Alex c-fragger at gmx.net
Do Jun 20 16:03:36 CEST 2013


Hallo NG,

ich versuche nun schon seit mehreren Tagen meinem EIS auf neuer Hardware

(VIA C7 1,8GHz / 4GB RAM / SATA_VIA / 2x 3TB WD Black)aufzusetzen. 
Eisfair-1 2.3.0 (Kernel 2.6.32-eisfair-1 SMP / Based on 2.6.32.61. 

Die vom Installer angebotene Installation mit Einrichtung eines RAID1 
wird zwar abgeschlossen, nach dem nötigen Neustart wird ber alles als 
"ro" gemountet und bei der Home-Partition ein fehleraftes Dateisystem 
angemeckert.
Nachdem ich nun ein Live System gebootet, und eine der beiden
Festplatten 
mit gdisk neu partitioniert und anschließend mit ext3 formatiert habe,

werden diese auch vom Installer genutzt. 

Partitionen(GPT):
sda1=  64MB ext3 /boot
sda2=  10GB ext3 /root
sda3=~2,7TB ext3 /home

Hierbei werden dann nur /boot und /root bei der Installation
überschrieben.
Nach dem abschließende Neustart funktioniert alles einwandfrei.
Allerdings fördert ein 
eis # mount 
folgendes zu Tage:

/dev/sda2 on / type ext3 
/dev/sda1 on /boot type ext3 
/dev/sda3 on /home type ext4 

sda3 wurde definitiv mit ext3 formatiert und wird nun als ext4
eingehangen!?

O.K. also in der fstab auf ext3 geändert - Ergebnis: sda3 wird nicht 
eingehangen. Also in der fstab den Mountpoint wieder nach ext4
abgeändert - 
alles bestens.

Nun wollte ich mit der 2. HD das System auf RAID1 umbauen.

Also mit angeschlossener 2. Platte neu gestartet, mit gdisk die 
Partitionstabelle von sda nach sdb geklont, mit mdadm die entsprechenden

md-Devices erstellt (sda dabei als "missing" ausgelassen), md1-3 mit 
mkfs.ext3 formatiert, daten von sda1-3 mach md1-3 kopiert, init.rd
angepasst 
(/sbin/raidautorun md1/...2/...3), lilo angepasst & ausgeführt ...
Kurzum 
die übliche und auch mehrfach beschriebene Vorgehnsweise. 

Soweit funktionierte es wie erwartet, leider nur bis zum nächsten
reboot.
md1 (/boot) und md2 (/) wurden erstellt und eingehangen, md3 (/home) gab

es plötzlich nicht mehr. Auch eis # cat /proc/mdstat  lieferte 
nur Informationen über md1 und md2.

Gut, also md3 noch einmal erstellt, formatiert & eingehangen:
mdadm --zero-superblock /dev/sdb3 
mdadm --cerate /dev/md3 --level=1 --raid-devices=2 missing /dev/sdb3
--verbose 
mdadm: array /dev/md3 started. 
mkfs.ext3 /dev/md3 
mount -a 
Bestens, md3 wird zwar als ext4 eingehangen aber gut.

Nach einem weiteren reboot:
Wieder nichts ... md3 gibts nicht mehr!

demsg bzw. /var/log/messages vermelden nur lapidar das es dem Kernel
nicht 
möglich war md3 zu starten. 
md: AutodetectingRAID arrays. 
md: invalid raid superblock magic on sdb3 

Merkwürdig ist hierbei das "/dev/md/3" für das array md3.  
mdadm --examine --scan /dev/sdb1 
ARRAY /dev/md1 level=raid1 num-devices=2 UUUID=... 
mdadm --examine --scan /dev/sdb2
ARRAY /dev/md2 num-devices=2 UUUID=... 
mdadm --examine --scan /dev/sdb3 
ARRAY /dev/md/3 level=raid1 metadate=1.0 num-devices=2 UUUID=... name=3

Einziger Unterschied scheint die Version zu sein, zumindest wird die 
Größe schon mal richtig erkannt.
mdadm --detail /dev/md1 
Version : 0.90 
..
mdadm --detail /dev/md2 
Version : 0.90 
..
mdadm --detail /dev/md3 
Version : 1.00 
..
Array Size : 2919720252 (2784.46 GiB 2989.79 GB)
Used Dev Size : 2919720252 (2784.46 GiB 2989.79 GB)
..

Nun meine Fragen:
Was mache ich falsch? 
oder 
Kann es sein, das der 2.6.32 Eis-Kernel RAID-Arrays mit metadata>0.9 
nicht starten kann? 
oder besser noch 
Weiß jemand wie ich ein RAID1 mit ~2,7TB erstellen muß, damit es auch

nach einem reboot noch funktioniert?


Vielen Dank für eure Unterstützung schon mal vorweg ...

Gruß Alex
-- 
Mail: mailto:c-fragger at gmx.net
 



Mehr Informationen über die Mailingliste Eisfair