[Eisfair_dev] [eisfair-1] mdadm - RAID management
Fabian Törner
toerner at gmx.net
Mo Jan 2 18:05:08 CET 2012
Hallo Holger,
Am 05.10.2011 23:37, schrieb Holger Bruenjes:
> Ich habe das Paket um die eisfair Skripte ergaenzt.
>
> Somit laesst sich nun der RAID-Verbund auch ueberwachen.
>
> Die Ereignisse koennen ins Syslog (/var/log/messages) geschrieben werden
> oder per E-mail uebermittelt werden, dafuer ist dann ein smtp Dienst
> erforderlich.
Super vielen Dank für die Arbeit!
Als kurze Rückinfo dazu möchte ich noch sagen, dass die raidtools auch
mit mdadm funktionieren und andersrum!
Zur Erklärung, ich hatte heute mal wieder einen Totalausfall :( *kotz*
Eine Platte war am sterben und ich wollte diese austauschen. Also Kiste
runter gefahren alte Platte raus neue Platte rein soweit so gut, beim
resyncen ist mir dann noch eine weitere Platte abgeschiert *Horrorzenario*
Ich alles mögliche versucht, auch meinen liebgewonnenen Befehl "mkraid
--really-force --dangerous-no-resync /dev/md0" leider ohne Erfolg. Raid
wurde nicht neu initalisiert.
cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5]
[raid4] [raid10]
md0 : inactive sda1[1] sdb1[3]
2930271872 blocks
die beiden anderen Platten waren also raus aus dem Verbund. Ich die neue
Platte wieder abgeklemmt und mir gedacht ok, die viert stirbt zwar
langsam aber darauf sind ja noch (evtl. ) wichtige Informationen um das
raid wieder zu initalisieren. Es hat sich zwischenzeitlich rausgestellt,
dass ein Kabel wohl das Ausklinken der zweiten Platte verursacht hatte :(
Dann habe ich google befragt und dort eine Lösung mit mdadm gefunden.
OK dachte ich mir meine letzte Rettung -> mdadm ist ja die
Weiterentwicklung von den raidtools mal schauen ob mdadm auch Infos von
den Platten lesen kann welche von den raidtools erzeugt wurden und siehe
da es geht :)
--- [schnipp] ---
eis # mdadm -E /dev/sdd1
/dev/sdd1:
Magic : a92b4efc
Version : 0.90.03
UUID : 5b7ff282:491e8cf8:13085aae:b189b163
Creation Time : Mon Sep 27 18:05:34 2010
Raid Level : raid5
Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
Raid Devices : 4
Total Devices : 4
Preferred Minor : 0
Update Time : Thu Oct 6 17:04:59 2011
State : clean
Active Devices : 4
Working Devices : 4
Failed Devices : 0
Spare Devices : 0
Checksum : 4dfad05 - correct
Events : 4824
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 3 8 49 3 active sync /dev/sdd1
0 0 8 1 0 active sync /dev/sda1
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 8 49 3 active sync /dev/sdd1
eis # mdadm -E /dev/sdc1
/dev/sdc1:
Magic : a92b4efc
Version : 0.90.03
UUID : 5b7ff282:491e8cf8:13085aae:b189b163
Creation Time : Mon Sep 27 18:05:34 2010
Raid Level : raid5
Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Thu Oct 6 22:21:01 2011
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : 4dfe4b3 - correct
Events : 5025
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 2 8 33 2 active sync /dev/sdc1
0 0 0 0 0 removed
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 0 0 3 faulty removed
eis # mdadm -E /dev/sdb1
/dev/sdb1:
Magic : a92b4efc
Version : 0.90.03
UUID : 5b7ff282:491e8cf8:13085aae:b189b163
Creation Time : Mon Sep 27 18:05:34 2010
Raid Level : raid5
Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
Raid Devices : 4
Total Devices : 2
Preferred Minor : 0
Update Time : Thu Oct 6 22:21:01 2011
State : active
Active Devices : 2
Working Devices : 2
Failed Devices : 1
Spare Devices : 0
Checksum : 4dfe4a1 - correct
Events : 5025
Layout : left-symmetric
Chunk Size : 64K
Number Major Minor RaidDevice State
this 1 8 17 1 active sync /dev/sdb1
0 0 0 0 0 removed
1 1 8 17 1 active sync /dev/sdb1
2 2 8 33 2 active sync /dev/sdc1
3 3 0 0 3 faulty removed
--- [schnapp] ---
man sieht bei den letzten beiden ganz gut wo es hackt.
Auf der einen Platte sind noch 4 Platten und bei den anderen beiden nur
noch die zwei selbst.
Dann habe ich etwas mit mdadm versucht, was mit den raidtools nicht
geklappt hat, evtl. habe ich auch nicht den richtigen Befehl
gefunden/versucht.
Dieses hat nicht geklappt:
raidhotadd /dev/md0 /dev/sda1
Dass hat geklappt:
mdadm --add /dev/md0 /dev/sda1
Das Ergebnis sieht bisher vielversprechend aus:
--- [schnipp] ---
eis # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
[raid4] [multipath]
md0 : inactive sdd1[3] sda1[0] sdb1[1] sdc1[2]
5860534336 blocks
unused devices: <none>
eis # mdadm --run /dev/md0
mdadm: started /dev/md0
eis # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
[raid4] [multipath]
md0 : active raid5 sdd1[3] sda1[0] sdb1[1] sdc1[2]
4395398400 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
[>....................] resync = 0.0% (425472/1465132800)
finish=344.2min speed=70912K/sec
unused devices: <none>
--- [schnapp] ---
Die Daten sind nach einem manuellem mount auch wieder verfügbar welche
sich auf den Platten befinden *freu*
Was ich damit sagen will, wer möchte kann sein raid auch mit mdadm
starten lassen und verwalten ;)
Außerdem bietet mdadm viel mehr Möglichkeiten bei der Fehlerbehebung und
Fehlersuche. Es wird viel mehr von den Platten ausgelesen und man hat
mehr Möglichkeiten etwas gerade zu biegen!
Passte irgendwie zum Topic und irgendwie auch nicht ;)
Viele Grüße
Fabian
Mehr Informationen über die Mailingliste Eisfair_dev