[Eisfair_dev] [eisfair-1] mdadm - RAID management

Fabian Törner toerner at gmx.net
Mo Jan 2 18:05:08 CET 2012


Hallo Holger,

Am 05.10.2011 23:37, schrieb Holger Bruenjes:

> Ich habe das Paket um die eisfair Skripte ergaenzt.
>
> Somit laesst sich nun der RAID-Verbund auch ueberwachen.
>
> Die Ereignisse koennen ins Syslog (/var/log/messages) geschrieben werden
> oder per E-mail uebermittelt werden, dafuer ist dann ein smtp Dienst
> erforderlich.

Super vielen Dank für die Arbeit!
Als kurze Rückinfo dazu möchte ich noch sagen, dass die raidtools auch 
mit mdadm funktionieren und andersrum!

Zur Erklärung, ich hatte heute mal wieder einen Totalausfall :( *kotz*
Eine Platte war am sterben und ich wollte diese austauschen. Also Kiste 
runter gefahren alte Platte raus neue Platte rein soweit so gut, beim 
resyncen ist mir dann noch eine weitere Platte abgeschiert *Horrorzenario*

Ich alles mögliche versucht, auch meinen liebgewonnenen Befehl "mkraid 
--really-force --dangerous-no-resync /dev/md0" leider ohne Erfolg. Raid 
wurde nicht neu initalisiert.

cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] 
[raid4] [raid10]
md0 : inactive sda1[1] sdb1[3]
2930271872 blocks

die beiden anderen Platten waren also raus aus dem Verbund. Ich die neue 
Platte wieder abgeklemmt und mir gedacht ok, die viert stirbt zwar 
langsam aber darauf sind ja noch (evtl. ) wichtige Informationen um das 
raid wieder zu initalisieren. Es hat sich zwischenzeitlich rausgestellt, 
dass ein Kabel wohl das Ausklinken der zweiten Platte verursacht hatte :(

Dann habe ich google befragt und dort eine Lösung mit mdadm gefunden.
OK dachte ich mir meine letzte Rettung -> mdadm ist ja die 
Weiterentwicklung von den raidtools mal schauen ob mdadm auch Infos von 
den Platten lesen kann welche von den raidtools erzeugt wurden und siehe 
da es geht :)

--- [schnipp] ---

eis # mdadm -E /dev/sdd1
/dev/sdd1:
           Magic : a92b4efc
         Version : 0.90.03
            UUID : 5b7ff282:491e8cf8:13085aae:b189b163
   Creation Time : Mon Sep 27 18:05:34 2010
      Raid Level : raid5
   Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
      Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
    Raid Devices : 4
   Total Devices : 4
Preferred Minor : 0

     Update Time : Thu Oct  6 17:04:59 2011
           State : clean
  Active Devices : 4
Working Devices : 4
  Failed Devices : 0
   Spare Devices : 0
        Checksum : 4dfad05 - correct
          Events : 4824

          Layout : left-symmetric
      Chunk Size : 64K

       Number   Major   Minor   RaidDevice State
this     3       8       49        3      active sync   /dev/sdd1

    0     0       8        1        0      active sync   /dev/sda1
    1     1       8       17        1      active sync   /dev/sdb1
    2     2       8       33        2      active sync   /dev/sdc1
    3     3       8       49        3      active sync   /dev/sdd1
eis # mdadm -E /dev/sdc1
/dev/sdc1:
           Magic : a92b4efc
         Version : 0.90.03
            UUID : 5b7ff282:491e8cf8:13085aae:b189b163
   Creation Time : Mon Sep 27 18:05:34 2010
      Raid Level : raid5
   Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
      Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
    Raid Devices : 4
   Total Devices : 2
Preferred Minor : 0

     Update Time : Thu Oct  6 22:21:01 2011
           State : active
  Active Devices : 2
Working Devices : 2
  Failed Devices : 1
   Spare Devices : 0
        Checksum : 4dfe4b3 - correct
          Events : 5025

          Layout : left-symmetric
      Chunk Size : 64K

       Number   Major   Minor   RaidDevice State
this     2       8       33        2      active sync   /dev/sdc1

    0     0       0        0        0      removed
    1     1       8       17        1      active sync   /dev/sdb1
    2     2       8       33        2      active sync   /dev/sdc1
    3     3       0        0        3      faulty removed
eis # mdadm -E /dev/sdb1
/dev/sdb1:
           Magic : a92b4efc
         Version : 0.90.03
            UUID : 5b7ff282:491e8cf8:13085aae:b189b163
   Creation Time : Mon Sep 27 18:05:34 2010
      Raid Level : raid5
   Used Dev Size : 1465132800 (1397.26 GiB 1500.30 GB)
      Array Size : 4395398400 (4191.78 GiB 4500.89 GB)
    Raid Devices : 4
   Total Devices : 2
Preferred Minor : 0

     Update Time : Thu Oct  6 22:21:01 2011
           State : active
  Active Devices : 2
Working Devices : 2
  Failed Devices : 1
   Spare Devices : 0
        Checksum : 4dfe4a1 - correct
          Events : 5025

          Layout : left-symmetric
      Chunk Size : 64K

       Number   Major   Minor   RaidDevice State
this     1       8       17        1      active sync   /dev/sdb1

    0     0       0        0        0      removed
    1     1       8       17        1      active sync   /dev/sdb1
    2     2       8       33        2      active sync   /dev/sdc1
    3     3       0        0        3      faulty removed

--- [schnapp] ---

man sieht bei den letzten beiden ganz gut wo es hackt.
Auf der einen Platte sind noch 4 Platten und bei den anderen beiden nur 
noch die zwei selbst.

Dann habe ich etwas mit mdadm versucht, was mit den raidtools nicht 
geklappt hat, evtl. habe ich auch nicht den richtigen Befehl 
gefunden/versucht.

Dieses hat nicht geklappt:

raidhotadd /dev/md0 /dev/sda1

Dass hat geklappt:

mdadm --add /dev/md0 /dev/sda1

Das Ergebnis sieht bisher vielversprechend aus:

--- [schnipp] ---

eis # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] 
[raid4] [multipath]
md0 : inactive sdd1[3] sda1[0] sdb1[1] sdc1[2]
       5860534336 blocks

unused devices: <none>
eis # mdadm --run /dev/md0
mdadm: started /dev/md0
eis # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] 
[raid4] [multipath]
md0 : active raid5 sdd1[3] sda1[0] sdb1[1] sdc1[2]
       4395398400 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
       [>....................]  resync =  0.0% (425472/1465132800) 
finish=344.2min speed=70912K/sec

unused devices: <none>

--- [schnapp] ---

Die Daten sind nach einem manuellem mount auch wieder verfügbar welche 
sich auf den Platten befinden *freu*

Was ich damit sagen will, wer möchte kann sein raid auch mit mdadm 
starten lassen und verwalten ;)
Außerdem bietet mdadm viel mehr Möglichkeiten bei der Fehlerbehebung und 
Fehlersuche. Es wird viel mehr von den Platten ausgelesen und man hat 
mehr Möglichkeiten etwas gerade zu biegen!

Passte irgendwie zum Topic und irgendwie auch nicht ;)

Viele Grüße
Fabian


Mehr Informationen über die Mailingliste Eisfair_dev