[Eisfair] Problem mit Softraid oder ist es ein HW Problem?

Helmut Backhaus helmut.backhaus at gmx.de
So Nov 19 21:17:37 CET 2017


Am 17.11.2017 um 17:34 schrieb Marcus Roeckrath:
> Hallo Helmut,
> 
> Helmut Backhaus wrote:
> 
>> man mag es ja kaum glauben. Jetzt war über ein halbes Jahr Ruhe!
>> Ich hatte echt gedacht, das dieses Thema durch ist!!!
> 
> Hatten wir nicht dazu geraten, diese Platten zu ersetzen?

Ja ne, verblieben waren wir doch so das ich die Platten noch einmal neu
partitionieren soll und dann mal sehen was passiert!

Danach ist 6,5 Monate nichts mehr passiert!!
Das verstehe ich nicht!

> 
>> Jetzt habe ich vorgestern einen Kernel- und XEN-Update gemacht ...
> 
> Was dir das RAID nicht kaputtmacht.

Sehe ich auch so.
Ich wollte es nur erwähnen.

> 
>> Heute fällt mir auf, dass meine Raid wieder hängt :-((
>>
>> Ich habe jetzt weiter noch nichts gemacht, außer das hier:
>> xen-cel [~]# cat /proc/mdstat
>> Personalities : [raid6] [raid5] [raid4]
>> md3 : active raid5 sdd4[2] sde4[4] sdc4[1] sdb4[0]
>>       1464781824 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
>> [UUUU]
>>       bitmap: 0/4 pages [0KB], 65536KB chunk
>>
>> md2 : active raid5 sdd3[2] sde3[4] sdc3[1] sdb3[0]
>>       1464734208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
>> [UUUU]
>>       bitmap: 0/4 pages [0KB], 65536KB chunk
>>
>> md1 : active raid5 sdd2[2](F) sde2[4](F) sdc2[1] sdb2[0]
>>       1464734208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/2]
>> [UU__]
>>       bitmap: 1/4 pages [4KB], 65536KB chunk
>>
>> md0 : active raid5 sdd1[2](F) sde1[4](F) sdc1[1] sdb1[0]
>>       1464709632 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/2]
>> [UU__]
>>       bitmap: 1/4 pages [4KB], 65536KB chunk
>>
>> Und siehe da wieder die Üblichen verdächtigen ...
>>
>> Was kann ich jetzt noch machen bevor ich das ganze wieder in Betrieb
>> nehme.
> 
> Bei RAID-Level 5 sind 2 von 4 Platten IMHO zu wenig für eine Rekonstruktion.

Das ist wohl so, dass habe ich so auch gelesen!
Aber warum steigen IMMER gleich 2 Platten aus?
Und warum IMMER zwei MD's?

Das verstehe ich nicht ...

> 
> Wie hast Du das RAID damals wieder zum Laufen gebracht; vielleicht hilfts ja
> jetzt auch und dann sofort ein Backup von md1 und md0 (was ist da drauf)
> und die beiden "defekten" Platten nacheinander ersetzen und ... beten.
> 

Na ja, mit beten hat das nichts zu tun. Das hatte ich mal irgend wo gelesen.

Als in diesem Zustand kann ich diese beiden md's nicht mehr anfassen
weil sie blockiert sind. Also ein Reboot, dann hagelt es Fehlermeldungen
die eben besagen, dass auf dies Laufwerke (Über dem Raid liegen
LV-Gruppen) nicht zugegriffen werden kann. Wenn das durch ist, mache ich
folgendes:
(Beistpiel für md1)
mdadm --stop /dev/md1
mdadm -A --force /dev/md1 /dev/sd[bcde]2

Das gleiche mache ich dann auch mit md0 ...

Und nach ein paar Minuten ist ein:
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md3 : active raid5 sdc4[1] sde4[4] sdd4[2] sdb4[0]
      1464781824 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
[UUUU]
      bitmap: 0/4 pages [0KB], 65536KB chunk

md2 : active raid5 sdc3[1] sde3[4] sdd3[2] sdb3[0]
      1464734208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
[UUUU]
      bitmap: 0/4 pages [0KB], 65536KB chunk

md1 : active raid5 sdc2[1] sde2[4] sdd2[2] sdb2[0]
      1464734208 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
[UUUU]
      bitmap: 1/4 pages [4KB], 65536KB chunk

md0 : active raid5 sdc1[1] sde1[4] sdd1[2] sdb1[0]
      1464709632 blocks super 1.2 level 5, 512k chunk, algorithm 2 [4/4]
[UUUU]
      bitmap: 1/4 pages [4KB], 65536KB chunk

unused devices: <none>

Man sieht, es ist alles wieder ok ...
Dann noch mal ein Reboot und alle meine Maschinen starten wieder wie
gewohnt!

@Marcus:
Das dd Kommando Richtung null läuft immer noch ;)
Gehört das so?

-- 
Gruß,
Helmut



Mehr Informationen über die Mailingliste Eisfair