[Eisfair] E-1 Raid1 wollte nicht starten

Kay Martinen kay at martinen.de
Sa Jan 26 19:22:43 CET 2013


Hallo. Ich hätt' da noch ne Frage.

Am 23.01.2013 21:39, schrieb Kay Martinen:
> 
> Hier habe ich evtl. einen fehler gemacht indem ich sdb1 hinzugefügt
> (--manage -a) habe, obwohl sie eigentlich immer noch teil des raid sein
> sollte.
> 
> Es ist auch möglich das ich beim 1. Versuch --assemble oder --build
> verwechselt habe. ???
> 
> Jedenfalls war beim ersten Versuch sdb1 als spare hinzu gefügt worden
> und das raid blieb degraded.
> 
> Einen weiteren Reboot später:
> 
> Beim zweiten versuch hat es dann endlich geklappt, es sind jetzt nicht
> drei (Nr.1,2 plus spare) sondern wie vor nur 2 Platten (Nr.1 und 2) im
> Raid und beide sind nach dem Resync wieder aktiv.
> Merkwürdig finde ich nur das in der Detail-auflistung (-D) hier die sdb1
> erst auch als dritte Platte auftauchte, wobei die 2. die sdb1 eigentlich
> gewesen wäre nach wie vor "removed" war.
> 
> Nach dem Resync wechselte das. sdb1 ist nun wieder die 2. und die 3.
> Position ist leer. Das Raid hatte und es hat jetzt wieder zwei Disks so
> wie vorher.
> 

Ich hatte zudem keine statusmails von mdadm bekommen. Offenbar hatte ich
falsche Stundenangaben im cron-eintrag. Jetzt bekomme ich wieder welche
und...

Dispatched from mdadm Agent on Server 'fileserver'
Current Date: 2013-01-26 Time: 18:01:03

Host            : fileserver
MD Device       :
Event           : Status message

/proc/mdstat dump:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
[raid4] [multipath]
md1 : active raid1 sda1[0] sdb1[1] (mismatch_cnt=0) (NOTE: No hotspare?!)
8956096 blocks [2/2] [UU]

unused devices: <none>


unused none ist ja korrekt weil keine reserve da ist. Aber kann das
Mismatch_cnt / No Hotspare damit zu tun haben wie ich oben vorgegangen
bin. Mir scheint es als ob mdadm irgendwie glaubt da sollte noch eine
platte mehr sein. Sollte es aber nicht!

 Kay



Mehr Informationen über die Mailingliste Eisfair