[Eisfair] [e1] eiskernel 2.8.0 (Status 'stable') verfügbar - 3.2er Kernel für eisfair-1

Thomas Zweifel t2fel at gmx.net
Mi Mär 11 17:00:56 CET 2015


Hallo Thomas

Am 11.03.2015 um 05:09 schrieb Thomas Bork:
> Am 10.03.2015 um 22:10 schrieb Stefan Welte:
>> Bei all der /dev/md2 VS /dev/md/2 Inkonsistenz/Akzeptanz hätte ich mir
>> gedacht, dass mdadm auf diesen
>> kleinen Unterschied auch Scheißen könnte.
> 
> Es ist immer der homehost und daraus resultierend der Name, der den
> Unterschied macht und darüber entscheidet, ob ein Raid lokal oder fremd
> ist.

Da bin ich mir mittlerweilen nicht mehr so sicher, ob der homehost
überhaupt einen Einfluss aufs assembeln hat:


mdadm -C -l0 -n5 -c128 /dev/md5 /dev/sd[abcde]5
mdadm -C -l0 -n5 -c128 --homehost=eisfair /dev/md6 /dev/sd[abcde]6
mdadm -C -l0 -n5 -c128 --homehost=foobar /dev/md7 /dev/sd[abcde]7
mdadm -C -l0 -n5 -c128 --homehost='' /dev/md8 /dev/sd[abcde]8

mdadm -Es
ARRAY /dev/md/5  metadata=1.2 UUID=71298bf2:70678f8c:ea49d8f9:77f9077b
name=service02test:5
ARRAY /dev/md/6  metadata=1.2 UUID=0d31b47c:ae03ad1f:e5bed60b:0501537a
name=eisfair:6
ARRAY /dev/md/7  metadata=1.2 UUID=2bd42d79:3544c232:285d1b6c:4fc83a05
name=foobar:7
ARRAY /dev/md/8  metadata=1.2 UUID=fe1d27a2:15b20a8c:769d2c86:9f514e53
name=8

reboot:
cat /proc/mdstat | grep '^md'
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]

mdadm -Es | egrep '/5|/6|/7|/8' >> /etc/mdadm/mdadm.conf.lvm

reboot:
cat /proc/mdstat | grep '^md'
md8 : active raid0 sda8[0] sde8[4] sdd8[3] sdc8[2] sdb8[1]
md7 : active raid0 sda7[0] sde7[4] sdd7[3] sdc7[2] sdb7[1]
md6 : active raid0 sda6[0] sde6[4] sdd6[3] sdc6[2] sdb6[1]
md5 : active raid0 sda5[0] sde5[4] sdd5[3] sdc5[2] sdb5[1]
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]


Was in der mdadm.conf eingetragen ist wird gestartet, alles andere wird
nicht angefasst. (mit 1.2 zumindest, 0.90 habe ich noch nicht getestet)



>> Aber es wäre möglich, alle RAIDs (Installer+Anleitung) mit name=2 zu
>> erstellen, oder?
>> name=(none):2 ist nach meinem Kenntnisstand per Anleitung überhaupt
>> nicht machbar, weil homehost mit nix auf
>> (none) zu kriegen ist, oder?
> 
> Sicher ist das machbar. Aber wie sich das dann auf schon existierende
> Raids beim Update auswirkt, muss ausgiebig ertestet werden.


Der name= Parameter ist allerdings für den E1 ziemlich unbrauchbar,
solange man nicht selbst Hand anlegt:


mdadm -C -l0 -n5 -c128 --homehost='' --name=77 /dev/md5 /dev/sd[abcde]5
mdadm -C -l0 -n5 -c128 --homehost='' --name=foobar /dev/md6 /dev/sd[abcde]6
mdadm -C -l0 -n5 -c128 --name=78 /dev/md7 /dev/sd[abcde]7
mdadm -C -l0 -n5 -c128 --name=barfoo /dev/md8 /dev/sd[abcde]8

mdadm -Es
ARRAY /dev/md/77  metadata=1.2 UUID=035e8e30:20ef3628:610146df:84efdaa8
name=77
ARRAY /dev/md/foobar  metadata=1.2
UUID=01a9f9ce:f0a7ff3d:f788faf0:d6ecd9ac name=foobar
ARRAY /dev/md/78  metadata=1.2 UUID=252ccd4e:4b19beaf:3a8a9cb8:cc7b7ca8
name=service02test:78
ARRAY /dev/md/barfoo  metadata=1.2
UUID=b8d5d52d:6656d31c:96c70065:e6e1bc5f name=service02test:barfoo

mdadm -Es | egrep '/f|/b|/7' >> /etc/mdadm/mdadm.conf.lvm

reboot:
cat /proc/mdstat | grep '^md'
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]


Nach anpassen der mdadm.conf:

ARRAY /dev/md/5  metadata=1.2 UUID=035e8e30:20ef3628:610146df:84efdaa8
ARRAY /dev/md/6  metadata=1.2 UUID=01a9f9ce:f0a7ff3d:f788faf0:d6ecd9ac
ARRAY /dev/md/7  metadata=1.2 UUID=252ccd4e:4b19beaf:3a8a9cb8:cc7b7ca8
ARRAY /dev/md/8  metadata=1.2 UUID=b8d5d52d:6656d31c:96c70065:e6e1bc5f

reboot:
cat /proc/mdstat | grep '^md'
md8 : active raid0 sda8[0] sde8[4] sdd8[3] sdc8[2] sdb8[1]
md7 : active raid0 sda7[0] sde7[4] sdd7[3] sdc7[2] sdb7[1]
md6 : active raid0 sda6[0] sde6[4] sdd6[3] sdc6[2] sdb6[1]
md5 : active raid0 sda5[0] sde5[4] sdd5[3] sdc5[2] sdb5[1]
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]



Automatisieren lässt sich das halt nicht, da ein Skript nicht wissen
kann, wo $USER sein md haben will ;-)



Gruss Thomas


PS: (wer noch nicht genug hat :-) )


mdadm --stop /dev/md[5678]
mdadm: stopped /dev/md5
mdadm: stopped /dev/md6
mdadm: stopped /dev/md7
mdadm: stopped /dev/md8

mdadm -As --config=/etc/mdadm/mdadm.conf.lvm
mdadm: /dev/md/77 has been started with 5 drives.
mdadm: /dev/md/foobar has been started with 5 drives.
mdadm: /dev/md/78 has been started with 5 drives.
mdadm: /dev/md/barfoo has been started with 5 drives.

ls -l /dev/md/
lrwxrwxrwx  1 root root     9 Mar 11 17:44 77 -> /dev/md77
lrwxrwxrwx  1 root root     9 Mar 11 17:44 78 -> /dev/md78
lrwxrwxrwx  1 root root    10 Mar 11 17:44 barfoo -> /dev/md126
lrwxrwxrwx  1 root root    10 Mar 11 17:44 foobar -> /dev/md127

cat /proc/mdstat | grep '^md'
md126 : active raid0 sda8[0] sde8[4] sdd8[3] sdc8[2] sdb8[1]
md78 : active raid0 sda7[0] sde7[4] sdd7[3] sdc7[2] sdb7[1]
md127 : active raid0 sda6[0] sde6[4] sdd6[3] sdc6[2] sdb6[1]
md77 : active raid0 sda5[0] sde5[4] sdd5[3] sdc5[2] sdb5[1]
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]

reboot:
cat /proc/mdstat | grep '^md'
md78 : active raid0 sda7[0] sde7[4] sdd7[3] sdc7[2] sdb7[1]
md77 : active raid0 sda5[0] sde5[4] sdd5[3] sdc5[2] sdb5[1]
md53 : active raid6 sda13[0] sde13[5] sdd13[3] sdc13[2] sdb13[1]
md52 : active raid6 sda12[0] sde12[6] sdd12[5] sdc12[2] sdb12[1]
md51 : active raid5 sda11[0] sde11[5] sdd11[3] sdc11[2] sdb11[1]
md50 : active raid5 sdb10[0] sde10[4] sdd10[2] sdc10[1]
md49 : active raid5 sda9[5] sde9[4] sdd9[3] sdc9[2] sdb9[1]
md3 : active raid1 sde3[0] sdc3[4] sdb3[3] sda3[2] sdd3[1]
md2 : active raid1 sda2[0] sde2[4] sdd2[3] sdc2[2] sdb2[1]
md1 : active raid1 sde1[0] sda1[4] sdb1[3] sdc1[2] sdd1[1]




Mehr Informationen über die Mailingliste Eisfair