[Eisfair] [e1] Fehler nach update auf base v2.8.5 und eiskernel-smp v4.4.0

Thomas Zweifel t2fel at gmx.net
Di Jan 14 09:55:42 CET 2020


Hallo Marcus

Am 13.01.20 um 23:03 schrieb Marcus Röckrath:
> W. Loefstedt wrote:
> 
>> Allerdings haben sich die Bezeichnungen geändert:
> 
> Das haben wir ja gemerkt und dann die bisherigen Korrekturen vorgeschlagen.
> 
>> eisfair # cat /proc/mdstat
>> Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
>> [raid4] [multipath]
>> md125 : active (auto-read-only) raid1 sda2[1] sdb2[0]
>>        2104448 blocks [2/2] [UU]
>>
>> md126 : active raid1 sda3[1] sdb3[0]
>>        75979328 blocks [2/2] [UU]
>>
>> md127 : active raid1 sda1[1] sdb1[0]
>>        64128 blocks [2/2] [UU]
>>
>> War mal /dev/md1, /dev/md2, /dev/md3
>>
>> Könnt Ihr mir das erklären?
> 
> Nein, mir erschließt es sich nicht, wieso bei die die Nummerierungen
> geändert sind.
> 
> Das erfordert aber nun noch weitere Korrekturen, wie z. B. in
> der /etc/lilo.conf für boot, sonst geht das nächste Kernelupdate nicht.

Womit sie dann für immer md1xx wären ;-)
Oder bis sie in der initrd korrigiert werden....

> Derr boot-Eintrag passt dort nicht mehr, wenn du von dem neuen Kernel aus
> ein Kernelupdates machen willst, da muss wohl md126 statt md1 rein.

md127


> Aber in Ruhe bevor man was zerschießt; übrigens ist Thomas Zweifel ziemlich
> fit mit RAID, vielleicht hat er eine Idee.

Leider nein!  Momentan habe ich auch nicht wirklich Zeit :-(


Aber ich werfe mal meine bisherigen Beobachtungen in die Runde:

Ende Oktober wurden fremd-raids beim booten zusammengebaut (md127 abwärts)
Auch frisch erstellte md (kein kernel-Update, die UUID in der mdadm.conf 
hinterlegt) wurden zu md127...

Eine Korrektur meiner 'zweiten raid-assemble Runde' 
(/etc/init.d/raid-init) hats gerichtet:

eis2 2.8.23 # cat /etc/init.d/raid-init
.....
#
## disassemble md's > 100
#
for md in `/bin/ls -1 /dev/md1[0-9][0-9] 2>/dev/null` ; do
   mdadm --stop $md
done
.....


Beim Update meiner Klonstation auf E64 und testen vom 4.9 kernel wurden 
md Aktionen nicht richtig finalisiert. (um Weinachten rum)

z.B. Raid5 von 3 auf 4 Partitionen erweitert:

eis2 2.8.23 # mdadm -G -n4 /dev/md56
mdadm: Need to backup 768K of critical section..

Nach erfolgtem Reshape:

eis2 2.8.23 # pvcreate /dev/md56
   Physical volume "/dev/md56" successfully created.

eis2 2.8.23 # vgextend dare /dev/md56
   WARNING: scan found duplicate PVID oIIKxFjo10fPYAfGElsZnR1R9nGnnmuK 
on /dev/sde6
   Volume group "dare" successfully extended

eis2 2.8.23 # pvscan --cache
   WARNING: scan found duplicate PVID oIIKxFjo10fPYAfGElsZnR1R9nGnnmuK 
on /dev/sde6
   pvscan[4905] PV /dev/md56 online.
   pvscan[4905] PV /dev/md57 online.

eis2 2.8.23 # pvscan
   WARNING: scan found duplicate PVID oIIKxFjo10fPYAfGElsZnR1R9nGnnmuK 
on /dev/sde6
   PV /dev/md57   VG dare            lvm2 [120.84 GiB / 70.84 GiB free]
   PV /dev/md56   VG dare            lvm2 [149.97 GiB / 149.97 GiB free]
   Total: 2 [270.81 GiB] / in use: 2 [270.81 GiB] / in no VG: 0 [0   ]

eis2 2.8.23 # vgreduce dare /dev/md56
   WARNING: scan found duplicate PVID oIIKxFjo10fPYAfGElsZnR1R9nGnnmuK 
on /dev/sde6
   Removed "/dev/md56" from volume group "dare"

eis2 2.8.23 # mdadm --stop /dev/md56
mdadm: stopped /dev/md56

eis2 2.8.23 # mdadm -As
mdadm: Fail create md56 when using /sys/module/md_mod/parameters/new_array
mdadm: /dev/md56 has been started with 4 drives.

eis2 2.8.23 # pvscan
   PV /dev/md57   VG dare            lvm2 [120.84 GiB / 70.84 GiB free]
   PV /dev/md56                      lvm2 [150.00 GiB]
   Total: 2 [270.84 GiB] / in use: 1 [120.84 GiB] / in no VG: 1 [150.00 GiB]

eis2 2.8.23 # vgextend dare /dev/md56
   Volume group "dare" successfully extended

Nach einem Neustart des md oder verkleinern der md-Komponentengrösse vor 
dem Reshape und anschliessend wieder Vergrössern, wurde das neu 
hinzugefügte Device als Raid-Member erkannt und vom LVM wie angewiesen 
ignoriert.

Dasselbe, wenn eine Partition entfernt wurde (--fail / --remove) und 
durch eine neue ersetzt wurde (--add), bot sich dasselbe Verhalten.



Gestern hatte ich ein Raid5 auf drei USB-Sticks erstellt und auf meinem 
Backup (E64 base 2.8.20, kernel 3.16.70) Eingestöpselt --> Die Sticks 
wurden eingebunden, aber kein md zusammengebaut - Wie erwartet.

Auf der Klon-Station (E64 aktueller Stand) hingegen wird beim einstecken 
des ersten Stick das md angeworfen:

md21 : inactive sdg1[2](S)
       524224 blocks

beim zweiten Stick:

md21 : inactive sdh1[1](S) sdg1[2](S)
       1048448 blocks

und beim dritten ist es dann komplett zusammengebaut und aktiv:

md21 : active raid5 sdi1[0] sdh1[1] sdg1[2]
       1048448 blocks level 5, 4k chunk, algorithm 2 [3/3] [UUU]


Auch fdisk fungiert als trigger:

eis2 # grep md58 /proc/mdstat
md58 : active raid5 sdc8[2] sdd8[4] sdb8[1] sdf8[3] sde8[0]

eis2 # mdadm --stop /dev/md58
mdadm: stopped /dev/md58

eis2 # fdisk /dev/sdb
Welcome to fdisk (util-linux 2.34).
Changes will remain in memory only, until you decide to write them.
Be careful before using the write command.

Command (m for help): q

eis2 # grep md58 /proc/mdstat
md58 : inactive sdb8[1](S)



Ich hoffe ihr könnt damit was anfangen. :-)




Gruss Thomas


Mehr Informationen über die Mailingliste Eisfair