[Eisfair] [e1] eiskernel 2.8.0 (Status 'stable') verfügbar - 3.2er Kernel für eisfair-1

Stefan Welte post at stefan-welte.de
Sa Mär 7 16:08:19 CET 2015


Hallo Olaf und Thomas,

Am 04.03.2015 um 22:11 schrieb Olaf Jaehrling:
> Thomas Bork schrieb am 04.03.2015 um 21:41:
>> Du hast Dir etwas selbst gebastelt, was zufällig funktioniert hat. Nun funktioniert es nicht mehr.
das ist zu extrem ausgedrückt, nur noch mithilfe manuellen Eingriffs nach eiskernel-Update.

>> Aber niemand (zumindest ich nicht) kann alle selbstgefummelten Eventualitäten abdecken. Dazu fehlt mir
>> einfach die Zeit und übrigens habe ich diesen Anspruch auch überhaupt nicht ;-)
kann ich verstehen, mdadm ist echt hokuspokus wie es mir erscheint. Siehe unterhalb.

> Die Hilfe, die ich von Thomas und Holger bekommen habe war vorbildlich und dafür muss ich mich ganz
> herzlich bedanken. Auch wenn Du oder Holger viel Zeit in eisfair investiert, so habt ihr trotzdem immer
> ein Ohr offen, wenn es bei dem einen oder anderen nicht (mehr) funktioniert und helft. Das sieht man auch
> bei diesen Thread. Viel Zeit ist hier eingeflossen......
jup, finde ich auch gut, wie man sich hier hilft, je nachdem was jeder weiss. Allerdings finde ich Thomas
etwas kurz angebunden, z.B. wo es um das zentrale Problem geht, schreibt er nur eine Abkürzung, die mir
nicht besonders weiterhalf.

Habe inzwischen die Kiste am Laufen mit neu erstelltem RAID1 auf (s)gdisk-partitionierten Platten als
/dev/md/1 bzw. /dev/md1, weil ich das xfs-Problem weg haben wollte. [0]

Testweise auf eisfair1 (nicht livelinux) ein weiteres Raid1 nach Anleitung [1] erstellt auf einer
SATA-Platte, die über USB am Rechner hängt (wie früher geschrieben, weil es nur zwei SATA-Schnittstellen gibt).
Befund:
1. mdadm schreibt beimhttp://forum.nettworks.org/index.php?t=msg&th=5778&goto=36630&#msg_36630 create einen
homehost statt <none>
2. "mdadm -Es" findet das erstellte Raid md6 nicht, nur das bestehende md1:
> Disk /dev/sdd: 500.1 GB, 500107862016 bytes, 976773168 sectors
> Units = Sektoren of 1 * 512 = 512 bytes
> Sector size (logical/physical): 512 bytes / 512 bytes
> I/O size (minimum/optimal): 512 bytes / 512 bytes
> Disk label type: dos   
> Disk identifier: 0x5fd67a7b
> 
>    Gerät  boot.     Anfang        Ende     Blöcke   Id  System
> /dev/sdd1            2048   976773134   488385543+  fd  Linux raid autodetect
> root at eis1 2.3.9:~ # mdadm --create /dev/md6 --bitmap=internal --level=1 --raid-disks=2 /dev/sdd1 missing
> mdadm: Note: this array has metadata at the start and
>     may not be suitable as a boot device.  If you plan to
>     store '/boot' on this device please ensure that
>     your boot-loader understands md/v1.x metadata, or use
>     --metadata=0.90
> Continue creating array? y
> mdadm: Defaulting to version 1.2 metadata
> mdadm: array /dev/md6 started.
> root at eis1 2.3.9:~ # cat /proc/mdstat 
> Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath] 
> md6 : active raid1 sdd1[0]
>       488254272 blocks super 1.2 [2/1] [U_]
>       bitmap: 0/4 pages [0KB], 65536KB chunk
> 
> md1 : active raid1 sdb1[2] sdc1[1]
>       488254272 blocks super 1.2 [2/2] [UU]
>       bitmap: 3/4 pages [12KB], 65536KB chunk
> 
> unused devices: <none>
> root at eis1 2.3.9:~ # mdadm -Es
> ARRAY /dev/md/1  metadata=1.2 UUID=76f678e1:bc3ecc37:8db48229:b5b6bd94 name=eis1:1
> root at eis1 2.3.9:~ # blkid 
> /dev/sda1: LABEL="BOOTPART" UUID=...
> /dev/sda5: UUID=... TYPE="swap" 
> /dev/sda6: UUID=... TYPE="ext3" 
> /dev/sdc1: UUID="16f678e1-bc3e-cc37-8db4-8229b5b6bd94" UUID_SUB="d3238967-c7bf-5c7e-8419-88fb74364375" LABEL="eis1:1" TYPE="linux_raid_member" PARTLABEL="data" PARTUUID="62c6394e-0f18-4797-a19b-4a0ae80b0371" 
> /dev/sdb1: UUID="16f678e1-bc3e-cc37-8db4-8229b5b6bd94" UUID_SUB="109d2cde-18b0-1f95-8486-ce1e71e75ff8" LABEL="eis1:1" TYPE="linux_raid_member" PARTLABEL="data" PARTUUID="bea42053-e77c-4d3f-ba71-090faeaf0653" 
> /dev/md1: LABEL="data-raid1" UUID="a18667b6-f125-458d-9a1d-b7136c65fb90" TYPE="xfs" 
> /dev/sdd1: UUID="91bfa880-5215-95bb-a882-234f2823de73" UUID_SUB="e85a54e6-833a-ca99-0831-f322ef21f2a9" LABEL="eis1:6" TYPE="linux_raid_member" 
> root at eis1 2.3.9:~ # mdadm -E /dev/sdd1
> /dev/sdd1:
>           Magic : a92b4efc
>         Version : 1.2
>     Feature Map : 0x1
>      Array UUID : 91bfa880:521595bb:a882234f:2823de73
>            Name : eis1:6  (local to host eis1)
>   Creation Time : Sat Mar  7 15:01:36 2015
>      Raid Level : raid1
>    Raid Devices : 2
> 
>  Avail Dev Size : 976508943 (465.64 GiB 499.97 GB)
>      Array Size : 488254272 (465.64 GiB 499.97 GB)
>   Used Dev Size : 976508544 (465.64 GiB 499.97 GB)
>     Data Offset : 262144 sectors
>    Super Offset : 8 sectors
>           State : active
>     Device UUID : e85a54e6:833aca99:0831f322:ef21f2a9
> 
> Internal Bitmap : 8 sectors from superblock
>     Update Time : Sat Mar  7 15:01:36 2015
>        Checksum : b32f3fc6 - correct
>          Events : 0
> 
> 
>    Device Role : Active device 0
>    Array State : A. ('A' == active, '.' == missing)

Ein zuvor erstelltes Testraid, statt fdisk[1] mit gdisk[2], hatte identsiches Verhalten.
Was mache ich falsch? Oder liegt es an der fehlenden zwoten Platte zu /dev/md6?

Soweit ich mich noch erinnere, habe ich auch das /dev/md1 nach Anleitung [2] gemacht, trotzdem hat es den
homehost eis1 bekommen. Wieso?

Eckdaten:
> base: 2.3.9
> eiskernel-pae: 2.8.0
> $ mdadm --version
> mdadm - v3.2.6 - 25th October 2012
passt das?

Danke,
Stefan

[0] http://forum.nettworks.org/index.php?t=msg&th=5778&goto=36630&#msg_36630
[1] http://www.eisfair.org/fileadmin/eisfair/doc/node5.html
[2] http://www.eisfair.org/fileadmin/eisfair/doc/node4.html


Mehr Informationen über die Mailingliste Eisfair