[Eisfair] Soft-Raid einrichten

Thomas Zweifel t2fel at gmx.net
Di Dez 23 16:47:19 CET 2025


Hallo Marcus, Hallo NG

Am 21.12.25 um 18:05 schrieb Marcus Röckrath:
>> Ein Tipp zu der Anleitung habe ich nicht, allerdings könnte ich einen
>> alternativen Weg aufzeigen, falls noch Interesse besteht.
> 
> Gerne her damit, ich muss nicht die alte vor extlinux entstandene Version
> "reparieren".
> 

Den eis habe ich mit dem momentan aktuellen installer 
(eisfair-3.6.2-6.6.5-VIRT-x86_64-cd-image.iso) erstellt und unter 
VirtualBox getestet.

Installiert den Eis mit den Vorgaben vom Installer, also 128M swap 2G 
für root und der rest für /data.
Die finale Grösse für euer System legen wir beim partitinieren der 
ersten Raid-Platte fest.

Da nach jedem Systemstart die Laufwerksbezeichner (sda, sdb) vertauscht 
sein können dürft ihr keinesfalls die Anleitung als Copy-Paste Vorlage 
nutzen. Da müsst ihr wirklich aufpassen und mitdenken!

Wenn ich änderungen an Dateien mache dann rufe ich "cat datei" auf um 
das Resultat anzuzeigen, ihr nutzt dann euren Lieblingseditor um die 
Datei zu bearbeiten.

Mein Lösungsansatz ist so gestaltet, dass man dass uuid-Gedöns möglichst 
nicht anfassen muss. Dehalb werden die vorhandenen Dateisysteme geklont 
und nicht kopiert. Das Datenlaufwerk habe ich zum testen weggelassen, 
das werde ich später noch ergänzen.


Gut, dann beginnen wir mit der Umstellung.


Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel   : 6.6.106-eisfair-64-VIRT

eis-64-raid-test # df
Filesystem     1K-blocks   Used Available Use% Mounted on
/dev/sda3        3021608 732672   2115268  26% /
/dev/sda1          86491  29883     49727  38% /boot
/dev/sda4        4838476   1244   4570740   1% /data

eis-64-raid-test # grep sd /proc/partitions
    8       16    8388608 sdb
    8        0    8388608 sda
    8        1      98304 sda1
    8        2     131072 sda2
    8        3    3145728 sda3
    8        4    5002223 sda4


sda ist der laufende eis, also erstellen wir die Partitionen auf sdb.

Die erste Partition für /boot muss etwas grösser werden als sda1, da die 
Raid-Signatur ebenfalls etwas Platz belegt. Nehmt dafür nicht weniger 
als 128M.
Die zweite Partition (swap) könnt ihr beliebig gross wählen.
Die dritte Partition für / muss ebefalls grösser werden als das 
vorhandene sda3.

Die hier gewälten Grössen sind dann im fertig migrierten eis nutzbar.


eis-64-raid-test # gdisk /dev/sdb
GPT fdisk (gdisk) version 1.0.10

Partition table scan:
   MBR: not present
   BSD: not present
   APM: not present
   GPT: not present

Creating new GPT entries in memory.

Command (? for help): n
Partition number (1-128, default 1):
First sector (34-16777182, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-16777182, default = ...) or {+-}size{KMGTP}: +256M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'

Command (? for help): n
Partition number (2-128, default 2):
First sector (34-16777182, default = 526336) or {+-}size{KMGTP}:
Last sector (526336-16777182, default = ...) or {+-}size{KMGTP}: +512M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'

Command (? for help): n
Partition number (3-128, default 3):
First sector (34-16777182, default = 1574912) or {+-}size{KMGTP}:
Last sector (1574912-16777182, default = ...) or {+-}size{KMGTP}: +4G
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'


Nachdem die Partitionen erstellt sind ändern wir noch die Label.
Die könnt ihr nach eurem Geschmack wählen.
Partition 1 darf keine Leerzeichen enthalten, da extlinux dann 
fehlermeldungen kosmetischer Natur ausgibt - Wollen wir aber nicht.


Command (? for help): c
Partition number (1-3): 1
Enter name: Linux_RAID_boot

Command (? for help): c
Partition number (1-3): 2
Enter name: Linux RAID swap

Command (? for help): c
Partition number (1-3): 3
Enter name: Linux RAID root


Das sollte dann etwa so aussehen:


Command (? for help): p
Disk /dev/sdb: 16777216 sectors, 8.0 GiB
Model: VBOX HARDDISK
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 52B892EC-911F-40FF-A614-A95007297133
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 16777182
Partitions will be aligned on 2048-sector boundaries
Total free space is 6815677 sectors (3.2 GiB)

Number  Start (sector)    End (sector)  Size       Code  Name
    1            2048          526335   256.0 MiB   FD00  Linux_RAID_boot
    2          526336         1574911   512.0 MiB   FD00  Linux RAID swap
    3         1574912         9963519   4.0 GiB     FD00  Linux RAID root


Wenn alles passt, speichern wir die Tabelle


Command (? for help): w

Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
PARTITIONS!!

Do you want to proceed? (Y/N): y
OK; writing new GUID partition table (GPT) to /dev/sdb.
The operation has completed successfully.


und kontrollieren ob der Kernel die Änderungen übernommen hat.

eis-64-raid-test # grep sd /proc/partitions
    8       16    8388608 sdb
    8       17     262144 sdb1
    8       18     524288 sdb2
    8       19    4194304 sdb3
    8        0    8388608 sda
    8        1      98304 sda1
    8        2     131072 sda2
    8        3    3145728 sda3
    8        4    5002223 sda4


Passt.
Als nächstes erstellen wir die Metadevices.
Die Metadaten version von md1 muss unbedingt 0.90 sein!
Für die restlichen md könnt ihr auch die 1.2 wählen wie sie beim eis 
üblich sind.


Alles nach mdadm bis zum --force ist eine Zeile


eis-64-raid-test # mdadm -C -l1 -n1 --metadata=0.90 --bitmap=none 
/dev/md1 /dev/sdb1 --force
mdadm: array /dev/md1 started.

eis-64-raid-test # mdadm -C -l1 -n1 --metadata=1.0 --bitmap=none 
/dev/md2 /dev/sdb2 --force
mdadm: array /dev/md2 started.

eis-64-raid-test # mdadm -C -l1 -n1 --metadata=1.0 --bitmap=none 
/dev/md3 /dev/sdb3 --force
mdadm: array /dev/md3 started.


eis-64-raid-test # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] 
[raid4] [multipath]
md3 : active raid1 sdb3[0]
       4194240 blocks super 1.0 [1/1] [U]
md2 : active raid1 sdb2[0]
       524224 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdb1[0]
       262080 blocks [1/1] [U]
unused devices: <none>


Nachdem das Raid am Start ist, lassen wir eine mdadm.conf generieren.

eis-64-raid-test # setup

system -> filesystems -> mdadm -> create mdadm conf


Das müsste dann etwa so auschauen:

eis-64-raid-test # cat /etc/mdadm/mdadm.conf
#----------------------------------------------------------------------------
#  mdadm.conf file generated by mdadm version: 3.6.1
#
#  Do not edit this file, edit /etc/config.d/mdadm
#  Creation date: 2025-12-21 Time: 11:06:35
#----------------------------------------------------------------------------
DEVICE partitions
ARRAY /dev/md/1 metadata=0.90 UUID=4b5abd89:9c378155:aaab5d46:054ed8b0
ARRAY /dev/md/2 metadata=1.0 UUID=44171d2d:e8997fc1:0ba7cb4c:6737c290
ARRAY /dev/md/3 metadata=1.0 UUID=cbdc9b87:8df9059e:28511971:932578a1
PROGRAM /usr/libexec/mdadm/mdadm-event-handler.sh



In den nächsten Schritten bereiten wir alles vor, damit der boot auf md3 
möglich wird.


Da wir unbedingt "/dev/md3" als rootfs haben wollen, ändern wir die 
bootloader Konfiguration dahingehend ab und ergänzen noch ein Parameter 
der den Kernel anweist die Finger von dem md's zu lassen 
(Fremdraid-Problematik).

In der Append Zeile vom "eis" ersetzen wir die "uuid=...." durch md3 und
ergänzen die "raid=..." Option, den rest lassen wir stehen.


eis-64-raid-test 3.6.2 # cat /boot/extlinux/extlinux.conf
#-------------------------------------------------------------------------
# /boot/extlinux/extlinux.conf - bootloader configuration
# created: 2025-12-21 09:30:54
#-------------------------------------------------------------------------

PATH com32
UI menu.c32
DEFAULT eis
PROMPT 0
MENU TITLE eisfair - EXTlinux - Bootmenu
TIMEOUT 30

LABEL eis
     MENU LABEL eis
     KERNEL ../kernel
     INITRD ../initrd.gz
     APPEND root=/dev/md3 raid=noautodetect consoleblank=600 vga=773

LABEL 6.6.106-VIRT
     MENU LABEL 6.6.106-VIRT
     KERNEL ../kernel-6.6.106-eisfair-64-VIRT
     INITRD ../initrd-6.6.106-eisfair-64-VIRT.gz
     APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 
consoleblank=600 vga=773


Das ändern wir auch in der fstab nachdem wir eine Kopie davon erstellt 
haben.

eis-64-raid-test 3.6.2 # cp -p /etc/fstab /etc/fstab.orig

eis-64-raid-test 3.6.2 # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4 
defaults,errors=remount-ro 0 1
UUID=5255c4be-9b85-477d-9092-49ce32b70995 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2


Nun widmen wir uns der initrd.
Da die aktuelle initrd kein mdadm an Board hat müssen wir das nachrüsten.
Dazu erstellen wir eine neue Datei mit folgendem Inhalt:

eis-64-raid-test 3.6.2 # cat /etc/dracut.conf.d/01-dracut-mdraid.conf
# This config file enables raid support for dracut. Please
# do not modify this file manually.

# add mdraid dracut module
add_dracutmodules+=" mdraid " # Note leading space


Nun lassen wir eine neue initrd generieren

eis-64-raid-test 3.6.2 # mkinitrd --force
Creating: /boot/initrd-6.6.106-eisfair-64-VIRT.gz|6.6.106-eisfair-64-VIRT
dracut[I]: Executing: /usr/bin/dracut --force 
/boot/initrd-6.6.106-eisfair-64-VIRT.gz 6.6.106-eisfair-64-VIRT
....
<schnipp>
....
dracut[I]: *** Including module: kernel-modules-extra ***
dracut[I]: *** Including module: mdraid ***
dracut[I]: *** Including module: eisfair-modules ***
....
<schnapp>
....
dracut[I]: *** Store current command line parameters ***
dracut[I]: Stored kernel commandline:
dracut[I]:  resume=UUID=5255c4be-9b85-477d-9092-49ce32b70995
dracut[I]:  root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 
rootfstype=ext4 rootflags=rw,relatime,errors=remount-ro
dracut[I]: *** Creating image file 
'/boot/initrd-6.6.106-eisfair-64-VIRT.gz' ***
dracut[I]: *** Creating initramfs image file 
'/boot/initrd-6.6.106-eisfair-64-VIRT.gz' done ***
Creation of initrd succeeded!

Das mdraid ist nun mit dabei und die vorbereitungen damit fast 
abgeschlossen.

Eigentlich fehlt nur noch das rootfs auf md3

Damit die uuid erhalten bleibt klonen wir es mit dd.

An der Stelle muss ich eine klare Warnung aussprechen:

Macht sowas NIEMALS mit Produktivsystemen!

Nutzt dazu ein Live-Linux oder jemand kennt eine bessere Variante?


eis-64-raid-test 3.6.2 # dd if=/dev/sda3 of=/dev/md3 bs=1024k
3072+0 records in
3072+0 records out
3221225472 bytes (3.2 GB, 3.0 GiB) copied, 7.02591 s, 458 MB/s

eis-64-raid-test 3.6.2 # e2fsck -f -C0 -y /dev/md3
e2fsck 1.47.2 (1-Jan-2025)
/dev/md3: recovering journal
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
Free blocks count wrong (572262, counted=569987).
Fix? yes

Free inodes count wrong (163777, counted=163385).
Fix? yes

/dev/md3: ***** FILE SYSTEM WAS MODIFIED *****
/dev/md3: 33223/196608 files (0.0% non-contiguous), 216445/786432 blocks


Dann schauen wir mal was beim neustart schiefgehen wird :-)

eis-64-raid-test # reboot


Nach einer gefühlten ewigkeit dürfen wir uns endlich auf der 
Rettungskonsole anmelden und können das (noch) nicht automatisch 
gestartete md3 von Hand an den start bringen.


dracut:/root# mdadm -A /dev/md3 /dev/sdb3

falls mdadm /dev/sdb3 has no superblock meldet nochmal mit sda3 wiederholen.

Sobald die OK Meldungen "Found drive /dev/md3" und "Reached target ..." 
erscheinen läuft der boot normal weiter, dazu verlassen wir die 
Rettungskonsole mit CTRL-D (STRG-D)


Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel   : 6.6.106-eisfair-64-VIRT

eis-64-raid-test # df
Filesystem     1K-blocks   Used Available Use% Mounted on
/dev/md3         3021608 744288   2103652  27% /
/dev/sdb1          86491  23348     56262  30% /boot

eis-64-raid-test # cat /proc/mdstat
md1 : active raid1 sda1[0]
       262080 blocks [1/1] [U]
md2 : active raid1 sda2[0]
       524224 blocks super 1.0 [1/1] [U]
md3 : active raid1 sda3[0]
       4194240 blocks super 1.0 [1/1] [U]
unused devices: <none>


Die neue Konstellation verankern wir in der initrd und schauen ob der 
Start diesmal komplett durchläuft.

eis-64-raid-test # mkinitrd --force

eis-64-raid-test # reboot


Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel   : 6.6.106-eisfair-64-VIRT

eis-64-raid-test # df
Filesystem     1K-blocks   Used Available Use% Mounted on
/dev/md3         3021608 744492   2103448  27% /
/dev/sda1          86491  23352     56258  30% /boot

eis-64-raid-test # cat /proc/mdstat
md2 : active raid1 sdb2[0]
       524224 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdb1[0]
       262080 blocks [1/1] [U]
md3 : active raid1 sdb3[0]
       4194240 blocks super 1.0 [1/1] [U]


Damit wäre der erste Schritt erledigt und wir müssen nun schauen das der 
boot von der "Raid-Platte" gelingt.

Dzu Klonen wir /boot auf md1 welches momentan auf sda liegt.

eis-64-raid-test # umount /boot

eis-64-raid-test # dd if=/dev/sda1 of=/dev/md1 bs=1024k
96+0 records in
96+0 records out
100663296 bytes (101 MB, 96 MiB) copied, 0.589452 s, 171 MB/s


Den Swap erstellen wir auch gleich

eis-64-raid-test # mkswap /dev/md2
Setting up swapspace version 1, size = 511.9 MiB (536801280 bytes)
no label, UUID=44740498-85a8-44bb-934e-cee9e446d585


und ändern den eintrag vom /boot und kopieren die uuid vom frisch 
erstellten Swap in die entsprechende Zeile der fstab

eis-64-raid-test # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
/dev/md1 /boot ext4 defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0    /media/floppy  auto      defaults,user,noauto     0 0
/dev/cdrom  /media/cdrom   iso9660   defaults,ro,user,noauto  0 0


eis-64-raid-test # mount /boot

eis-64-raid-test # df
Filesystem     1K-blocks   Used Available Use% Mounted on
/dev/md3         3021608 744480   2103460  27% /
/dev/md1           86491  23352     56258  30% /boot


Soweit schauts gut aus, also installieren wir den Boot-Krams

eis-64-raid-test # eisman install extlinux

The following packages will be installed:
version  status   name                   source
---------------------------------------------------------------------
3.6.0    stable   extlinux               https://www.pack-eis.de
1 package(s) using approx. 1 MB of disk space.
Continue (y/n) [yes]? y
Downloading required packages ...
=> [####################] extlinux (3.6.0)...                          [ 
  OK  ]
Done!
Installation of: extlinux (3.6.0) ...
Attribute Legacy Bios Bootable Set - /dev/sdb1
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sdb
Detected RAID on /boot - update  EXTlinux with --raid
Successfully installed: extlinux (3.6.0)!

Dem booten von der "Raid-Platte" steht nun nichts mehr im weg.


Die geänderte Konstellation verankern wir nochmals in der initrd

eis-64-raid-test # mkinitrd --force


und schauen ob wir richtig liegen.

eis-64-raid-test # reboot

(Richtiges BootLW wählen)


Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel   : 6.6.106-eisfair-64-VIRT

eis-64-raid-test # cat /proc/mdstat
md1 : active raid1 sda1[0]
       262080 blocks [1/1] [U]
md2 : active raid1 sda2[0]
       524224 blocks super 1.0 [1/1] [U]
md3 : active raid1 sda3[0]
       4194240 blocks super 1.0 [1/1] [U]


Das System läuft nun komplett auf sda also nutzen wir sdb zum Partitionieren

eis-64-raid-test # gdisk /dev/sdb
GPT fdisk (gdisk) version 1.0.10

Partition table scan:
   MBR: protective
   BSD: not present
   APM: not present
   GPT: present

Found valid GPT with protective MBR; using GPT.

Die Vorhandenen Partitionen löschen wir

Command (? for help): d
Partition number (1-4): 4

Command (? for help): d
Partition number (1-3): 3

Command (? for help): d
Partition number (1-2): 2

Command (? for help): d
Using 1

und erstellen mit den selben Grössen wie bei der ersten Platte


Command (? for help): n
Partition number (1-128, default 1):
First sector (34-16777182, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-16777182, default = ...) or {+-}size{KMGTP}: +256M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'

Command (? for help): n
Partition number (2-128, default 2):
First sector (34-16777182, default = 526336) or {+-}size{KMGTP}:
Last sector (526336-16777182, default = ...) or {+-}size{KMGTP}: +512M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'

Command (? for help): n
Partition number (3-128, default 3):
First sector (34-16777182, default = 1574912) or {+-}size{KMGTP}:
Last sector (1574912-16777182, default = ...) or {+-}size{KMGTP}: +4G
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'


korrigieren die Label wieder

Command (? for help): c
Partition number (1-3): 1
Enter name: Linux_RAID_boot

Command (? for help): c
Partition number (1-3): 2
Enter name: Linux RAID swap

Command (? for help): c
Partition number (1-3): 3
Enter name: Linux RAID root

Command (? for help): p
Disk /dev/sdb: 16777216 sectors, 8.0 GiB
Model: VBOX HARDDISK
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 27CC3E6E-A59F-4804-B3D4-CD5F57201505
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 16777182
Partitions will be aligned on 2048-sector boundaries
Total free space is 6815677 sectors (3.2 GiB)

Number  Start (sector)    End (sector)  Size       Code  Name
    1            2048          526335   256.0 MiB   FD00  Linux_RAID_boot
    2          526336         1574911   512.0 MiB   FD00  Linux RAID swap
    3         1574912         9963519   4.0 GiB     FD00  Linux RAID root


und wenn alles passt speichern

Command (? for help): w

Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
PARTITIONS!!

Do you want to proceed? (Y/N): y
OK; writing new GUID partition table (GPT) to /dev/sdb.
The operation has completed successfully.


Kontrolle ist besser als vertauen

eis-64-raid-test # grep sd /proc/partitions
    8        0    8388608 sda
    8        1     262144 sda1
    8        2     524288 sda2
    8        3    4194304 sda3
    8       16    8388608 sdb
    8       17     262144 sdb1
    8       18     524288 sdb2
    8       19    4194304 sdb3

Passt.
Damit können wir nun das Raid in betrieb nehmen

Als erstes hängen wir die Hot-Spare Lauferke zum bestehenden Raid

eis...test # for i in 1 2 3 ; do mdadm --add /dev/md$i /dev/sdb$i ; done
mdadm: added /dev/sdb1
mdadm: added /dev/sdb2
mdadm: added /dev/sdb3


und erweitern es auf die zweit Platte.

eis-64-raid-test # for i in 1 2 3 ; do mdadm -G -n2 /dev/md$i ; done
raid_disks for /dev/md1 set to 2
raid_disks for /dev/md2 set to 2
raid_disks for /dev/md3 set to 2


Den fortschritt beim synchronisieren betrachten wir mit:

eis-64-raid-test # watch cat /proc/mdstat

Mit "q" die anzeige beenden wenn der resync fertig ist.


Dann schauen wir was der bootloader davon hält

eis-64-raid-test # eisman install extlinux
The following packages will be installed:
version  status   name                   source
---------------------------------------------------------------------
3.6.0    stable   extlinux               https://www.pack-eis.de
1 package(s) using approx. 1 MB of disk space.
Continue (y/n) [yes]?
Downloading required packages ...
=> [####################] extlinux (3.6.0)...                          [ 
  OK  ]
Done!
Installation of: extlinux (3.6.0) ...
Attribute Legacy Bios Bootable Set - /dev/sda1
Attribute Legacy Bios Bootable Set - /dev/sdb1
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sda
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sdb
Detected RAID on /boot - update  EXTlinux with --raid
Successfully installed: extlinux (3.6.0)!

Ales OK. Beide platten sind nun bereit.


Das können wir nun testen

eis-64-raid-test # reboot

indem wir von beiden Platten einmal booten.



Damit wäre der zweite Schritt ebenfalls erledigt, und wir machen unsere 
temporären Änderungen wieder rückgängig.

Ein Blick in die extlinux.conf verrät, dass schon alles passend 
hingebogen wurde.

eis-64-raid-test # cat /boot/extlinux/extlinux.conf
#-------------------------------------------------------------------------
# /boot/extlinux/extlinux.conf - bootloader configuration
# created: 2025-12-21 14:36:49
#-------------------------------------------------------------------------

PATH com32
UI menu.c32
DEFAULT eis
PROMPT 0
MENU TITLE eisfair - EXTlinux - Bootmenu
TIMEOUT 30

LABEL eis
     MENU LABEL eis
     KERNEL ../kernel
     INITRD ../initrd.gz
     APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 
raid=noautodetect consoleblank=600 vga=773

LABEL 6.6.106-VIRT
     MENU LABEL 6.6.106-VIRT
     KERNEL ../kernel-6.6.106-eisfair-64-VIRT
     INITRD ../initrd-6.6.106-eisfair-64-VIRT.gz
     APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 
raid=noautodetect consoleblank=600 vga=773


Der fstab verpassen wir wieder die enprechenden uuid's für / und /boot 
und löschen die Kopie anschliessend.

eis-64-raid-test # cat /etc/fstab.orig
UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 / ext4 
defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4 
defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0    /media/floppy  auto      defaults,user,noauto     0 0
/dev/cdrom  /media/cdrom   iso9660   defaults,ro,user,noauto  0 0

eis-64-raid-test 3.6.2 # cat /etc/fstab
UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 / ext4 
defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4 
defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0    /media/floppy  auto      defaults,user,noauto     0 0
/dev/cdrom  /media/cdrom   iso9660   defaults,ro,user,noauto  0 0

eis-64-raid-test # rm -f /etc/fstab.orig


Dann vergrössern wir noch die Dateisysteme

eis-64-raid-test # resize2fs -p /dev/md1
resize2fs 1.47.2 (1-Jan-2025)
Filesystem at /dev/md1 is mounted on /boot; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 2
The filesystem on /dev/md1 is now 262080 (1k) blocks long.

eis-64-raid-test # resize2fs -p /dev/md3
resize2fs 1.47.2 (1-Jan-2025)
Filesystem at /dev/md3 is mounted on /; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md3 is now 1048560 (4k) blocks long.

eis-64-raid-test # df
Filesystem     1K-blocks   Used Available Use% Mounted on
/dev/md3         4050592 749596   3085388  20% /
/dev/md1          239471  23336    202704  11% /boot


und sind damit am Ziel angelangt.



Etwas "finetuning" und die entsprechende Stelle entschärfen, ist sicher 
noch nötig, genauso /data miteibeziehen.

Als ersten entwurf lasse ich es mal so stehen ;-)



Viel "Spass" beim Testen und Frohe Festtage

Gruss Thomas



Mehr Informationen über die Mailingliste Eisfair