[Eisfair] Soft-Raid einrichten
Thomas Zweifel
t2fel at gmx.net
Di Dez 23 16:47:19 CET 2025
Hallo Marcus, Hallo NG
Am 21.12.25 um 18:05 schrieb Marcus Röckrath:
>> Ein Tipp zu der Anleitung habe ich nicht, allerdings könnte ich einen
>> alternativen Weg aufzeigen, falls noch Interesse besteht.
>
> Gerne her damit, ich muss nicht die alte vor extlinux entstandene Version
> "reparieren".
>
Den eis habe ich mit dem momentan aktuellen installer
(eisfair-3.6.2-6.6.5-VIRT-x86_64-cd-image.iso) erstellt und unter
VirtualBox getestet.
Installiert den Eis mit den Vorgaben vom Installer, also 128M swap 2G
für root und der rest für /data.
Die finale Grösse für euer System legen wir beim partitinieren der
ersten Raid-Platte fest.
Da nach jedem Systemstart die Laufwerksbezeichner (sda, sdb) vertauscht
sein können dürft ihr keinesfalls die Anleitung als Copy-Paste Vorlage
nutzen. Da müsst ihr wirklich aufpassen und mitdenken!
Wenn ich änderungen an Dateien mache dann rufe ich "cat datei" auf um
das Resultat anzuzeigen, ihr nutzt dann euren Lieblingseditor um die
Datei zu bearbeiten.
Mein Lösungsansatz ist so gestaltet, dass man dass uuid-Gedöns möglichst
nicht anfassen muss. Dehalb werden die vorhandenen Dateisysteme geklont
und nicht kopiert. Das Datenlaufwerk habe ich zum testen weggelassen,
das werde ich später noch ergänzen.
Gut, dann beginnen wir mit der Umstellung.
Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel : 6.6.106-eisfair-64-VIRT
eis-64-raid-test # df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sda3 3021608 732672 2115268 26% /
/dev/sda1 86491 29883 49727 38% /boot
/dev/sda4 4838476 1244 4570740 1% /data
eis-64-raid-test # grep sd /proc/partitions
8 16 8388608 sdb
8 0 8388608 sda
8 1 98304 sda1
8 2 131072 sda2
8 3 3145728 sda3
8 4 5002223 sda4
sda ist der laufende eis, also erstellen wir die Partitionen auf sdb.
Die erste Partition für /boot muss etwas grösser werden als sda1, da die
Raid-Signatur ebenfalls etwas Platz belegt. Nehmt dafür nicht weniger
als 128M.
Die zweite Partition (swap) könnt ihr beliebig gross wählen.
Die dritte Partition für / muss ebefalls grösser werden als das
vorhandene sda3.
Die hier gewälten Grössen sind dann im fertig migrierten eis nutzbar.
eis-64-raid-test # gdisk /dev/sdb
GPT fdisk (gdisk) version 1.0.10
Partition table scan:
MBR: not present
BSD: not present
APM: not present
GPT: not present
Creating new GPT entries in memory.
Command (? for help): n
Partition number (1-128, default 1):
First sector (34-16777182, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-16777182, default = ...) or {+-}size{KMGTP}: +256M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
Command (? for help): n
Partition number (2-128, default 2):
First sector (34-16777182, default = 526336) or {+-}size{KMGTP}:
Last sector (526336-16777182, default = ...) or {+-}size{KMGTP}: +512M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
Command (? for help): n
Partition number (3-128, default 3):
First sector (34-16777182, default = 1574912) or {+-}size{KMGTP}:
Last sector (1574912-16777182, default = ...) or {+-}size{KMGTP}: +4G
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
Nachdem die Partitionen erstellt sind ändern wir noch die Label.
Die könnt ihr nach eurem Geschmack wählen.
Partition 1 darf keine Leerzeichen enthalten, da extlinux dann
fehlermeldungen kosmetischer Natur ausgibt - Wollen wir aber nicht.
Command (? for help): c
Partition number (1-3): 1
Enter name: Linux_RAID_boot
Command (? for help): c
Partition number (1-3): 2
Enter name: Linux RAID swap
Command (? for help): c
Partition number (1-3): 3
Enter name: Linux RAID root
Das sollte dann etwa so aussehen:
Command (? for help): p
Disk /dev/sdb: 16777216 sectors, 8.0 GiB
Model: VBOX HARDDISK
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 52B892EC-911F-40FF-A614-A95007297133
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 16777182
Partitions will be aligned on 2048-sector boundaries
Total free space is 6815677 sectors (3.2 GiB)
Number Start (sector) End (sector) Size Code Name
1 2048 526335 256.0 MiB FD00 Linux_RAID_boot
2 526336 1574911 512.0 MiB FD00 Linux RAID swap
3 1574912 9963519 4.0 GiB FD00 Linux RAID root
Wenn alles passt, speichern wir die Tabelle
Command (? for help): w
Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
PARTITIONS!!
Do you want to proceed? (Y/N): y
OK; writing new GUID partition table (GPT) to /dev/sdb.
The operation has completed successfully.
und kontrollieren ob der Kernel die Änderungen übernommen hat.
eis-64-raid-test # grep sd /proc/partitions
8 16 8388608 sdb
8 17 262144 sdb1
8 18 524288 sdb2
8 19 4194304 sdb3
8 0 8388608 sda
8 1 98304 sda1
8 2 131072 sda2
8 3 3145728 sda3
8 4 5002223 sda4
Passt.
Als nächstes erstellen wir die Metadevices.
Die Metadaten version von md1 muss unbedingt 0.90 sein!
Für die restlichen md könnt ihr auch die 1.2 wählen wie sie beim eis
üblich sind.
Alles nach mdadm bis zum --force ist eine Zeile
eis-64-raid-test # mdadm -C -l1 -n1 --metadata=0.90 --bitmap=none
/dev/md1 /dev/sdb1 --force
mdadm: array /dev/md1 started.
eis-64-raid-test # mdadm -C -l1 -n1 --metadata=1.0 --bitmap=none
/dev/md2 /dev/sdb2 --force
mdadm: array /dev/md2 started.
eis-64-raid-test # mdadm -C -l1 -n1 --metadata=1.0 --bitmap=none
/dev/md3 /dev/sdb3 --force
mdadm: array /dev/md3 started.
eis-64-raid-test # cat /proc/mdstat
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5]
[raid4] [multipath]
md3 : active raid1 sdb3[0]
4194240 blocks super 1.0 [1/1] [U]
md2 : active raid1 sdb2[0]
524224 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdb1[0]
262080 blocks [1/1] [U]
unused devices: <none>
Nachdem das Raid am Start ist, lassen wir eine mdadm.conf generieren.
eis-64-raid-test # setup
system -> filesystems -> mdadm -> create mdadm conf
Das müsste dann etwa so auschauen:
eis-64-raid-test # cat /etc/mdadm/mdadm.conf
#----------------------------------------------------------------------------
# mdadm.conf file generated by mdadm version: 3.6.1
#
# Do not edit this file, edit /etc/config.d/mdadm
# Creation date: 2025-12-21 Time: 11:06:35
#----------------------------------------------------------------------------
DEVICE partitions
ARRAY /dev/md/1 metadata=0.90 UUID=4b5abd89:9c378155:aaab5d46:054ed8b0
ARRAY /dev/md/2 metadata=1.0 UUID=44171d2d:e8997fc1:0ba7cb4c:6737c290
ARRAY /dev/md/3 metadata=1.0 UUID=cbdc9b87:8df9059e:28511971:932578a1
PROGRAM /usr/libexec/mdadm/mdadm-event-handler.sh
In den nächsten Schritten bereiten wir alles vor, damit der boot auf md3
möglich wird.
Da wir unbedingt "/dev/md3" als rootfs haben wollen, ändern wir die
bootloader Konfiguration dahingehend ab und ergänzen noch ein Parameter
der den Kernel anweist die Finger von dem md's zu lassen
(Fremdraid-Problematik).
In der Append Zeile vom "eis" ersetzen wir die "uuid=...." durch md3 und
ergänzen die "raid=..." Option, den rest lassen wir stehen.
eis-64-raid-test 3.6.2 # cat /boot/extlinux/extlinux.conf
#-------------------------------------------------------------------------
# /boot/extlinux/extlinux.conf - bootloader configuration
# created: 2025-12-21 09:30:54
#-------------------------------------------------------------------------
PATH com32
UI menu.c32
DEFAULT eis
PROMPT 0
MENU TITLE eisfair - EXTlinux - Bootmenu
TIMEOUT 30
LABEL eis
MENU LABEL eis
KERNEL ../kernel
INITRD ../initrd.gz
APPEND root=/dev/md3 raid=noautodetect consoleblank=600 vga=773
LABEL 6.6.106-VIRT
MENU LABEL 6.6.106-VIRT
KERNEL ../kernel-6.6.106-eisfair-64-VIRT
INITRD ../initrd-6.6.106-eisfair-64-VIRT.gz
APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7
consoleblank=600 vga=773
Das ändern wir auch in der fstab nachdem wir eine Kopie davon erstellt
haben.
eis-64-raid-test 3.6.2 # cp -p /etc/fstab /etc/fstab.orig
eis-64-raid-test 3.6.2 # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4
defaults,errors=remount-ro 0 1
UUID=5255c4be-9b85-477d-9092-49ce32b70995 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
Nun widmen wir uns der initrd.
Da die aktuelle initrd kein mdadm an Board hat müssen wir das nachrüsten.
Dazu erstellen wir eine neue Datei mit folgendem Inhalt:
eis-64-raid-test 3.6.2 # cat /etc/dracut.conf.d/01-dracut-mdraid.conf
# This config file enables raid support for dracut. Please
# do not modify this file manually.
# add mdraid dracut module
add_dracutmodules+=" mdraid " # Note leading space
Nun lassen wir eine neue initrd generieren
eis-64-raid-test 3.6.2 # mkinitrd --force
Creating: /boot/initrd-6.6.106-eisfair-64-VIRT.gz|6.6.106-eisfair-64-VIRT
dracut[I]: Executing: /usr/bin/dracut --force
/boot/initrd-6.6.106-eisfair-64-VIRT.gz 6.6.106-eisfair-64-VIRT
....
<schnipp>
....
dracut[I]: *** Including module: kernel-modules-extra ***
dracut[I]: *** Including module: mdraid ***
dracut[I]: *** Including module: eisfair-modules ***
....
<schnapp>
....
dracut[I]: *** Store current command line parameters ***
dracut[I]: Stored kernel commandline:
dracut[I]: resume=UUID=5255c4be-9b85-477d-9092-49ce32b70995
dracut[I]: root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7
rootfstype=ext4 rootflags=rw,relatime,errors=remount-ro
dracut[I]: *** Creating image file
'/boot/initrd-6.6.106-eisfair-64-VIRT.gz' ***
dracut[I]: *** Creating initramfs image file
'/boot/initrd-6.6.106-eisfair-64-VIRT.gz' done ***
Creation of initrd succeeded!
Das mdraid ist nun mit dabei und die vorbereitungen damit fast
abgeschlossen.
Eigentlich fehlt nur noch das rootfs auf md3
Damit die uuid erhalten bleibt klonen wir es mit dd.
An der Stelle muss ich eine klare Warnung aussprechen:
Macht sowas NIEMALS mit Produktivsystemen!
Nutzt dazu ein Live-Linux oder jemand kennt eine bessere Variante?
eis-64-raid-test 3.6.2 # dd if=/dev/sda3 of=/dev/md3 bs=1024k
3072+0 records in
3072+0 records out
3221225472 bytes (3.2 GB, 3.0 GiB) copied, 7.02591 s, 458 MB/s
eis-64-raid-test 3.6.2 # e2fsck -f -C0 -y /dev/md3
e2fsck 1.47.2 (1-Jan-2025)
/dev/md3: recovering journal
Pass 1: Checking inodes, blocks, and sizes
Pass 2: Checking directory structure
Pass 3: Checking directory connectivity
Pass 4: Checking reference counts
Pass 5: Checking group summary information
Free blocks count wrong (572262, counted=569987).
Fix? yes
Free inodes count wrong (163777, counted=163385).
Fix? yes
/dev/md3: ***** FILE SYSTEM WAS MODIFIED *****
/dev/md3: 33223/196608 files (0.0% non-contiguous), 216445/786432 blocks
Dann schauen wir mal was beim neustart schiefgehen wird :-)
eis-64-raid-test # reboot
Nach einer gefühlten ewigkeit dürfen wir uns endlich auf der
Rettungskonsole anmelden und können das (noch) nicht automatisch
gestartete md3 von Hand an den start bringen.
dracut:/root# mdadm -A /dev/md3 /dev/sdb3
falls mdadm /dev/sdb3 has no superblock meldet nochmal mit sda3 wiederholen.
Sobald die OK Meldungen "Found drive /dev/md3" und "Reached target ..."
erscheinen läuft der boot normal weiter, dazu verlassen wir die
Rettungskonsole mit CTRL-D (STRG-D)
Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel : 6.6.106-eisfair-64-VIRT
eis-64-raid-test # df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md3 3021608 744288 2103652 27% /
/dev/sdb1 86491 23348 56262 30% /boot
eis-64-raid-test # cat /proc/mdstat
md1 : active raid1 sda1[0]
262080 blocks [1/1] [U]
md2 : active raid1 sda2[0]
524224 blocks super 1.0 [1/1] [U]
md3 : active raid1 sda3[0]
4194240 blocks super 1.0 [1/1] [U]
unused devices: <none>
Die neue Konstellation verankern wir in der initrd und schauen ob der
Start diesmal komplett durchläuft.
eis-64-raid-test # mkinitrd --force
eis-64-raid-test # reboot
Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel : 6.6.106-eisfair-64-VIRT
eis-64-raid-test # df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md3 3021608 744492 2103448 27% /
/dev/sda1 86491 23352 56258 30% /boot
eis-64-raid-test # cat /proc/mdstat
md2 : active raid1 sdb2[0]
524224 blocks super 1.0 [1/1] [U]
md1 : active raid1 sdb1[0]
262080 blocks [1/1] [U]
md3 : active raid1 sdb3[0]
4194240 blocks super 1.0 [1/1] [U]
Damit wäre der erste Schritt erledigt und wir müssen nun schauen das der
boot von der "Raid-Platte" gelingt.
Dzu Klonen wir /boot auf md1 welches momentan auf sda liegt.
eis-64-raid-test # umount /boot
eis-64-raid-test # dd if=/dev/sda1 of=/dev/md1 bs=1024k
96+0 records in
96+0 records out
100663296 bytes (101 MB, 96 MiB) copied, 0.589452 s, 171 MB/s
Den Swap erstellen wir auch gleich
eis-64-raid-test # mkswap /dev/md2
Setting up swapspace version 1, size = 511.9 MiB (536801280 bytes)
no label, UUID=44740498-85a8-44bb-934e-cee9e446d585
und ändern den eintrag vom /boot und kopieren die uuid vom frisch
erstellten Swap in die entsprechende Zeile der fstab
eis-64-raid-test # cat /etc/fstab
/dev/md3 / ext4 defaults,errors=remount-ro 0 1
/dev/md1 /boot ext4 defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0 /media/floppy auto defaults,user,noauto 0 0
/dev/cdrom /media/cdrom iso9660 defaults,ro,user,noauto 0 0
eis-64-raid-test # mount /boot
eis-64-raid-test # df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md3 3021608 744480 2103460 27% /
/dev/md1 86491 23352 56258 30% /boot
Soweit schauts gut aus, also installieren wir den Boot-Krams
eis-64-raid-test # eisman install extlinux
The following packages will be installed:
version status name source
---------------------------------------------------------------------
3.6.0 stable extlinux https://www.pack-eis.de
1 package(s) using approx. 1 MB of disk space.
Continue (y/n) [yes]? y
Downloading required packages ...
=> [####################] extlinux (3.6.0)... [
OK ]
Done!
Installation of: extlinux (3.6.0) ...
Attribute Legacy Bios Bootable Set - /dev/sdb1
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sdb
Detected RAID on /boot - update EXTlinux with --raid
Successfully installed: extlinux (3.6.0)!
Dem booten von der "Raid-Platte" steht nun nichts mehr im weg.
Die geänderte Konstellation verankern wir nochmals in der initrd
eis-64-raid-test # mkinitrd --force
und schauen ob wir richtig liegen.
eis-64-raid-test # reboot
(Richtiges BootLW wählen)
Welcome to eisfair!
eisfair-base: 3.6.2
eiskernel : 6.6.106-eisfair-64-VIRT
eis-64-raid-test # cat /proc/mdstat
md1 : active raid1 sda1[0]
262080 blocks [1/1] [U]
md2 : active raid1 sda2[0]
524224 blocks super 1.0 [1/1] [U]
md3 : active raid1 sda3[0]
4194240 blocks super 1.0 [1/1] [U]
Das System läuft nun komplett auf sda also nutzen wir sdb zum Partitionieren
eis-64-raid-test # gdisk /dev/sdb
GPT fdisk (gdisk) version 1.0.10
Partition table scan:
MBR: protective
BSD: not present
APM: not present
GPT: present
Found valid GPT with protective MBR; using GPT.
Die Vorhandenen Partitionen löschen wir
Command (? for help): d
Partition number (1-4): 4
Command (? for help): d
Partition number (1-3): 3
Command (? for help): d
Partition number (1-2): 2
Command (? for help): d
Using 1
und erstellen mit den selben Grössen wie bei der ersten Platte
Command (? for help): n
Partition number (1-128, default 1):
First sector (34-16777182, default = 2048) or {+-}size{KMGTP}:
Last sector (2048-16777182, default = ...) or {+-}size{KMGTP}: +256M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
Command (? for help): n
Partition number (2-128, default 2):
First sector (34-16777182, default = 526336) or {+-}size{KMGTP}:
Last sector (526336-16777182, default = ...) or {+-}size{KMGTP}: +512M
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
Command (? for help): n
Partition number (3-128, default 3):
First sector (34-16777182, default = 1574912) or {+-}size{KMGTP}:
Last sector (1574912-16777182, default = ...) or {+-}size{KMGTP}: +4G
Current type is 8300 (Linux filesystem)
Hex code or GUID (L to show codes, Enter = 8300): fd00
Changed type of partition to 'Linux RAID'
korrigieren die Label wieder
Command (? for help): c
Partition number (1-3): 1
Enter name: Linux_RAID_boot
Command (? for help): c
Partition number (1-3): 2
Enter name: Linux RAID swap
Command (? for help): c
Partition number (1-3): 3
Enter name: Linux RAID root
Command (? for help): p
Disk /dev/sdb: 16777216 sectors, 8.0 GiB
Model: VBOX HARDDISK
Sector size (logical/physical): 512/512 bytes
Disk identifier (GUID): 27CC3E6E-A59F-4804-B3D4-CD5F57201505
Partition table holds up to 128 entries
Main partition table begins at sector 2 and ends at sector 33
First usable sector is 34, last usable sector is 16777182
Partitions will be aligned on 2048-sector boundaries
Total free space is 6815677 sectors (3.2 GiB)
Number Start (sector) End (sector) Size Code Name
1 2048 526335 256.0 MiB FD00 Linux_RAID_boot
2 526336 1574911 512.0 MiB FD00 Linux RAID swap
3 1574912 9963519 4.0 GiB FD00 Linux RAID root
und wenn alles passt speichern
Command (? for help): w
Final checks complete. About to write GPT data. THIS WILL OVERWRITE EXISTING
PARTITIONS!!
Do you want to proceed? (Y/N): y
OK; writing new GUID partition table (GPT) to /dev/sdb.
The operation has completed successfully.
Kontrolle ist besser als vertauen
eis-64-raid-test # grep sd /proc/partitions
8 0 8388608 sda
8 1 262144 sda1
8 2 524288 sda2
8 3 4194304 sda3
8 16 8388608 sdb
8 17 262144 sdb1
8 18 524288 sdb2
8 19 4194304 sdb3
Passt.
Damit können wir nun das Raid in betrieb nehmen
Als erstes hängen wir die Hot-Spare Lauferke zum bestehenden Raid
eis...test # for i in 1 2 3 ; do mdadm --add /dev/md$i /dev/sdb$i ; done
mdadm: added /dev/sdb1
mdadm: added /dev/sdb2
mdadm: added /dev/sdb3
und erweitern es auf die zweit Platte.
eis-64-raid-test # for i in 1 2 3 ; do mdadm -G -n2 /dev/md$i ; done
raid_disks for /dev/md1 set to 2
raid_disks for /dev/md2 set to 2
raid_disks for /dev/md3 set to 2
Den fortschritt beim synchronisieren betrachten wir mit:
eis-64-raid-test # watch cat /proc/mdstat
Mit "q" die anzeige beenden wenn der resync fertig ist.
Dann schauen wir was der bootloader davon hält
eis-64-raid-test # eisman install extlinux
The following packages will be installed:
version status name source
---------------------------------------------------------------------
3.6.0 stable extlinux https://www.pack-eis.de
1 package(s) using approx. 1 MB of disk space.
Continue (y/n) [yes]?
Downloading required packages ...
=> [####################] extlinux (3.6.0)... [
OK ]
Done!
Installation of: extlinux (3.6.0) ...
Attribute Legacy Bios Bootable Set - /dev/sda1
Attribute Legacy Bios Bootable Set - /dev/sdb1
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sda
Installed MBR (/tmp/extlinux/gptmbr.bin) to /dev/sdb
Detected RAID on /boot - update EXTlinux with --raid
Successfully installed: extlinux (3.6.0)!
Ales OK. Beide platten sind nun bereit.
Das können wir nun testen
eis-64-raid-test # reboot
indem wir von beiden Platten einmal booten.
Damit wäre der zweite Schritt ebenfalls erledigt, und wir machen unsere
temporären Änderungen wieder rückgängig.
Ein Blick in die extlinux.conf verrät, dass schon alles passend
hingebogen wurde.
eis-64-raid-test # cat /boot/extlinux/extlinux.conf
#-------------------------------------------------------------------------
# /boot/extlinux/extlinux.conf - bootloader configuration
# created: 2025-12-21 14:36:49
#-------------------------------------------------------------------------
PATH com32
UI menu.c32
DEFAULT eis
PROMPT 0
MENU TITLE eisfair - EXTlinux - Bootmenu
TIMEOUT 30
LABEL eis
MENU LABEL eis
KERNEL ../kernel
INITRD ../initrd.gz
APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7
raid=noautodetect consoleblank=600 vga=773
LABEL 6.6.106-VIRT
MENU LABEL 6.6.106-VIRT
KERNEL ../kernel-6.6.106-eisfair-64-VIRT
INITRD ../initrd-6.6.106-eisfair-64-VIRT.gz
APPEND root=UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7
raid=noautodetect consoleblank=600 vga=773
Der fstab verpassen wir wieder die enprechenden uuid's für / und /boot
und löschen die Kopie anschliessend.
eis-64-raid-test # cat /etc/fstab.orig
UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 / ext4
defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4
defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0 /media/floppy auto defaults,user,noauto 0 0
/dev/cdrom /media/cdrom iso9660 defaults,ro,user,noauto 0 0
eis-64-raid-test 3.6.2 # cat /etc/fstab
UUID=1d3391c9-0c49-40e0-973a-ff036dd126a7 / ext4
defaults,errors=remount-ro 0 1
UUID=e119dcda-5d17-4286-8195-f5bb6537d352 /boot ext4
defaults,errors=remount-ro 0 1
UUID=44740498-85a8-44bb-934e-cee9e446d585 none swap sw 0 0
#UUID=51b5326d-f7ac-41c6-8c0b-32d89e2a0f3d /data ext4 defaults 0 2
/dev/fd0 /media/floppy auto defaults,user,noauto 0 0
/dev/cdrom /media/cdrom iso9660 defaults,ro,user,noauto 0 0
eis-64-raid-test # rm -f /etc/fstab.orig
Dann vergrössern wir noch die Dateisysteme
eis-64-raid-test # resize2fs -p /dev/md1
resize2fs 1.47.2 (1-Jan-2025)
Filesystem at /dev/md1 is mounted on /boot; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 2
The filesystem on /dev/md1 is now 262080 (1k) blocks long.
eis-64-raid-test # resize2fs -p /dev/md3
resize2fs 1.47.2 (1-Jan-2025)
Filesystem at /dev/md3 is mounted on /; on-line resizing required
old_desc_blocks = 1, new_desc_blocks = 1
The filesystem on /dev/md3 is now 1048560 (4k) blocks long.
eis-64-raid-test # df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/md3 4050592 749596 3085388 20% /
/dev/md1 239471 23336 202704 11% /boot
und sind damit am Ziel angelangt.
Etwas "finetuning" und die entsprechende Stelle entschärfen, ist sicher
noch nötig, genauso /data miteibeziehen.
Als ersten entwurf lasse ich es mal so stehen ;-)
Viel "Spass" beim Testen und Frohe Festtage
Gruss Thomas
Mehr Informationen über die Mailingliste Eisfair