[Eisfair] [e64] Cannot convert boot device /dev/sda to /dev/disk/by-id/!

D. Oezbilen oezbilen at gmx.net
Sa Sep 14 20:15:09 CEST 2019


> Bis auf zwei Primergy und noch ältere habe ich nur Proliants.
Die SNI sind laut(er) und v. Durchsatz auch nicht soooo toll.

Wichtig fuer mich war auch die RILO frei zu schalten, bis G6 Kann man 
seinen Key weiterverwenden, zudem man fuer Proliants viiiiiiiele Teile 
auf Gebrauchtmarkt bekommt, bei IBM X Servern eng, sehr eng und teuer, 
SNI aehnlich ungut. ;-)
Leider habe ich einen IBM X3, *der* ist der einzige wo das VM Modul fuer 
die zweite CPU (habe genug fuer diese Reihe) 300 Dollar kostet, 
unerklaerbar, aber halt auch teurer als der Server selbst. Bei HP G6 
braucht man keinen VRM, CPU drauf und sich freuen.

Ich habe wenig Einsicht (auch ueber die Energiebilanz), warum man *neue* 
Server kaufen muss? Ausser dass die Firmen das Zeug natuerlich in den 
Mark druecken wollen. Fuer das, was ich zu versorgen habe, langen die 
alten Server-Typen, die ab G6 auch rel. gut mit dem Stromverbrauch sind.
Eine 24CPU Server, der bei top ca. 4.x anzeigt, sie hat fuenf virt. 
Einhiten. Sprich, da kann ich noch soooooooviel virt. Einheiten 
draufpacken, der neueste latest, greatest, fastest hat noch mehr Bums, 
aber und auch die HW-Intel-Luecke. Also, was solls? ;-)

> LSI == Megaraid? Das müsste ich irgendwann auf den HP Netservern probieren.
Yepp, sie sind hurtiger als die SierraChips (der selben Gens, als SAS 6G 
etc) v. HP, HP Controller sind OK, Platte faellt aus, Platte rein, schon 
geht der Sync los etc.
Die G5 HP-Controller E200/i konnte  SSD Raids nicht bedienen, geschweige 
der Bus in den Servern, PCI2.1 ist dann der Sprung. Das langt fuer meine 
s.o. Beduerfnisse.
Das tolle an LSI, Du kannst ueber die CLI alles mit machen, bei HP auch, 
aber man merkt auch an den Parametern, dass hpacucli weitaus weniger hat.

> Öhm, ich hab m.W. nur zwei - zwei Servern. ;)
Die virt. HW Reihe HP x70 ist praedestiniert mit mehreren NICs, SAS 
Controllern auszustatten

Warum ich das gemacht habe? Ich wollte die SSDs ueber zwei LSI zu LVM 
ueber zwei Controller verteilen. Im Moment sind diese noch isoliert, 
also jedes Raid, ohne LVM, jedes Raid haengt nur an _einem_ LSI.

> Okay. Aber bei den netzwerk-karten gab es doch die möglichkeit durch
> eine Einstellung (/sys/irgendwas, bootoption) die alten namen zu
> erhalten. Gibt es dergleichen nicht für die Platten?
Nee, soweit ich das beurteilen kann nein.

> Scheint ein neuerer oder Größerer zu sein.
Ist nicht der P600 tick leistungsfaehiger als die 410er Reihe?

  Wäre 0+1 nicht besser gewesen
> oder macht der das nicht?
Das ist es, 0+1=R10, je nach dem welcher Hersteller das Kind benennt.

  Hätte man alternativ auch die beiden R1 per
> mdadm zu einem Raid 0 bündeln können!?
Raid 0 ist immer extrem belastet. Raid 0, egal wie Du unten die einzelne 
Einheit absicherst, r0 schreibt sequentiell, eine bricht weg, auch, wenn 
diese Subeinheit per r1 gesichert ist, ist das Volume weg.

Einmal ist bei 8 Platten in r10/1+0 in einer Installation ___drei___ HDs 
ausgefallen. Cool, oder?

Es ging weiter. Nach 3* 50 min, war das Raid wieder da. R10, wenn Du 
produktive Systeme hast, die auch eine hohe I/0 haben sollen, R5 um 
grosse Volumes mitlaufen zu lassen. Das alles, wenn Du keine SSD 
einsetzt, oder?


>>> Wem sagst du das. Ich hab so was auf einem Älteren Proliant. Boot (sda)
>>> sind ein Raid 1 dann kommt ein Raid 5 aus 3+1(spare) und danach ein
>>> storage-gehäuse mit 4*3 Disks/Raid 5 die über LVM als getrennte PV zu
>>> einem großen LV gebündelt sind. Zusammen 18 Platten. ;)
Noch ne Idee dazu, Du verlierst hier I/O, denn die drei Disk pro r5 
haben effektiv nur zwei HDs die parallel eine I/O liefern, die dritte 
ist Parity. Hingegen, wenn Du die zwoelf

[und jetzt wird es interessant :-)]

* auf ein Raid50 verbindest, sprich ein Volumen
* mit mehreren Arrays erstellst
=>
kriegst Du dann aus dem GesamtVolume eine extrem hohe I/O ueber __zehn__ 
Platten, d.h. 12 Gesamt - 2 Parity = 10 die I/O machen.

D.h. alle deine Arrays profitieren von der hohen I/O Leistung des R5(0), 
was unter dem Volume liegt. Egal welches Array Du ansprichst, es sind 
immer zehn autarke HDs die etwas auf den Controller werfen. ;-)

Dann ..... ;-)
legst Du fuer jedes Array (das, was fdisk sieht) ein ausgerichtetes xfs 
aus. Obwohl xfs viel schon selber sniffert und richtig einstellt, doch 
nicht immer. Deswegen abhaengig v. der Stripgroesse 128 (min) und der 
Plattenanzahl, worauf das Array leigt, formatierst Du mit xfs (nicht ext4).

Fuer Stripsize 256 bei vier I/O (also 8 mit r10) Platten BLocksize 2kB
mkfs.xfs -f -d su=256k,sw=4 -b size=2048 -L [name] device

su: Stripe unit, which is the RAID chunk size, in bytes
sw: Multiplier of the stripe unit, i.e. number of data disks

Sowas geht auch fuer ext4, ein ausgerichtetes FS-System

Die Begriffe bei ext4 sind:
RAID stride, des HW Raids.
RAID stripe width, die Anzsal der schreibbeteiligten I/O Platten.
Die Blocksize ist in Bytes, die ersten beiden in kB

Bei den rostigen Platten ;-) ist es auch sinnvoll den IO Scheduler zu 
veraendern, wie auch bei SSD v. default auf NOOP zu gehen.

Auf einmal, mit genug Speicher/RAM merkst, was diese rusty-Platten auch 
bringen koennen. Gerade, wenn die einzelne U320 nicht hohe Leistung hat 
(sie hat sie nicht), waere dieses Konstrukt empfehlenswert.
Im Umkehrschluss, r10 bei SSD? Ja, nur 10 mehr Leistung heisst es hier 
und dort, aber eben auch eine hohe Schreiblast, Verschleiss der SSD. R5 
und es passt. ;-)

Wllt. aber hast Du eine striped LVM? Sie bringt auch hohe I/O, ist 
flexibel, aber ein Parameter, die Blockgrosse muss dann auch angepasst 
werden, zudem, was unter dem LVM liegt.

Sprich man kommt auf verschiedene Wege zu hoher I/O. Welche am Ende merh 
bringt?
LVMs lassen sich in kvm perfekt als Hardware einbinden. UNd man hat eine 
Schicht weniger.
Snaphosts sind elegant und sind v. qemu/kvm losgeloest.

> Nicht sehr. Die internen sind U320 und das Storagehäuse auch. Die
> Platten darin sind normale SATA mit je 400 GB. Die box soll bis 750 GB
> Disks können, oder mehr. Aber bei 12 Stck. geht das ins Geld. SAS-DP
> sollte IMHO auch möglich sein.

Ich habe Z.Z. nicht ganz den Ueberblick, wieviel 72GB SAS (2,5 Zoll) ich 
habe, mit Rahmen. Wenn deine Kiste sich umbauen laesst -gegen 
Portokosten- kannst Du haben, Ich kann Dir fuer einen G5 auch einen 2,5 
Kaefig geben. Dann sind diese U320 Stromfresser weg. So gross koennen 
die doch gar nicht sein. :-) 73 evtl 146 GB.

Ausserdem kriegst Du heute 40-50 EUR die DP 300GB, musst nur schauen, 
zusichern lassen, dass die HDs keine grown defects haben.

> aber Stromfressend.
Ich hatte mal Fujitsus, heiss, sparsam, aber trotzdem 17 Watt/Stck. ;-(


> Ich hatte da wohl nicht berücksichtigt wo und wann das zum Problem wird,
> offensichtlich ein udev problem das nicht-deterministisch vorgeht. Was
> die UUID von optional zu zwingend erhebt.
Genau, das ist es.
Marcus hat es im Thread noch mal sehr gut erklaert.

> Der P6i zeigt mir auch zwei Adapter an, den internen Port und den
> Externen mit dem Storage-gehäuse. ;)
Ja, klar, weil es alles HP Firmware ist. Das ist der Vorteil, wenn man 
SystemHW einsetzt.

> Na, verglichen mit "sda ist meine boot-platte" ist es lese- und
> merk-unfreundlich! Ich mag solch kryptischen Mist generell nicht. Ist so
> meine Ansicht.
Es hilft halt bei anderen Zustaenden.

> Ja, Computer helfen uns Probleme zu lösen - die wir ohne sie nicht
> hätten. :-)
Das stimmt auch.

> Du meinst 'tune2fs -U generate <device>
Ja, sowas, mag sein, dass die Syntax eine andere ist.

> Und warum nicht
> 
> tune2fs -L "Bootplatte" /dev/sda
Weil Du damit .... nicht die durch Neuformatierung gegebene UUID auf die 
alte setzen kannst, jetzt doch die fstab etc anpassen muesstets, evtl. 
auch eine grub.cfg. Who needs this?

Label zu UUID ist nicht exklusiv, ich benenne die Parts auch.

> ? Kann udev nicht nach Disklabel vorgehen oder ist das NiH?
Da bin ich mir nicht sicher, zudem Namen  etvl. nicht so eindeutig sein 
koennen (?) wie die UUID, oder?

>> xfs_admin -U device
> kennt auch den -L Parameter
>> mkswap -U device
> kennt ebenfalls -L
Sicher, es geht s.o. die neue UUID
zu setzen.

Grub/2 bootet v. UUID, Name? Ich denke nicht.

> (jedenfalls bei den befehlen aus meinem Proxmox)
Isoliert zu viel, man ist abhaegig. ein apt update && apt upgrade macht 
evtl. das System kaputt? Bin da nicht so sicher, weil es lange ist, dass 
ich Proxmox einsetzte, da musstest Du ihren Kernel nehmen.

> windows-registry geklaut. [tiefes mißbehagen]
Ist es aber nicht. Es hat nichts mit win32 zu tun, es ist eine Technik, 
die verlaesslich(er) ist, als das alte Zeug; das Bessere ist des Guten 
Feind. ;-)

Wir haben hier offtopic Erfahrung/en ausgetauscht, was meiner Meinung 
auch OK ist, wenn es auch Wilfried, der im WE ist, nicht weiterhilft. ;-)

Derya


Mehr Informationen über die Mailingliste Eisfair