[Eisfair] virsh shutdown eines kvm E1-VM nicht möglich.

Kay Martinen kay at martinen.de
Sa Aug 4 23:18:13 CEST 2018


Am 04.08.2018 um 21:40 schrieb Hilmar Böhm:

> ich glaube wir reden da aneinander vorbei. Du fährst mit Deinem
> Promox-Server einen Mercedes, ich dagegen mit meinem Debian Server und
> KM als Virtualisieren nur einen Feld-, Wald- und Wiesen-Golf. Beide
> Systeme sind m.E. nicht vergleichbar (Zumindest nicht vom

Würde ich nicht sagen. Das Basissystem von Proxmox ist ein
Debian-"Golf". ;-) Das Proxmox-ige steckt in deren Repository das beim
installieren automatisch mit eingebunden wird.

Das einzig "Mercedes-artige" hier mag die Hardware sein. Das ist ein
Proliant DL 360 Gen 5 Mit 12 GB, 8 Kernen und 2 Raids. Alt, aber
Zuverlässig.

> Proxmox verwendet als Dateisystem ZOFFS, das hat eine Snapshot-Funktion
> bereits eingebaut. (Selbst wenn man Proxy mit MALVE Volumes nutzt, gibt

Wenn du statt MALVE hier LVM meinst, richtig. Du KANNST ZFS nutzen. Und
für bestimmte Setups ist es auch ratsam. Es geht aber auch ohne!

> Ich habe nur ein einfaches ex4-Filesystem, auf dem in einem Verzeichnis
> die KM-Images meiner KM-Gäste wohnen. Also Unix Schnaps!

Aber ich benutze doch auch LVM und ext4 darauf.

root at pve:~# lsblk
NAME                         MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda                            8:0    0  33,9G  0 disk
├─sda1                         8:1    0  1007K  0 part
├─sda2                         8:2    0   127M  0 part
└─sda3                         8:3    0  33,8G  0 part
  ├─pve-swap                 253:0    0   4,1G  0 lvm  [SWAP]
  ├─pve-root                 253:1    0   8,3G  0 lvm  /
  ├─pve-data_tmeta           253:2    0    20M  0 lvm
  │ └─pve-data-tpool         253:4    0  17,3G  0 lvm
  │   ├─pve-data             253:5    0  17,3G  0 lvm
  │   ├─pve-vm--601--disk--1 253:6    0     1G  0 lvm
  │   └─pve-vm--600--disk--1 253:7    0     2G  0 lvm
  └─pve-data_tdata           253:3    0  17,3G  0 lvm
    └─pve-data-tpool         253:4    0  17,3G  0 lvm
      ├─pve-data             253:5    0  17,3G  0 lvm
      ├─pve-vm--601--disk--1 253:6    0     1G  0 lvm
      └─pve-vm--600--disk--1 253:7    0     2G  0 lvm
sdb                            8:16   0 136,7G  0 disk /storage
sr0                           11:0    1  1024M  0 rom

> Du brauchst selbstverständlich mit Deinem Mercedes nur ein paar Klicks.
> Bär' auch schlecht, Wendens nicht so wäre. Ich würde an Deiner Stelle

Du kannst es auch "Drüber" installieren. Siehe:
https://pve.proxmox.com/wiki/Installation


> bei Deinen Eis fair-Gästen allerdings etwas misstrauisch sein, ob die
> Backups mit dumpf wirklich konsistent durchgeführt werden, denn Eis fair
> regiert nicht auf ein Showdown Kommando, das von "außerhalb" abgesetzt
> wird.

Siehe: https://www.thomas-krenn.com/de/wiki/LVM_Snapshots

Ich merke hier generell nichts von Unterbrechungen der VMs. Denn so wie
ich das sehe: Die VM wird vom Hypervisor eingefroren und wieder
aufgetaut. Die läuft danach einfach weiter als wär nix gewesen. Denn "es
passiert ja nix" in der Zwischenzeit. Darum ist es Egal ob Eisfair auf
ein ACPI-Event nicht reagiert oder sonst was.

Den Qemu-agent hab ich bei anderen Gästen (debian u.a.) installiert weil
er da z.B. hilfreich ist für die Bildschirm-darstellung. Und natürlich
reagiert er auf ein Shutdown des Hosts.

BTW: Wenn Proxmox selbst runter fährt, dauert es zwar Minuten. Aber dann
ist es auch Aus. Und nach dem Einschalten ebenso und die VMs sind dann
sofort wieder da. Ich hab den Verdacht die werden; auch ohne qemu-agent;
einfach nur eingefroren. Bisher völlig Problemlos.

> 
> [Ein Crash eines Systems (erzeugt mit "virsh destroy") wirkt wie Stecker
> ziehen und hinterlässt ein inkonsistentes System. Virsh kann auch

Es Zieht ja niemand den Stecker dabei. Ich denke es ist mehr wie ein
kurzes pausieren eines daemons oder anderen Prozesses. Nur das hier eine
ganze VM kurz pausiert. Und darum braucht da auch nix runter gefahren zu
werden.


> 
> virsh ist die Kommandozeilen-App, mit der man vollständig eine
> KVM-Umgebung administrieren kann. Natürlich kann man auch
> GUI-Applikationen verwenden (z.B. "virtual-manager"). Aber ich muss das
> Starten und Stoppen fürs Backup skripten und das mache ich deshalb mit
> "virsh" (VIRtualSHell).
> (Btw. Vermutlich verwendet Proxmox intern auch Virsh-Funktionen /
> Kommandos)

Es hat in der GUI eingebettet auch eine Kommandokonsole für jede VM. Ich
benutzte die nie weil es nicht nötig ist. Gut möglich das die Befehle
dort die gleichen sind. IMHO ist es aber eher eine qemu-shell o.ä.

> 
> Also sind meine Anforderungen anders als Deine!
> Und die Frage wäre: Muss ich denn Proxmox installieren, um ein Backup
> meiner VM's zu machen?

S.O. Du kannst es nachinstallieren. Evtl. mußt du einmal neu booten um
den angepassten kernel zu starten aber danach hast du dann auch eine
WebUI mit der du dir das leben leichter machen kannst.

> 
> Ich sollte daher genauer fragen,
> - ob es Nutzer von virtualisierten Eisfair-Servern gibt, die auf einem
> KVM-Virtualisierer laufen
> - und als Filesystem für die Images nur ext4 nutzen
> - und die solche Gast-Images konsistent sichern.

Ja, hier! Proxmox nutzt KVM und Qemu und ich habe ext4 auf lvm laufen
und darin laufen derzeit Drei Virtuelle Eisfair Server.

Das die Sicherungen konsistent sind beweist m.E. die Schilderung meines
Umzugs. Gut, da habe ich alle vorher gestoppt um sicher zu gehen. Aber
auch weil es eh länger dauerte und ich hoffte das die beteiligten IPs so
aus den caches der Switches u.a. raus sind wenn sie auf dem neuen Server
wieder starten. Klappte Perfekt.

Ich sah auch keinen Grund beim umzug einen Snapshot wieder her zu
stellen da ich eh den letzten Stand der VM sichern wollte - durch runter
fahren u.s.w.

> Trotzdem vielen Dank für Deine Antwort. Proxmox ist sicherlich ein Thema
> für mich und eines meiner nächsten Projekte. Die HW dafür hätte ich.
> (Aber die Zeit... Selbst für kleine Admins im 65+ Status. :-) )

-10 hier. Und es ist wirklich einfach. Hätte ich anfangs aber auch nie
gedacht.



Kay

-- 
Sent via SN (Eisfair-1)


Mehr Informationen über die Mailingliste Eisfair