Libvirt PCS: Unterschied zwischen den Versionen
Zur Navigation springen
Zur Suche springen
(→Ziel) |
|||
| (14 dazwischenliegende Versionen desselben Benutzers werden nicht angezeigt) | |||
| Zeile 3: | Zeile 3: | ||
=Vorrausetzungen= | =Vorrausetzungen= | ||
| − | *2 unabhängige | + | *2 unabhängige Nodes in einem HA cluster |
| − | |||
*1 Netzlaufwerk | *1 Netzlaufwerk | ||
| + | |||
=Vorgehen= | =Vorgehen= | ||
# wir gehehn davon aus das die nodes eingerichtet sind unc mit hilfe von pcs verwaltet werden können siehe [[Pcsd]] bis punkt 6 | # wir gehehn davon aus das die nodes eingerichtet sind unc mit hilfe von pcs verwaltet werden können siehe [[Pcsd]] bis punkt 6 | ||
| Zeile 11: | Zeile 11: | ||
# wir binden auf beiden nodes unser netzlaufwerk ein | # wir binden auf beiden nodes unser netzlaufwerk ein | ||
# wir legen den speicherort für virtuellen machine auf unser netzlaufwer | # wir legen den speicherort für virtuellen machine auf unser netzlaufwer | ||
| − | # wir verbinden uns mit einem node mit virt-viewer und installieren dort die vm die wir später als HA resource verwalten wollen | + | # wir verbinden uns mit einem node mit virt-viewer und installieren dort die vm die wir später als HA resource verwalten wollen |
| + | =Aufbau= | ||
| + | *Wir haben kvm01 und kvm02 | ||
| + | *Wir haben ein gemeinsames NFS Share auf nfs-server | ||
| + | |||
=Vorbereitungen= | =Vorbereitungen= | ||
==Installation pcs corosync== | ==Installation pcs corosync== | ||
*apt install pacemaker corosync pcs | *apt install pacemaker corosync pcs | ||
| − | ==Auf beiden Nodes== | + | ==Auf beiden Nodes (kvm01 und kvm02)== |
===Löschen des alten Krams=== | ===Löschen des alten Krams=== | ||
*rm /etc/corosync/corosync.conf | *rm /etc/corosync/corosync.conf | ||
| Zeile 21: | Zeile 25: | ||
*passwd hacluster | *passwd hacluster | ||
123Start$ | 123Start$ | ||
| − | ===Auf einer Node=== | + | ===Auf einer Node (kvm01)=== |
*pcs host auth kvm01 kvm02 | *pcs host auth kvm01 kvm02 | ||
Username: hacluster | Username: hacluster | ||
| Zeile 27: | Zeile 31: | ||
kvm01: Authorized | kvm01: Authorized | ||
kvm02: Authorized | kvm02: Authorized | ||
| − | ===Cluster | + | ===Cluster setup=== |
| − | *pcs | + | *pcs cluster setup kvm-cluster kvm01 kvm02 --force |
| + | ===Cluster start=== | ||
| + | *pcs cluster start --all | ||
| + | |||
| + | ===Stonith deaktivieren=== | ||
| + | *pcs property set stonith-enabled=false | ||
| + | ===Status des Clusters=== | ||
| + | *pcs cluster status | ||
| + | |||
| + | =Weiteres= | ||
| + | ;Wir müssen die XML der Maschine auf einen gemeinsamen Speicherort legen. | ||
| + | *mkdir /var/lib/libvirt/images/pool/xml | ||
| + | *cp /etc/libvirt/qemu/debian11.xml /var/lib/libvirt/images/pool/xml/ | ||
| + | ;Wir holen die Maschine aus der Verwaltung raus. | ||
| + | *virsh undefine debian11 | ||
| + | Domain 'debian11' has been undefined | ||
=Wir erstellen die HA resource= | =Wir erstellen die HA resource= | ||
| − | *pcs resource | + | *pcs resource create debian11 VirtualDomain hypervisor="qemu:///system" config="/var/lib/libvirt/images/pool/xml/debian11.xml" migration_transport=ssh op start timeout="120s" op stop timeout="120s" op monitor timeout="30" interval="10" meta allow-migrate="true" priority="100" op migrate_from interval="0" timeout="120s" op migrate_to interval="0" timeout="120" |
| + | |||
| + | =Status der Maschine= | ||
| + | *pcs resource | ||
| + | * debian11 (ocf::heartbeat:VirtualDomain): Stopped | ||
| + | =Unklarer Zustand säubern= | ||
| + | *pcs resource cleanup | ||
| + | =Quelle= | ||
*http://www.unixarena.com/2015/12/rhel-7-pacemaker-configuring-ha-kvm-guest.html | *http://www.unixarena.com/2015/12/rhel-7-pacemaker-configuring-ha-kvm-guest.html | ||
Aktuelle Version vom 16. August 2023, 14:42 Uhr
Ziel
Eine hochverfügbare virtuelle Maschine
Vorrausetzungen
- 2 unabhängige Nodes in einem HA cluster
- 1 Netzlaufwerk
Vorgehen
- wir gehehn davon aus das die nodes eingerichtet sind unc mit hilfe von pcs verwaltet werden können siehe Pcsd bis punkt 6
- wir installiern libvirt auf beiden nodes
- wir binden auf beiden nodes unser netzlaufwerk ein
- wir legen den speicherort für virtuellen machine auf unser netzlaufwer
- wir verbinden uns mit einem node mit virt-viewer und installieren dort die vm die wir später als HA resource verwalten wollen
Aufbau
- Wir haben kvm01 und kvm02
- Wir haben ein gemeinsames NFS Share auf nfs-server
Vorbereitungen
Installation pcs corosync
- apt install pacemaker corosync pcs
Auf beiden Nodes (kvm01 und kvm02)
Löschen des alten Krams
- rm /etc/corosync/corosync.conf
Passwort setzen
- passwd hacluster
123Start$
Auf einer Node (kvm01)
- pcs host auth kvm01 kvm02
Username: hacluster Password: kvm01: Authorized kvm02: Authorized
Cluster setup
- pcs cluster setup kvm-cluster kvm01 kvm02 --force
Cluster start
- pcs cluster start --all
Stonith deaktivieren
- pcs property set stonith-enabled=false
Status des Clusters
- pcs cluster status
Weiteres
- Wir müssen die XML der Maschine auf einen gemeinsamen Speicherort legen.
- mkdir /var/lib/libvirt/images/pool/xml
- cp /etc/libvirt/qemu/debian11.xml /var/lib/libvirt/images/pool/xml/
- Wir holen die Maschine aus der Verwaltung raus.
- virsh undefine debian11
Domain 'debian11' has been undefined
Wir erstellen die HA resource
- pcs resource create debian11 VirtualDomain hypervisor="qemu:///system" config="/var/lib/libvirt/images/pool/xml/debian11.xml" migration_transport=ssh op start timeout="120s" op stop timeout="120s" op monitor timeout="30" interval="10" meta allow-migrate="true" priority="100" op migrate_from interval="0" timeout="120s" op migrate_to interval="0" timeout="120"
Status der Maschine
- pcs resource
* debian11 (ocf::heartbeat:VirtualDomain): Stopped
Unklarer Zustand säubern
- pcs resource cleanup