Hallöchen Community,
Versuche das ganze mal zu schildern...
2 Server im Cluster (drbd als pri/sec) mountpunkt. Soweit funktioniert alles Dann kamm kvm dazu... Und das verursacht mir etwas ärger....
Virtuelle Machienen werden auf dem aktiven Master gestartet, wenn ich jedoch die node in Standby stelle, werden laut virsh die virtuellen maschienen normal heruntergefahren, der cluster manager bekommt dies aber irgendwie nicht mit.
Resultat virtuelle maschienen laufen in den stop timeout. setze ich allerdings nach dem runterfahren der maschienen ein virsh define vm.xml in die shell, funktioniert der failover und alles wechselt auf den secondary.
Beim secondary ist ebenfalls das selbe zu beobachten.
Auszug aus der console:
# pcs status
2 nodes and 4 resources configured
Online: [ node01 node02 ]
Full list of resources:
Master/Slave Set: ms_drbd [drbd]
Masters: [ node01 ]
Slave: [ node02 ]
Resource Group: FileSystem
fs_drbd (ocf::heartbeat:Filesystem): Started node01
Resource Group: VirtualMachines
vm001 (ocf::heartbeat:VirtualDomain): Started node01
PCSD Status:
node01: Online
node02: Online
Daemon Status:
corosync: active/enabled
pacemaker: active/enabled
pcsd: active/enabled
# pcs constraint
Location Constraints:
Ordering Constraints:
promote ms_drbd then start FileSystem (kind:Mandatory)
start FileSystem then start VirtualMachines (kind:Mandatory)
Colocation Constraints:
FileSystem with ms_drbd (score:INFINITY) (rsc-role:Master)
VirtualMachines with FileSystem (score:INFINITY)
hoffe jemand von euch hatte schonmal sowas...
alex