<div dir="auto"><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Not sure I got “or (due to two_node / wait_for_all in corosync.conf) waits until it can see the other node before doing anything” right. I mean according to<a href="https://access.redhat.com/solutions/1295713" style="text-decoration-line:none;color:rgb(66,133,244)">https://access.redhat.com/solutions/1295713</a> “</span>The 'two_node' parameter sets the quorum to '1' and allows one node to remain quorate and continue cluster operations after the second one is fenced.”<span style="font-size:10pt;font-family:'arial',sans-serif"><u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Exactly the same parameters are set for my cluster:<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">[root@srv1 ~]#  corosync-quorumtool -s<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Date:             Tue Mar 19 16:15:50 2019<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum provider:  corosync_votequorum<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Nodes:            2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Node ID:          1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Ring ID:          1/464<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorate:          Yes <u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Votequorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Expected votes:   2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Highest expected: 2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Total votes:      2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><b><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum:           1<u></u><u></u></span></b></p><p style="font-family:sans-serif;font-size:12.8px"><b><span style="font-size:10pt;font-family:'arial',sans-serif">Flags:            2Node Quorate WaitForAll<u></u><u></u></span></b></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Membership information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">    Nodeid      Votes Name<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         1          1 srv1cr1 (local)<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         2          1 srv2cr1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">I was testing fencing (I’m using fence_vmware_soap) and followed<a href="https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/high_availability_add-on_reference/s1-stonithtest-haar" style="text-decoration-line:none;color:rgb(66,133,244)">https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/high_availability_add-on_reference/s1-stonithtest-haar</a>and could in each case see that when:<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="margin:0cm 0cm 0.0001pt 36pt;font-size:11pt;font-family:calibri,sans-serif"><u></u><span style="font-size:10pt;font-family:'arial',sans-serif">a)<span style="font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;font-size:7pt;line-height:normal;font-family:"times new roman"">    </span></span><u></u><span style="font-size:10pt;font-family:'arial',sans-serif">Fencing the passive node the active remained active *<u></u><u></u></span></p><p style="margin:0cm 0cm 0.0001pt 36pt;font-size:11pt;font-family:calibri,sans-serif"><u></u><span style="font-size:10pt;font-family:'arial',sans-serif">b)<span style="font-variant-numeric:normal;font-variant-east-asian:normal;font-stretch:normal;font-size:7pt;line-height:normal;font-family:"times new roman"">    </span></span><u></u><span style="font-size:10pt;font-family:'arial',sans-serif">Fencing the active node caused the passive node to take over the active role*<u></u><u></u></span></p><p style="margin:0cm 0cm 0.0001pt 36pt;font-size:11pt;font-family:calibri,sans-serif"><span style="font-size:10pt;font-family:'arial',sans-serif">*in all cases pacemaker and corosync was not configured to start on boot<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Yes you are absolutely right regarding the fence condition when both shoot at the same time and I even tried option 3 from your list that is corosync qdevice. Here I followed<a href="https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/high_availability_add-on_reference/s1-quorumdev-haar#s2-managequorum-HAAR" style="text-decoration-line:none;color:rgb(66,133,244)">https://access.redhat.com/documentation/en-us/red_hat_enterprise_linux/7/html/high_availability_add-on_reference/s1-quorumdev-haar#s2-managequorum-HAAR</a><u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">So here’s quorum runtime status before adding the qdevice:<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">[root@srv1 ~]# pcs quorum status<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Date:             Tue Mar 19 16:34:12 2019<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum provider:  corosync_votequorum<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Nodes:            2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Node ID:          1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Ring ID:          1/464<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorate:          Yes<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Votequorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Expected votes:   2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Highest expected: 2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Total votes:      2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum:           1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Flags:            2Node Quorate WaitForAll<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Membership information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">    Nodeid      Votes    Qdevice Name<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         1          1         NR srv1cr1 (local)<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         2          1         NR srv2cr1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">And here’s the one after adding it:<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">[root@srv1 ~]# pcs quorum status<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Date:             Tue Mar 19 16:35:06 2019<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum provider:  corosync_votequorum<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Nodes:            2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Node ID:          1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Ring ID:          1/464<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorate:          Yes<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Votequorum information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Expected votes:   3<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Highest expected: 3<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Total votes:      3<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Quorum:           2<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Flags:            Quorate WaitForAll Qdevice<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Membership information<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">----------------------<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">    Nodeid      Votes    Qdevice Name<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         1          1    A,V,NMW srv1cr1 (local)<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         2          1    A,V,NMW srv2cr1<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">         0          1            Qdevice<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">I got some while adding the quorum device to the cluster because as mentioned I have on both nodes pacemaker and corosync set to not start at boot:<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">[root@srv1 ~]# pcs quorum device add model net host=otrs_db algorithm=ffsplit<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Setting up qdevice certificates on nodes...<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv2cr1: Succeeded<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv1cr1: Succeeded<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Enabling corosync-qdevice...<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv2cr1: not enabling corosync-qdevice: corosync is not enabled<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv1cr1: not enabling corosync-qdevice: corosync is not enabled<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Sending updated corosync.conf to nodes...<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv2cr1: Succeeded<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv1cr1: Succeeded<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Corosync configuration reloaded<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Starting corosync-qdevice...<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv2cr1: corosync-qdevice started<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">srv1cr1: corosync-qdevice started<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Is this a problem ? what can I do now, how can I test it ?<u></u><u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif"><u></u> <u></u></span></p><p style="font-family:sans-serif;font-size:12.8px"><span style="font-size:10pt;font-family:'arial',sans-serif">Thank you !</span></p></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">wt., 19.03.2019, 19:01 użytkownik Ken Gaillot <<a href="mailto:kgaillot@redhat.com">kgaillot@redhat.com</a>> napisał:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">On Tue, 2019-03-19 at 15:55 +0100, Adam Budziński wrote:<br>
> Hello Ken,<br>
> <br>
> Thank you. <br>
> <br>
> But if I have a two node cluster and a working fencing mechanism<br>
> wouldn't it be enough to disable the corosync and pacemaker service<br>
> on both nodes so when it fence they won't come up?<br>
<br>
There's actually no problem when a fenced node comes back. Either it<br>
joins the remaining cluster normally, or (due to two_node /<br>
wait_for_all in corosync.conf) waits until it can see the other node<br>
before doing anything.<br>
<br>
Disabling or enabling the services is a personal preference based on<br>
whether you'd rather investigate why a node was shot before letting it<br>
back in the cluster, or get the cluster back to full strength as<br>
quickly as possible.<br>
<br>
The fence delay is for when both nodes are running and communicating<br>
correctly, then suddenly they lose communication with each other. From<br>
each node's point of view, the other node is lost. So, each will<br>
attempt to fence the other. A delay on one node in this situation makes<br>
it less likely that they both pull the trigger at the same time, ending<br>
up with both nodes dead.<br>
<br>
> Thank you<br>
> <br>
> pon., 18.03.2019, 16:19 użytkownik Ken Gaillot <<a href="mailto:kgaillot@redhat.com" target="_blank" rel="noreferrer">kgaillot@redhat.com</a>><br>
> napisał:<br>
> > On Sat, 2019-03-16 at 11:10 +0100, Adam Budziński wrote:<br>
> > > Hello Andrei,<br>
> > > <br>
> > > Ok I see your point. So per my understanding if the resource is<br>
> > > started successfully in that case fence vmware it will be<br>
> > monitored<br>
> > > indefinitely but as you sad it will monitor the current active<br>
> > node.<br>
> > > So how does the fence agent gets aware of problems with the<br>
> > slave? I <br>
> > <br>
> > The fence agent doesn't monitor the active node, or any node -- it<br>
> > monitors the fence device.<br>
> > <br>
> > The cluster layer (i.e. corosync) monitors all nodes, and reports<br>
> > any<br>
> > issues to pacemaker, which will initiate fencing if necessary.<br>
> > <br>
> > Pacemaker also monitors each resource and fence device, via any<br>
> > recurring monitors that have been configured.<br>
> > <br>
> > > mean if in a two node cluster the cluster splits in to two<br>
> > partitions<br>
> > > each of them will fence the other or does that happen because<br>
> > both<br>
> > > will assume they are the only survivors and thus need to fence<br>
> > the<br>
> > > other node which is in a unknow state so to say?<br>
> > <br>
> > If both nodes are functional but can't see each other, they will<br>
> > each<br>
> > want to initiate fencing. If one of them is quicker than the other<br>
> > to<br>
> > determine this, the other one will get shot before it has a chance<br>
> > to<br>
> > do anything itself.<br>
> > <br>
> > However there is the possibility that both nodes will shoot at<br>
> > about<br>
> > the same time, resulting in both nodes getting shot (a "stonith<br>
> > death<br>
> > match"). This is only a problem in 2-node clusters. There are a few<br>
> > ways around this:<br>
> > <br>
> > 1. Configure two separate fence devices, each targeting one of the<br>
> > nodes, and put a delay on one of them (or a random delay on both).<br>
> > This<br>
> > makes it highly unlikely that they will shoot at the same time.<br>
> > <br>
> > 2. Configure a fencing topology with a fence heuristics device plus<br>
> > your real device. A fence heuristics device runs some test, and<br>
> > refuses<br>
> > to shoot the other node if the test fails. For example,<br>
> > fence_heuristics_ping tries to ping an IP address you give it; the<br>
> > idea<br>
> > is that if a node can't ping that IP, you don't want it to survive.<br>
> > This ensures that only a node that passes the test can shoot (which<br>
> > means there still might be some cases where the nodes can both<br>
> > shoot<br>
> > each other, and cases where the cluster will freeze because neither<br>
> > node can see the IP).<br>
> > <br>
> > 3. Configure corosync with qdevice to provide true quorum via a<br>
> > third<br>
> > host (which doesn't participate in the cluster otherwise).<br>
> > <br>
> > 4. Use sbd with a hardware watchdog and a shared storage device as<br>
> > the<br>
> > fencing device. This is not a reliable option with VMWare, but I'm<br>
> > listing it for the general case.<br>
> > <br>
> > <br>
> > > <br>
> > > Thank you and Best Regards,<br>
> > > Adam <br>
> > > <br>
> > > sob., 16.03.2019, 07:17 użytkownik Andrei Borzenkov <<br>
> > > <a href="mailto:arvidjaar@gmail.com" target="_blank" rel="noreferrer">arvidjaar@gmail.com</a>> napisał:<br>
> > > > 16.03.2019 9:01, Adam Budziński пишет:<br>
> > > > > Thank you Andrei. The problem is that I can see with 'pcs<br>
> > status'<br>
> > > > that<br>
> > > > > resources are runnin on srv2cr1 but its at the same time its<br>
> > > > telling that<br>
> > > > > the fence_vmware_soap is running on srv1cr1. That's somewhat<br>
> > > > confusing.<br>
> > > > > Could you possibly explain this?<br>
> > > > > <br>
> > > > <br>
> > > > Two points.<br>
> > > > <br>
> > > > It is actually logical to have stonith agent running on<br>
> > different<br>
> > > > node<br>
> > > > than node with active resources - because it is the *other*<br>
> > node<br>
> > > > that<br>
> > > > will initiate fencing when node with active resources fails.<br>
> > > > <br>
> > > > But even considering the above, active (running) state of fence<br>
> > (or<br>
> > > > stonith) agent just determines on which node recurring monitor<br>
> > > > operation<br>
> > > > will be started. The actual result of this monitor operation<br>
> > has no<br>
> > > > impact on subsequent stonith attempt and serves just as warning<br>
> > to<br>
> > > > administrator. When stonith request comes, agent may be used by<br>
> > any<br>
> > > > node<br>
> > > > where stonith agent is not prohibited to run by (co-)location<br>
> > > > rules. My<br>
> > > > understanding is that this node is selected by DC in partition.<br>
> > > > <br>
> > > > > Thank you!<br>
> > > > > <br>
> > > > > sob., 16.03.2019, 05:37 użytkownik Andrei Borzenkov <<br>
> > > > <a href="mailto:arvidjaar@gmail.com" target="_blank" rel="noreferrer">arvidjaar@gmail.com</a>><br>
> > > > > napisał:<br>
> > > > > <br>
> > > > >> 16.03.2019 1:16, Adam Budziński пишет:<br>
> > > > >>> Hi Tomas,<br>
> > > > >>><br>
> > > > >>> Ok but how then pacemaker or the fence agent knows which<br>
> > route<br>
> > > > to take to<br>
> > > > >>> reach the vCenter?<br>
> > > > >><br>
> > > > >> They do not know or care at all. It is up to your underlying<br>
> > > > operating<br>
> > > > >> system and its routing tables.<br>
> > > > >><br>
> > > > >>> Btw. Do I have to add the stonith resource on each of the<br>
> > nodes<br>
> > > > or is it<br>
> > > > >>> just enough to add it on one as for other resources?<br>
> > > > >><br>
> > > > >> If your fencing agent can (should) be able to run on any<br>
> > node,<br>
> > > > it should<br>
> > > > >> be enough to define it just once as long as it can properly<br>
> > > > determine<br>
> > > > >> "port" to use on fencing "device" for a given node. There<br>
> > are<br>
> > > > cases when<br>
> > > > >> you may want to restrict fencing agent to only subset on<br>
> > nodes<br>
> > > > or when<br>
> > > > >> you are forced to set unique parameter for each node<br>
> > (consider<br>
> > > > IPMI IP<br>
> > > > >> address), in this case you would need separate instance of<br>
> > agent<br>
> > > > in each<br>
> > > > >> case.<br>
> > > > >><br>
> > > > >>> Thank you!<br>
> > > > >>><br>
> > > > >>> pt., 15.03.2019, 15:48 użytkownik Tomas Jelinek <<br>
> > > > <a href="mailto:tojeline@redhat.com" target="_blank" rel="noreferrer">tojeline@redhat.com</a>><br>
> > > > >>> napisał:<br>
> > > > >>><br>
> > > > >>>> Dne 15. 03. 19 v 15:09 Adam Budziński napsal(a):<br>
> > > > >>>>> Hello Tomas,<br>
> > > > >>>>><br>
> > > > >>>>> Thank you! So far I  need to say how great this community<br>
> > is,<br>
> > > > would<br>
> > > > >>>>> never expect so much positive vibes! A big thank you your<br>
> > > > doing a great<br>
> > > > >>>>> job!<br>
> > > > >>>>><br>
> > > > >>>>> Now let's talk business :)<br>
> > > > >>>>><br>
> > > > >>>>> So if pcsd is using ring0 and it fails will ring1 not be<br>
> > used<br>
> > > > at all?<br>
> > > > >>>><br>
> > > > >>>> Pcs and pcsd never use ring1, but they are just tools for<br>
> > > > managing<br>
> > > > >>>> clusters. You can have a perfectly functioning cluster<br>
> > without<br>
> > > > pcs and<br>
> > > > >>>> pcsd running or even installed, it would be just more<br>
> > > > complicated to set<br>
> > > > >>>> it up and manage it.<br>
> > > > >>>><br>
> > > > >>>> Even if ring0 fails, you will be able to use pcs (in<br>
> > somehow<br>
> > > > limited<br>
> > > > >>>> manner) as most of its commands don't go through network<br>
> > > > anyway.<br>
> > > > >>>><br>
> > > > >>>> Corosync, which is the actual cluster messaging layer,<br>
> > will of<br>
> > > > course<br>
> > > > >>>> use ring1 in case of ring0 failure.<br>
> > > > >>>><br>
> > > > >>>>><br>
> > > > >>>>> So in regards to VMware that would mean that the<br>
> > interface<br>
> > > > should be<br>
> > > > >>>>> configured with a network that can access the  vCenter to<br>
> > > > fence right?<br>
> > > > >>>>> But wouldn't it then use only ring0 so if that fails it<br>
> > > > wouldn't switch<br>
> > > > >>>>> to ring1?<br>
> > > > >>>><br>
> > > > >>>> If you are talking about pcmk_host_map, that does not<br>
> > really<br>
> > > > have<br>
> > > > >>>> anything to do with network interfaces of cluster nodes.<br>
> > It<br>
> > > > maps node<br>
> > > > >>>> names (parts before :) to "ports" of a fence device (parts<br>
> > > > after :).<br>
> > > > >>>> Pcs-0.9.x does not support defining custom node names,<br>
> > > > therefore node<br>
> > > > >>>> names are the same as ring0 addresses.<br>
> > > > >>>><br>
> > > > >>>> I am not an expert on fence agents / devices, but I'm sure<br>
> > > > someone else<br>
> > > > >>>> on this list will be able to help you with configuring<br>
> > fencing<br>
> > > > for your<br>
> > > > >>>> cluster.<br>
> > > > >>>><br>
> > > > >>>><br>
> > > > >>>> Tomas<br>
> > > > >>>><br>
> > > > >>>>><br>
> > > > >>>>> Thank you!<br>
> > > > >>>>><br>
> > > > >>>>> pt., 15.03.2019, 13:14 użytkownik Tomas Jelinek <<br>
> > > > <a href="mailto:tojeline@redhat.com" target="_blank" rel="noreferrer">tojeline@redhat.com</a><br>
> > > > >>>>> <mailto:<a href="mailto:tojeline@redhat.com" target="_blank" rel="noreferrer">tojeline@redhat.com</a>>> napisał:<br>
> > > > >>>>><br>
> > > > >>>>>     Dne 15. 03. 19 v 12:32 Adam Budziński napsal(a):<br>
> > > > >>>>>      > Hello Folks,____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > Tow node active/passive VMware VM cluster.____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > /etc/hosts____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 10.116.63.83    srv1____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 10.116.63.84    srv2____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 172.16.21.12    srv2cr1____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 172.16.22.12    srv2cr2____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 172.16.21.11    srv1cr1____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 172.16.22.11    srv1cr2____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > I have 3 NIC’s on each VM:____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > 10.116.63.83    srv1  and 10.116.63.84    srv2 are<br>
> > > > networks used<br>
> > > > >>>> to<br>
> > > > >>>>>      > access the VM’s via SSH or any resource directly<br>
> > if<br>
> > > > not via a<br>
> > > > >>>>>     VIP.____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > Everything with cr in its name is used for<br>
> > corosync<br>
> > > > >>>>>     communication, so<br>
> > > > >>>>>      > basically I have two rings (this are two no<br>
> > routable<br>
> > > > networks<br>
> > > > >>>>>     just for<br>
> > > > >>>>>      > that).____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > My questions are:____<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __1.__With ‘pcs cluster auth’ which interface /<br>
> > > > interfaces<br>
> > > > >> should<br>
> > > > >>>>>     I use<br>
> > > > >>>>>      > ?____<br>
> > > > >>>>><br>
> > > > >>>>>     Hi Adam,<br>
> > > > >>>>><br>
> > > > >>>>>     I can see you are using pcs-0.9.x. In that case you<br>
> > > > should do:<br>
> > > > >>>>>     pcs cluster auth srv1cr1 srv2cr1<br>
> > > > >>>>><br>
> > > > >>>>>     In other words, use the first address of each node.<br>
> > > > >>>>>     Authenticating all the other addresses should not<br>
> > cause<br>
> > > > any issues.<br>
> > > > >>>> It<br>
> > > > >>>>>     is pointless, though, as pcs only communicates via<br>
> > ring0<br>
> > > > addresses.<br>
> > > > >>>>><br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __2.__With ‘pcs cluster setup –name’ I would use<br>
> > the<br>
> > > > corosync<br>
> > > > >>>>>     interfaces<br>
> > > > >>>>>      > e.g. ‘pcs cluster setup –name MyCluster<br>
> > > > srv1cr1,srv1cr2<br>
> > > > >>>>>     srv2cr1,srv2cr2’<br>
> > > > >>>>>      > right ?____<br>
> > > > >>>>><br>
> > > > >>>>>     Yes, that is correct.<br>
> > > > >>>>><br>
> > > > >>>>>      ><br>
> > > > >>>>>      > __3.__With fence_vmware_soap<br>
> > > > >> inpcmk_host_map="X:VM_C;X:VM:OTRS_D"<br>
> > > > >>>>>     which<br>
> > > > >>>>>      > interface should replace X ?____<br>
> > > > >>>>><br>
> > > > >>>>>     X should be replaced by node names as seen by<br>
> > pacemaker.<br>
> > > > Once you<br>
> > > > >>>>>     set up<br>
> > > > >>>>>     and start your cluster, run 'pcs status' to get<br>
> > (amongs<br>
> > > > other info)<br>
> > > > >>>> the<br>
> > > > >>>>>     node names. In your configuration, they should be<br>
> > srv1cr1<br>
> > > > and<br>
> > > > >>>> srv2cr1.<br>
> > > > >>>>><br>
> > > > >>>>><br>
> > > > >>>>>     Regards,<br>
> > > > >>>>>     Tomas<br>
> > > > >>>>><br>
> > > > >>>>>      > __ __<br>
> > > > >>>>>      ><br>
> > > > >>>>>      > Thank you!<br>
> > > > >>>>>      ><br>
> > > > >>>>>      ><br>
> > > > >>>>>      > _______________________________________________<br>
> > > > >>>>>      > Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > >>>>>     <mailto:<a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a>><br>
> > > > >>>>>      > <br>
> > <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >>>>>      ><br>
> > > > >>>>>      > Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >>>>>      > Getting started:<br>
> > > > >>>>>     <br>
> > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >>>>>      > Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >>>>>      ><br>
> > > > >>>>>     _______________________________________________<br>
> > > > >>>>>     Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a> <mailto:<br>
> > > > >>>> <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a>><br>
> > > > >>>>>     <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >>>>><br>
> > > > >>>>>     Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >>>>>     Getting started:<br>
> > > > >>>> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >>>>>     Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >>>>><br>
> > > > >>>>><br>
> > > > >>>>> _______________________________________________<br>
> > > > >>>>> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > >>>>> <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >>>>><br>
> > > > >>>>> Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >>>>> Getting started:<br>
> > > > >> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >>>>> Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >>>>><br>
> > > > >>>> _______________________________________________<br>
> > > > >>>> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > >>>> <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >>>><br>
> > > > >>>> Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >>>> Getting started:<br>
> > > > >> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >>>> Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >>>><br>
> > > > >>><br>
> > > > >>><br>
> > > > >>> _______________________________________________<br>
> > > > >>> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > >>> <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >>><br>
> > > > >>> Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >>> Getting started: <br>
> > > > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >>> Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >>><br>
> > > > >><br>
> > > > >> _______________________________________________<br>
> > > > >> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > >> <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > >><br>
> > > > >> Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > >> Getting started: <br>
> > > > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > >> Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > >><br>
> > > > > <br>
> > > > > <br>
> > > > > _______________________________________________<br>
> > > > > Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > > <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > > <br>
> > > > > Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > > Getting started: <br>
> > > > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > > Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > > > <br>
> > > > <br>
> > > > _______________________________________________<br>
> > > > Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > > <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > > <br>
> > > > Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > > Getting started: <br>
> > > > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > > Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > > <br>
> > > _______________________________________________<br>
> > > Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank" rel="noreferrer">Users@clusterlabs.org</a><br>
> > > <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > > <br>
> > > Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> > > Getting started: <br>
> > > <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > > Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
> > _______________________________________________<br>
> > Manage your subscription:<br>
> > <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> > <br>
> > ClusterLabs home: <a href="https://www.clusterlabs.org/" rel="noreferrer noreferrer" target="_blank">https://www.clusterlabs.org/</a><br>
-- <br>
Ken Gaillot <<a href="mailto:kgaillot@redhat.com" target="_blank" rel="noreferrer">kgaillot@redhat.com</a>><br>
<br>
_______________________________________________<br>
Manage your subscription:<br>
<a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
<br>
ClusterLabs home: <a href="https://www.clusterlabs.org/" rel="noreferrer noreferrer" target="_blank">https://www.clusterlabs.org/</a></blockquote></div>