i would go with a VM hosting all resources and setup a 3-node Virtualization cluster.<div id="yMail_cursorElementTracker_1631081692145"><br></div><div id="yMail_cursorElementTracker_1631081692351"><br></div><div id="yMail_cursorElementTracker_1631081692561">The concept that the cluster should keep your resources up even if another 7 nodes died is not good -> there could be a network issue or other cases where this approach won't (and should not) work.</div><div id="yMail_cursorElementTracker_1631081777061"><br></div><div id="yMail_cursorElementTracker_1631081777254">As Antony mentioned -> you need quorum (majority that will agree what is going on) and stonith (a way to prevent the rest of the cluster to take the resources).</div><div id="yMail_cursorElementTracker_1631081834594"><br></div><div id="yMail_cursorElementTracker_1631081834790">In your case , you can setup the cluster with last_man_standing and last_man_standing_window and it should work. Are you sure you dodn't drop more than 50% of the nodes simultaneously ?</div><div id="yMail_cursorElementTracker_1631082011395"><br></div><div id="yMail_cursorElementTracker_1631082011572"><br></div><div id="yMail_cursorElementTracker_1631082011766">Vest Regards,</div><div id="yMail_cursorElementTracker_1631082015165">Strahil Nikolov<br> <br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Tue, Sep 7, 2021 at 21:08, Antony Stone</div><div><Antony.Stone@ha.open.source.it> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> On Tuesday 07 September 2021 at 19:37:33, M N S H SNGHL wrote:<br clear="none"><br clear="none">> I am looking for some suggestions here. I have created an 8 node HA cluster<br clear="none">> on my SuSE hosts.<br clear="none"><br clear="none">An even number of nodes is never a good idea.<br clear="none"><br clear="none">> 1) The resources should work fine even if 7 nodes go down, which means<br clear="none">> surviving node should still be running the resources.<br clear="none"><br clear="none">> I did set "last_man_standing (and last_man_standing_window) option, with<br clear="none">> ATB .. but it didn't really work or didn't dynamically reduce the expected<br clear="none">> votes.<br clear="none"><br clear="none">What do the log files (especially on that "last man") tell you happened as you <br clear="none">gradually reduced the number of nodes online?<br clear="none"><br clear="none">> 2) Another requirement is - If all nodes in the cluster go down, and just<br clear="none">> one (anyone) comes back up, it should pick up the resources and should run<br clear="none">> them.<br clear="none"><br clear="none">So, how should this one node realise that it is the only node awake and should <br clear="none">be running the reources, and that there aren't {1..7} other nodes somewhere <br clear="none">else on the network, all in the same situation, thinking "I can't connect to <br clear="none">anyone else, but I'm alive, so I'll take on the resources"?<br clear="none"><br clear="none">> I tried setting ignore-quorum-policy to ignore, and which worked most of<br clear="none">> the time... (yet to find the case where it doesn't work).. but I am<br clear="none">> suspecting, wouldn't this setting cause split-brain in some cases?<br clear="none"><br clear="none">I think you're taking the wrong approach to HA.  Some number of nodes (plural) <br clear="none">need to be in communication with each other in order for them to decide <br clear="none">whether they have quorum or not, and can decide to be in charge of the <br clear="none">resources.<br clear="none"><br clear="none">Two basic rules of HA:<br clear="none"><br clear="none">1. One node on its own has no clue whatever else is going on with the rest of <br clear="none">the cluster, and therefore cannot decide to take charge<br clear="none"><br clear="none">2. Quorum (unless you override it and really know what you're doing) requires <br clear="none">>50% of nodes to be in agreement, and an even number of nodes can split into <br clear="none">50:50, where neither half (literally) is >50%, so everything stops.  This is <br clear="none">"split brain".<br clear="none"><br clear="none">I have two questions:<br clear="none"><br clear="none"> - why do you feel you need as many as 8 nodes when the resources will only be <br clear="none">running on one node?<br clear="none"><br clear="none"> - why do you specifically want 8 nodes instead of 7 or 9?<br clear="none"><br clear="none"><br clear="none">Antony.<br clear="none"><br clear="none">-- <br clear="none">The Royal Society for the Prevention of Cruelty to Animals was formed in 1824.<br clear="none">The National Society for the Prevention of Cruelty to Children was not formed <br clear="none">until 1884.<br clear="none">That says something about the British.<br clear="none"><br clear="none">                                                   Please reply to the list;<br clear="none">                                                         please *don't* CC me.<div class="yqt7394307477" id="yqtfd66606"><br clear="none">_______________________________________________<br clear="none">Manage your subscription:<br clear="none"><a shape="rect" href="https://lists.clusterlabs.org/mailman/listinfo/users" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br clear="none"><br clear="none">ClusterLabs home: <a shape="rect" href="https://www.clusterlabs.org/" target="_blank">https://www.clusterlabs.org/</a><br clear="none"></div> </div> </blockquote></div>