<div id="yMail_cursorElementTracker_1637479583205"> You are right, but usually when the SBD disk has failed, I always focus on recovering it as soon as possible. Once the disk is recovered and the watcher detects it back - shutting down is possible.</div><div id="yMail_cursorElementTracker_1637479680145"><br></div><div id="yMail_cursorElementTracker_1637479680410"><br></div><div id="yMail_cursorElementTracker_1637479680580">And of course disk-based sbd is better than nothing.</div><div id="yMail_cursorElementTracker_1637479695480"><br></div><div id="yMail_cursorElementTracker_1637479695660"><br></div><div id="yMail_cursorElementTracker_1637479695835">Best Regards,</div><div id="yMail_cursorElementTracker_1637479699228">Strahil Nikolov</div><div id="yMail_cursorElementTracker_1637479705119"><br> <blockquote style="margin: 0 0 20px 0;"> <div style="font-family:Roboto, sans-serif; color:#6D00F6;"> <div>On Sun, Nov 21, 2021 at 8:47, Andrei Borzenkov</div><div><arvidjaar@gmail.com> wrote:</div> </div> <div style="padding: 10px 0 0 20px; margin: 10px 0 0 0; border-left: 1px solid #6D00F6;"> On 21.11.2021 00:39, Strahil Nikolov via Users wrote:<br clear="none">> Nope, as long as you use SBD's integration with pacemaker. As the 2 nodes can communicate between each other sbd won't act. I thinkt it was an entry like this in the /etc/sysconfig/sbd: 'SBD_PACEMAKER=yes'<br clear="none">>  <br clear="none"><br clear="none">That's correct except it is impossible to stop pacemaker on one node under this condition because the remaining node will immediately commit suicide. It is not even possible to perform normal cluster shutdown.<br clear="none"><br clear="none">I wish SBD supported "deactivate" message to stop pretending that it knows better than administrator or - even better - understood that pacemaker is stopping intentionally. Currently there is no way around it (short of pkill -9 sbd) because systemd unit refuses manual SBD stop.<div class="yqt9359259193" id="yqtfd32813"><br clear="none"><br clear="none">>  <br clear="none">>   On Sat, Nov 20, 2021 at 23:24, Valentin Vidić via Users<<a shape="rect" ymailto="mailto:users@clusterlabs.org" href="mailto:users@clusterlabs.org">users@clusterlabs.org</a>> wrote:   On Sat, Nov 20, 2021 at 08:33:26PM +0000, Strahil Nikolov via Users wrote:<br clear="none">>> You can also use this 3rd node to provide iSCSI and then the SBD will<br clear="none">>> be disk-full :D . The good thing about this type of setup is that you<br clear="none">>> do won't need to put location constraints for the 3rd node.<br clear="none">> <br clear="none">> Wouldn't that make the iSCSI node a SPOF? If the iSCSI goes down, SBD<br clear="none">> resets both cluster nodes.<br clear="none">> <br clear="none">> <br clear="none">> _______________________________________________<br clear="none">> Manage your subscription:<br clear="none">> <a shape="rect" href="https://lists.clusterlabs.org/mailman/listinfo/users" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br clear="none">> <br clear="none">> ClusterLabs home: <a shape="rect" href="https://www.clusterlabs.org/" target="_blank">https://www.clusterlabs.org/</a><br clear="none">> <br clear="none"><br clear="none">_______________________________________________<br clear="none">Manage your subscription:<br clear="none"><a shape="rect" href="https://lists.clusterlabs.org/mailman/listinfo/users" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br clear="none"><br clear="none">ClusterLabs home: <a shape="rect" href="https://www.clusterlabs.org/" target="_blank">https://www.clusterlabs.org/</a><br clear="none"></div> </div> </blockquote></div>