<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Sun, Jun 22, 2014 at 1:51 AM, Digimer <span dir="ltr"><<a href="mailto:lists@alteeve.ca" target="_blank">lists@alteeve.ca</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Excellent.<br>
<br>
  Please note; With IPMI-only fencing, you may find that killing all power to the node will cause fencing to fail, as the IPMI's BMC will lose power as well (unless it has it's own battery, but most don't).<br>

<br>
  If you find this, then the solution I would recommend is to get a pair of switched PDUs (I like the APC brand AP7900, very fast and the fence_apc_snmp agent is very well tested). With this, you can then setup STONITH levels;<br>

<br>
<a href="http://clusterlabs.org/wiki/STONITH_Levels" target="_blank">http://clusterlabs.org/wiki/<u></u>STONITH_Levels</a><br>
<br>
  With this, if the IPMI fails, Pacemaker will move on and try fencing by cutting power to the lost node, providing a backup method of fencing. If you use stacked switches, put the PDUs on one switch and the IPMI interface on the other switch, and you will provide reliable fencing in a failed-switch state, too.<br>

<br>
  Cheers!<div><div class="h5"><br></div></div></blockquote></div><br></div><div class="gmail_extra">Good points. At the moment this is a lab environment so it is not crucial, but I'll take in mind for production use.<br>
<br></div><div class="gmail_extra">One point: after doing some tests and creating failures of nodes for test I see this behaviour about the special fencing resource<br><br>normal behaviour<br>[root@srvmgmt02 ~]# crm_mon -1<br>
...<br></div><div class="gmail_extra">[snip]<br></div><div class="gmail_extra"> fence_srvmgmt01    (stonith:fence_intelmodular):    Started srvmgmt01.localdomain.local <br> fence_srvmgmt02    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br>
</div><div class="gmail_extra"><br>after fencing of srvmgmt01 (because of drbd problem deliberately produced by me on it)<br>[root@srvmgmt02 ~]# crm_mon -1<br>...<br></div><div class="gmail_extra">[snip]<br></div><div class="gmail_extra">
 fence_srvmgmt01    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br> fence_srvmgmt02    (stonith:fence_intelmodular):    Started srvmgmt02.localdomain.local <br><br></div><div class="gmail_extra">
and the output above remains true while srvmgmt01 is rebooting but also after it has completed startup and joins the cluster.<br></div><div class="gmail_extra">So I presume I have to set an location constraint rule so that it can only run on its node, correct?<br>
<br></div><div class="gmail_extra">something llike<br></div><div class="gmail_extra">pcs constraint location fence_srvmgmt01 prefers srvmgmt01.localdomain.local=INFINITY<br>pcs constraint location fence_srvmgmt02 prefers srvmgmt02.localdomain.local=INFINITY<br>
</div><div class="gmail_extra"><br></div><div class="gmail_extra">Gianluca<br></div></div>