<div dir="ltr">Hi Ulrich,<div><br></div><div>You&#39;re right, it is as if stonithd selected the incorrect device to reboot the node. I&#39;m using fence_ilo as the stonith agent, and reviewing the params it take is not clear which one (besides the name which is irrelevant for stonithd) should be used to fence each node. </div><div><br></div><div>In cman+rgmanager you can associate a fence device params to each node, for example:</div><div><br></div><div><div>&lt;clusternode name=&quot;e1b07&quot; nodeid=&quot;2&quot;&gt;</div><div>     &lt;fence&gt;</div><div>       &lt;method name=&quot;single&quot;&gt;</div><div>         &lt;device name=&quot;fence_ilo&quot; ipaddr=&quot;e1b07-ilo&quot;/&gt;</div><div>       &lt;/method&gt;</div><div>     &lt;/fence&gt;</div><div>  &lt;/clusternode&gt;</div></div><div><br></div><div>what&#39;s the equivalent of that in corosync+pacemaker (using crm)??</div><div><br></div><div>In general, in a cluster of more than 2 nodes and more than 2 stonith devices, how stonithd find which stonith device should be used to fence a specific node??</div><div><br></div><div>Regards,</div><div>  Ali</div><div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Jan 4, 2017 at 2:27 AM, Ulrich Windl <span dir="ltr">&lt;<a href="mailto:Ulrich.Windl@rz.uni-regensburg.de" target="_blank">Ulrich.Windl@rz.uni-regensburg.de</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi!<br>
<br>
A few messages that look uncommon to me are:<br>
<br>
crm_reap_dead_member:   Removing node with name unknown and id 1239211543 from membership cache<br>
<br>
A bit later the node name is known:<br>
info: crm_update_peer_proc:     pcmk_cpg_membership: Node e1b13[1239211543] - corosync-cpg is now offline<br>
<br>
Another node seems to go offline also:<br>
crmd:     info: peer_update_callback:   Client e1b13/peer now has status [offline] (DC=e1b07, changed=4000000)<br>
<br>
This looks OK to me:<br>
stonith-ng:    debug: get_capable_devices:      Searching through 3 devices to see what is capable of action (reboot) for target e1b13<br>
stonith-ng:    debug: stonith_action_create:    Initiating action status for agent fence_ilo (target=e1b13)<br>
<br>
This looks odd to me:<br>
stonith-ng:    debug: stonith_device_execute:   Operation status for node e1b13 on fence-e1b03 now running with pid=25689, timeout=20s<br>
stonith-ng:    debug: stonith_device_execute:   Operation status for node e1b13 on fence-e1b07 now running with pid=25690, timeout=20s<br>
stonith-ng:    debug: stonith_device_execute:   Operation status for node e1b13 on fence-e1b13 now running with pid=25691, timeout=20s<br>
<br>
Maybe not, because you can fence the node oin three different ways it seems:<br>
stonith-ng:    debug: stonith_query_capable_device_<wbr>cb:  Found 3 matching devices for &#39;e1b13&#39;<br>
<br>
Now it&#39;s geting odd:<br>
stonith-ng:    debug: schedule_stonith_command: Scheduling reboot on fence-e1b07 for remote peer e1b07 with op id (ae1956b5-ffe1-4d6a-b5a2-<wbr>c7bba2c6d7fd) (timeout=60s)<br>
stonith-ng:    debug: stonith_action_create:    Initiating action reboot for agent fence_ilo (target=e1b13)<br>
 stonith-ng:    debug: stonith_device_execute:  Operation reboot for node e1b13 on fence-e1b07 now running with pid=25784, timeout=60s<br>
 crmd:     info: crm_update_peer_expected:      handle_request: Node e1b07[1239211582] - expected state is now down (was member)<br>
stonith-ng:    debug: st_child_done:    Operation &#39;reboot&#39; on &#39;fence-e1b07&#39; completed with rc=0 (2 remaining)<br>
stonith-ng:   notice: log_operation:    Operation &#39;reboot&#39; [25784] (call 6 from crmd.1201) for host &#39;e1b13&#39; with device &#39;fence-e1b07&#39; returned: 0 (OK)<br>
attrd:     info: crm_update_peer_proc:  pcmk_cpg_membership: Node e1b07[1239211582] - corosync-cpg is now offline<br>
<br>
To me it looks as if your STONITH agents kill the wrong node for reasons unknown to me.<br>
<br>
(didn&#39;t inspect the whole logs)<br>
<br>
Regards,<br>
Ulrich<br>
<br>
<br>
&gt;&gt;&gt; Alfonso Ali &lt;<a href="mailto:alfonso.ali@gmail.com">alfonso.ali@gmail.com</a>&gt; schrieb am 03.01.2017 um 18:54 in Nachricht<br>
&lt;CANeoTMee-=_-Gtf_<wbr>vxigKsrXNQ0pWEUAg=<a href="mailto:7YJHrhvrWDNthsmg@mail.gmail.com">7YJHrhvrWDNt<wbr>hsmg@mail.gmail.com</a>&gt;:<br>
<div class="gmail-HOEnZb"><div class="gmail-h5">&gt; Hi Ulrich,<br>
&gt;<br>
&gt; I&#39;m using udpu and static node list. This is my corosync conf:<br>
&gt;<br>
&gt; --------------------Corosync<br>
&gt; configuration-----------------<wbr>------------------------------<wbr>--<br>
&gt; totem {<br>
&gt; version: 2<br>
&gt; cluster_name: test-cluster<br>
&gt; token: 3000<br>
&gt; token_retransmits_before_loss_<wbr>const: 10<br>
&gt; clear_node_high_bit: yes<br>
&gt; crypto_cipher: aes256<br>
&gt; crypto_hash: sha1<br>
&gt; transport: udpu<br>
&gt;<br>
&gt; interface {<br>
&gt; ringnumber: 0<br>
&gt; bindnetaddr: 201.220.222.0<br>
&gt; mcastport: 5405<br>
&gt; ttl: 1<br>
&gt; }<br>
&gt; }<br>
&gt;<br>
&gt; logging {<br>
&gt; fileline: off<br>
&gt; to_stderr: no<br>
&gt; to_logfile: no<br>
&gt; to_syslog: yes<br>
&gt; syslog_facility: daemon<br>
&gt; debug: on<br>
&gt; timestamp: on<br>
&gt; logger_subsys {<br>
&gt; subsys: QUORUM<br>
&gt; debug: on<br>
&gt; }<br>
&gt; }<br>
&gt;<br>
&gt; quorum {<br>
&gt; provider: corosync_votequorum<br>
&gt; expected_votes: 3<br>
&gt; }<br>
&gt;<br>
&gt; nodelist {<br>
&gt; node: {<br>
&gt; ring0_addr: 201.220.222.62<br>
&gt; }<br>
&gt; node: {<br>
&gt; ring0_addr: 201.220.222.23<br>
&gt; }<br>
&gt; node: {<br>
&gt; ring0_addr: 201.220.222.61<br>
&gt; }<br>
&gt; node: {<br>
&gt; ring0_addr: 201.220.222.22<br>
&gt; }<br>
&gt; }<br>
&gt; ------------------------------<wbr>--/Corosync<br>
&gt; conf--------------------------<wbr>-----------------------------<br>
&gt;<br>
&gt; The pacemaker log is very long, i&#39;m sending it attached as a zip file,<br>
&gt; don&#39;t know if the list will allow it, if not please tell me which sections<br>
&gt; (stonith, crmd, lrmd, attrd, cib) should i post.<br>
&gt;<br>
&gt; For a better understanding, the cluster have 4 nodes, e1b03, e1b07, e1b12<br>
&gt; and e1b13. I simulated a crash on e1b13 with:<br>
&gt;<br>
&gt; echo c &gt; /proc/sysrq-trigger<br>
&gt;<br>
&gt; the cluster detected e1b13 as crashed and reboot it, but after that e1b07<br>
&gt; was restarted too, and later e1b03 did the same, the only node that remined<br>
&gt; alive was e1b12. The attached log was taken from that node.<br>
&gt;<br>
&gt; Let me know if any other info is needed to debug the problem.<br>
&gt;<br>
&gt; Regards,<br>
&gt;   Ali<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Mon, Jan 2, 2017 at 3:30 AM, Ulrich Windl &lt;<br>
&gt; <a href="mailto:Ulrich.Windl@rz.uni-regensburg.de">Ulrich.Windl@rz.uni-<wbr>regensburg.de</a>&gt; wrote:<br>
&gt;<br>
&gt;&gt; Hi!<br>
&gt;&gt;<br>
&gt;&gt; Seeing the detailed log of events would be helpful. Despite of that we had<br>
&gt;&gt; a similar issue with using multicast (and after adding a new node to an<br>
&gt;&gt; existing cluster). Switching to UDPU helped in our case, but unless we see<br>
&gt;&gt; the details, it&#39;s all just guessing...<br>
&gt;&gt;<br>
&gt;&gt; Ulrich<br>
&gt;&gt; P.S. A good new year to everyone!<br>
&gt;&gt;<br>
&gt;&gt; &gt;&gt;&gt; Alfonso Ali &lt;<a href="mailto:alfonso.ali@gmail.com">alfonso.ali@gmail.com</a>&gt; schrieb am 30.12.2016 um 21:40 in<br>
&gt;&gt; Nachricht<br>
&gt;&gt; &lt;CANeoTMcuNGw_T9e4WNEEK-nmHnV-<wbr>NwiX2Ck0UBDnVeuoiC=<a href="mailto:r8A@mail.gmail.com">r8A@mail.<wbr>gmail.com</a>&gt;:<br>
&gt;&gt; &gt; Hi,<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I have a four node cluster that uses iLo as fencing agent. When i<br>
&gt;&gt; simulate<br>
&gt;&gt; &gt; a node crash (either killing corosync or echo c &gt; /proc/sysrq-trigger)<br>
&gt;&gt; the<br>
&gt;&gt; &gt; node is marked as UNCLEAN and requested to be restarted by the stonith<br>
&gt;&gt; &gt; agent, but everytime that happens another node in the cluster is also<br>
&gt;&gt; &gt; marked as UNCLEAN and rebooted as well. After the nodes are rebooted they<br>
&gt;&gt; &gt; are marked as online again and cluster resume operation without problem.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; I have reviewed corosync and pacemaker logs but found nothing that<br>
&gt;&gt; explain<br>
&gt;&gt; &gt; why the other node is also rebooted.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Any hint of what to check or what to look for would be appreciated.<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; -----------------Cluster conf--------------------------<wbr>--------<br>
&gt;&gt; &gt;  node 1239211542: e1b12 \<br>
&gt;&gt; &gt; attributes standby=off<br>
&gt;&gt; &gt; node 1239211543: e1b13<br>
&gt;&gt; &gt; node 1239211581: e1b03 \<br>
&gt;&gt; &gt; attributes standby=off<br>
&gt;&gt; &gt; node 1239211582: e1b07 \<br>
&gt;&gt; &gt; attributes standby=off<br>
&gt;&gt; &gt; primitive fence-e1b03 stonith:fence_ilo \<br>
&gt;&gt; &gt; params ipaddr=e1b03-ilo login=fence_agent passwd=XXX ssl_insecure=1 \<br>
&gt;&gt; &gt; op monitor interval=300 timeout=120 \<br>
&gt;&gt; &gt; meta migration-threshold=2 target-role=Started<br>
&gt;&gt; &gt; primitive fence-e1b07 stonith:fence_ilo \<br>
&gt;&gt; &gt; params ipaddr=e1b07-ilo login=fence_agent passwd=XXX ssl_insecure=1 \<br>
&gt;&gt; &gt; op monitor interval=300 timeout=120 \<br>
&gt;&gt; &gt; meta migration-threshold=2 target-role=Started<br>
&gt;&gt; &gt; primitive fence-e1b12 stonith:fence_ilo \<br>
&gt;&gt; &gt; params ipaddr=e1b12-ilo login=fence_agent passwd=XXX ssl_insecure=1 \<br>
&gt;&gt; &gt; op monitor interval=300 timeout=120 \<br>
&gt;&gt; &gt; meta migration-threshold=2 target-role=Started<br>
&gt;&gt; &gt; primitive fence-e1b13 stonith:fence_ilo \<br>
&gt;&gt; &gt; params ipaddr=e1b13-ilo login=fence_agent passwd=XXX ssl_insecure=1 \<br>
&gt;&gt; &gt; op monitor interval=300 timeout=120 \<br>
&gt;&gt; &gt; meta migration-threshold=2 target-role=Started<br>
&gt;&gt; &gt; ..... extra resources ......<br>
&gt;&gt; &gt; location l-f-e1b03 fence-e1b03 \<br>
&gt;&gt; &gt; rule -inf: #uname eq e1b03 \<br>
&gt;&gt; &gt; rule 10000: #uname eq e1b07<br>
&gt;&gt; &gt; location l-f-e1b07 fence-e1b07 \<br>
&gt;&gt; &gt; rule -inf: #uname eq e1b07 \<br>
&gt;&gt; &gt; rule 10000: #uname eq e1b03<br>
&gt;&gt; &gt; location l-f-e1b12 fence-e1b12 \<br>
&gt;&gt; &gt; rule -inf: #uname eq e1b12 \<br>
&gt;&gt; &gt; rule 10000: #uname eq e1b13<br>
&gt;&gt; &gt; location l-f-e1b13 fence-e1b13 \<br>
&gt;&gt; &gt; rule -inf: #uname eq e1b13 \<br>
&gt;&gt; &gt; rule 10000: #uname eq e1b12<br>
&gt;&gt; &gt; property cib-bootstrap-options: \<br>
&gt;&gt; &gt; have-watchdog=false \<br>
&gt;&gt; &gt; dc-version=1.1.15-e174ec8 \<br>
&gt;&gt; &gt; cluster-infrastructure=<wbr>corosync \<br>
&gt;&gt; &gt; stonith-enabled=true \<br>
&gt;&gt; &gt; cluster-name=test-cluster \<br>
&gt;&gt; &gt; no-quorum-policy=freeze \<br>
&gt;&gt; &gt; last-lrm-refresh=1483125286<br>
&gt;&gt; &gt; ------------------------------<wbr>------------------------------<br>
&gt;&gt; ----------------<br>
&gt;&gt; &gt; ------------<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; Regards,<br>
&gt;&gt; &gt;   Ali<br>
&gt;&gt;<br>
<br>
<br>
<br>
</div></div></blockquote></div><br></div></div></div>