<div dir="ltr"><div><div><div><div><div><div>Hi,<br><br></div>I have some more information regarding this issue (pacemaker debug logs).<br><br></div>Firstly, I have not mentioned probably important facts:<br></div>1) this happen rarely<br></div>2) this happen only on first boot<br></div>3) turning on debug in corosync/pacemaker significantly reduced frequency of this happening, i.e. without debug every ~7 cluster creation, with debug every ~66 cluster creation.<br><br></div><div>This is a 3 nodes cluster on Azure Cloud and it does not seem like the resource agent is reporting an error, because all nodes logs proper &quot;not running&quot; results:<br></div><div><br></div><div>The resource in question name is &quot;dbx_head_head&quot;.<br></div><div><br></div><div>node1)<br>May 19 13:15:41 [6872] olegdbx39-vm-0 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.32 to 2.5.31<br><a href="http://head.ocf.sh">head.ocf.sh</a>(dbx_head_head)[7717]:    2017/05/19_13:15:42 DEBUG: head_monitor: return 7<br>May 19 13:15:42 [6873] olegdbx39-vm-0       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:7717 - exited with rc=7<br>May 19 13:15:42 [6873] olegdbx39-vm-0       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:7717:stderr [ -- empty -- ]<br>May 19 13:15:42 [6873] olegdbx39-vm-0       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:7717:stdout [ -- empty -- ]<br>May 19 13:15:42 [6873] olegdbx39-vm-0       lrmd:    debug: log_finished:    finished - rsc:dbx_head_head action:monitor call_id:14 pid:7717 exit-code:7 exec-time:932ms queue-time:0ms<br><br><br></div><div>node2)<br>May 19 13:15:41 [6266] olegdbx39-vm000002 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.31 to 2.5.30<br><a href="http://head.ocf.sh">head.ocf.sh</a>(dbx_head_head)[6485]:    2017/05/19_13:15:41 DEBUG: head_monitor: return 7<br>May 19 13:15:41 [6267] olegdbx39-vm000002       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:6485 - exited with rc=7<br>May 19 13:15:41 [6267] olegdbx39-vm000002       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:6485:stderr [ -- empty -- ]<br>May 19 13:15:41 [6267] olegdbx39-vm000002       lrmd:    debug: operation_finished:    dbx_head_head_monitor_0:6485:stdout [ -- empty -- ]<br>May 19 13:15:41 [6267] olegdbx39-vm000002       lrmd:    debug: log_finished:    finished - rsc:dbx_head_head action:monitor call_id:14 pid:6485 exit-code:7 exec-time:790ms queue-time:0ms<br>May 19 13:15:41 [6266] olegdbx39-vm000002 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.32 to 2.5.31<br>May 19 13:15:41 [6266] olegdbx39-vm000002 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.33 to 2.5.32<br><br><br></div><div>node3)<br>==  the logs here are different - there is no probing, just stop attempt (with proper exit code) ==<br></div><div><br>== reporting not existing resource ==<br><br></div><div>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_info operation from d2c8a871-410a-4006-be52-ee684c0a5f38: rc=0, reply=0, notify=0<br>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_exec operation from d2c8a871-410a-4006-be52-ee684c0a5f38: rc=10, reply=1, notify=0<br>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:    debug: log_execute:    executing - rsc:dbx_first_datas action:monitor call_id:10<br>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:     info: process_lrmd_get_rsc_info:    Resource &#39;dbx_head_head&#39; not found (2 active resources)<br>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_info operation from d2c8a871-410a-4006-be52-ee684c0a5f38: rc=0, reply=0, notify=0<br>May 19 13:15:29 [6293] olegdbx39-vm000003       lrmd:     info: process_lrmd_rsc_register:    Added &#39;dbx_head_head&#39; to the rsc list (3 active resources)<br>May 19 13:15:40 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_register operation from d2c8a871-410a-4006-be52-ee684c0a5f38: rc=0, reply=1, notify=1<br>May 19 13:15:29 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.9 to 2.5.8<br>May 19 13:15:40 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.10 to 2.5.9<br>May 19 13:15:40 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.11 to 2.5.10<br>May 19 13:15:40 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.12 to 2.5.11<br>May 19 13:15:40 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_info operation from d2c8a871-410a-4006-be52-ee684c0a5f38: rc=0, reply=0, notify=0<br><br></div><div><br>== and much later it tries to stop the resource on node3, even though it has never been started, nor probed here ==<br><br>May 19 13:15:45 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.59 to 2.5.58<br>May 19 13:15:45 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_info operation from 069e399c-6c10-47cf-b55f-de46985562b3: rc=0, reply=0, notify=0<br>May 19 13:15:45 [6293] olegdbx39-vm000003       lrmd:    debug: process_lrmd_message:    Processed lrmd_rsc_exec operation from 069e399c-6c10-47cf-b55f-de46985562b3: rc=77, reply=1, notify=0<br>May 19 13:15:45 [6293] olegdbx39-vm000003       lrmd:     info: log_execute:    executing - rsc:dbx_head_head action:stop call_id:77<br><a href="http://head.ocf.sh">head.ocf.sh</a>(dbx_head_head)[7202]:    2017/05/19_13:15:45 INFO: head_stop: Stopping resource<br><a href="http://head.ocf.sh">head.ocf.sh</a>(dbx_head_head)[7202]:    2017/05/19_13:15:47 DEBUG: head_monitor: return 7<br><a href="http://head.ocf.sh">head.ocf.sh</a>(dbx_head_head)[7202]:    2017/05/19_13:15:47 INFO: Resource is already stopped<br>May 19 13:15:47 [6293] olegdbx39-vm000003       lrmd:    debug: operation_finished:    dbx_head_head_stop_0:7202 - exited with rc=0<br>May 19 13:15:47 [6293] olegdbx39-vm000003       lrmd:    debug: operation_finished:    dbx_head_head_stop_0:7202:stderr [ -- empty -- ]<br>May 19 13:15:47 [6293] olegdbx39-vm000003       lrmd:    debug: operation_finished:    dbx_head_head_stop_0:7202:stdout [ -- empty -- ]<br>May 19 13:15:47 [6293] olegdbx39-vm000003       lrmd:     info: log_finished:    finished - rsc:dbx_head_head action:stop call_id:77 pid:7202 exit-code:0 exec-time:1359ms queue-time:0ms<br>May 19 13:15:47 [6292] olegdbx39-vm000003 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.60 to 2.5.59<br><br><br><br><br></div><div>node1)<br></div><div>== reports an error on node3, even though the resource has never been even configured, probed nor started here ==<br></div><div><br>The error is reported on node1 that it happened on node3 (acquired from &#39;crm_mon&#39;):<br><br>Failed Actions:<br>* dbx_head_head_monitor_0 on olegdbx39-vm000003 &#39;not configured&#39; (6): call=999999999, status=Error, exitreason=&#39;none&#39;,<br>    last-rc-change=&#39;Fri May 19 13:15:40 2017&#39;, queued=0ms, exec=0ms<br><br></div><div><br><br></div><div>== Node1 logs &quot;not configured&quot; even though all return codes logged earlier are OK, below are logs for thread, which reports this error: ==<br><br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:     info: crm_xml_cleanup:    Cleaning up memory from libxml2<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:     info: main:    Starting crm_mon<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: qb_rb_open_2:    shm size:524301; real_size:528384; rb-&gt;word_size:132096<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: qb_rb_open_2:    shm size:524301; real_size:528384; rb-&gt;word_size:132096<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: qb_rb_open_2:    shm size:524301; real_size:528384; rb-&gt;word_size:132096<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: cib_native_signon_raw:    Connection to CIB successful<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    STONITH timeout: 60000<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    STONITH of failed nodes is disabled<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    Concurrent fencing is disabled<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    Stop all active resources: false<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    Cluster is symmetric - resources can run anywhere by default<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    Default stickiness: 0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:   notice: unpack_config:    On loss of CCM Quorum: Ignore<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: unpack_config:    Node scores: &#39;red&#39; = -INFINITY, &#39;yellow&#39; = 0, &#39;green&#39; = 0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:     info: determine_online_status:    Node olegdbx39-vm000003 is online<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:     info: determine_online_status:    Node olegdbx39-vm-0 is online<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:     info: determine_online_status:    Node olegdbx39-vm000002 is online<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_head_head_monitor_0 on olegdbx39-vm000003 returned &#39;not configured&#39; (6) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_head_head on olegdbx39-vm000003: not configured (6)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    error: unpack_rsc_op:    Preventing dbx_head_head from re-starting anywhere: operation monitor failed &#39;not configured&#39; (6)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_head_head_monitor_0 on olegdbx39-vm000003 returned &#39;not configured&#39; (6) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_head_head on olegdbx39-vm000003: not configured (6)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    error: unpack_rsc_op:    Preventing dbx_head_head from re-starting anywhere: operation monitor failed &#39;not configured&#39; (6)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_bind_mounts_nodes on olegdbx39-vm000003 to dbx_bind_mounts_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_bind_mounts_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_bind_mounts_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_bind_mounts_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_bind_mounts_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_swap_nodes on olegdbx39-vm000003 to dbx_swap_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_swap_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_swap_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_nodes on olegdbx39-vm000003 to dbx_nfs_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_nfs_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_nfs_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_first_datas on olegdbx39-vm000003 to dbx_first_datas:0<br></div><div>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_first_datas_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_first_datas:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_first_datas_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_first_datas:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_first_head_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_first_head on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [6872] olegdbx39-vm-0 stonith-ng:    debug: xml_patch_version_check:    Can apply patch 2.5.47 to 2.5.46<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_first_head_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_first_head on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_mounts_nodes on olegdbx39-vm000003 to dbx_mounts_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_mounts_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_mounts_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_mounts_nodes_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_mounts_nodes:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_mounts_datas on olegdbx39-vm000003 to dbx_nfs_mounts_datas:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: determine_op_status:    dbx_nfs_mounts_datas_monitor_0 on olegdbx39-vm000003 returned &#39;unknown&#39; (189) instead of the expected value: &#39;not running&#39; (7)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:  warning: unpack_rsc_op_failure:    Processing failed op monitor for dbx_nfs_mounts_datas:0 on olegdbx39-vm000003: unknown (189)<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_ready_primary on olegdbx39-vm000003 to dbx_ready_primary:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_first_datas on olegdbx39-vm-0 to dbx_first_datas:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_swap_nodes on olegdbx39-vm-0 to dbx_swap_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_mounts_nodes on olegdbx39-vm-0 to dbx_mounts_nodes:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_bind_mounts_nodes on olegdbx39-vm-0 to dbx_bind_mounts_nodes:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_mounts_datas on olegdbx39-vm-0 to dbx_nfs_mounts_datas:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_nodes on olegdbx39-vm-0 to dbx_nfs_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_ready_primary on olegdbx39-vm-0 to dbx_ready_primary:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_first_datas on olegdbx39-vm000002 to dbx_first_datas:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_swap_nodes on olegdbx39-vm000002 to dbx_swap_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_mounts_datas on olegdbx39-vm000002 to dbx_nfs_mounts_datas:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_mounts_nodes on olegdbx39-vm000002 to dbx_mounts_nodes:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_bind_mounts_nodes on olegdbx39-vm000002 to dbx_bind_mounts_nodes:1<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_nfs_nodes on olegdbx39-vm000002 to dbx_nfs_nodes:0<br>May 19 13:15:42 [8114] olegdbx39-vm-0    crm_mon:    debug: find_anonymous_clone:    Internally renamed dbx_ready_primary on olegdbx39-vm000002 to dbx_ready_primary:0<br>[...]<br><br><br></div><div>Thanks in advance,<br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Thu, May 18, 2017 at 4:37 PM, Ken Gaillot <span dir="ltr">&lt;<a href="mailto:kgaillot@redhat.com" target="_blank">kgaillot@redhat.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 05/17/2017 06:10 PM, Radoslaw Garbacz wrote:<br>
&gt; Hi,<br>
&gt;<br>
&gt; I have a question regarding &#39;&lt;lrm_resource&gt;&lt;lrm_rsc_op&gt; &#39;op-status<br>
&gt; attribute getting value 4.<br>
&gt;<br>
&gt; In my case I have a strange behavior, when resources get those &quot;monitor&quot;<br>
&gt; operation entries in the CIB with op-status=4, and they do not seem to<br>
&gt; be called (exec-time=0).<br>
&gt;<br>
&gt; What does &#39;op-status&#39; = 4 mean?<br>
<br>
</span>The action had an error status<br>
<span class=""><br>
&gt;<br>
&gt; I would appreciate some elaboration regarding this, since this is<br>
&gt; interpreted by pacemaker as an error, which causes logs:<br>
&gt; crm_mon:    error: unpack_rsc_op:    Preventing dbx_head_head from<br>
&gt; re-starting anywhere: operation monitor failed &#39;not configured&#39; (6)<br>
<br>
</span>The rc-code=&quot;6&quot; is the more interesting number; it&#39;s the result returned<br>
by the resource agent. As you can see above, it means &quot;not configured&quot;.<br>
What that means exactly is up to the resource agent&#39;s interpretation.<br>
<span class=""><br>
&gt; and I am pretty sure the resource agent was not called (no logs,<br>
&gt; exec-time=0)<br>
<br>
</span>Normally this could only come from the resource agent.<br>
<br>
However there are two cases where pacemaker generates this error itself:<br>
if the resource definition in the CIB is invalid; and if your version of<br>
pacemaker was compiled with support for reading sensitive parameter<br>
values from a file, but that file could not be read.<br>
<br>
It doesn&#39;t sound like your case is either one of those though, since<br>
they would prevent the resource from even starting. Most likely it&#39;s<br>
coming from the resource agent. I&#39;d look at the resource agent source<br>
code and see where it can return OCF_ERR_CONFIGURED.<br>
<span class=""><br>
&gt; There are two aspects of this:<br>
&gt;<br>
&gt; 1) harmless (pacemaker seems to not bother about it), which I guess<br>
&gt; indicates cancelled monitoring operations:<br>
&gt; op-status=4, rc-code=189<br>
<br>
</span>This error means the connection between the crmd and lrmd daemons was<br>
lost -- most commonly, that shows up for operations that were pending at<br>
shutdown.<br>
<div><div class="h5"><br>
&gt;<br>
&gt; * Example:<br>
&gt; &lt;lrm_rsc_op id=&quot;dbx_first_datas_last_<wbr>failure_0&quot;<br>
&gt; operation_key=&quot;dbx_first_<wbr>datas_monitor_0&quot; operation=&quot;monitor&quot;<br>
&gt; crm-debug-origin=&quot;do_update_<wbr>resource&quot; crm_feature_set=&quot;3.0.12&quot;<br>
&gt; transition-key=&quot;38:0:7:<wbr>c8b63d9d-9c70-4f99-aa1b-<wbr>e993de6e4739&quot;<br>
&gt; transition-magic=&quot;4:189;38:0:<wbr>7:c8b63d9d-9c70-4f99-aa1b-<wbr>e993de6e4739&quot;<br>
&gt; on_node=&quot;olegdbx61-vm000001&quot; call-id=&quot;10&quot; rc-code=&quot;189&quot; op-status=&quot;4&quot;<br>
&gt; interval=&quot;0&quot; last-run=&quot;1495057378&quot; last-rc-change=&quot;1495057378&quot;<br>
&gt; exec-time=&quot;0&quot; queue-time=&quot;0&quot; op-digest=&quot;<wbr>f6bd1386a336e8e6ee25ecb651a9ef<wbr>b6&quot;/&gt;<br>
&gt;<br>
&gt;<br>
&gt; 2) error level one (op-status=4, rc-code=6), which generates logs:<br>
&gt; crm_mon:    error: unpack_rsc_op:    Preventing dbx_head_head from<br>
&gt; re-starting anywhere: operation monitor failed &#39;not configured&#39; (6)<br>
&gt;<br>
&gt; * Example:<br>
&gt; &lt;lrm_rsc_op id=&quot;dbx_head_head_last_<wbr>failure_0&quot;<br>
&gt; operation_key=&quot;dbx_head_head_<wbr>monitor_0&quot; operation=&quot;monitor&quot;<br>
&gt; crm-debug-origin=&quot;do_update_<wbr>resource&quot; crm_feature_set=&quot;3.0.12&quot;<br>
&gt; transition-key=&quot;39:0:7:<wbr>c8b63d9d-9c70-4f99-aa1b-<wbr>e993de6e4739&quot;<br>
&gt; transition-magic=&quot;4:6;39:0:7:<wbr>c8b63d9d-9c70-4f99-aa1b-<wbr>e993de6e4739&quot;<br>
&gt; on_node=&quot;olegdbx61-vm000001&quot; call-id=&quot;999999999&quot; rc-code=&quot;6&quot;<br>
&gt; op-status=&quot;4&quot; interval=&quot;0&quot; last-run=&quot;1495057389&quot;<br>
&gt; last-rc-change=&quot;1495057389&quot; exec-time=&quot;0&quot; queue-time=&quot;0&quot;<br>
&gt; op-digest=&quot;<wbr>60cdc9db1c5b77e8dba698d3d0c8cd<wbr>a8&quot;/&gt;<br>
&gt;<br>
&gt;<br>
&gt; Could it be some hardware (VM hyperviser) issue?<br>
&gt;<br>
&gt;<br>
&gt; Thanks in advance,<br>
&gt;<br>
&gt; --<br>
&gt; Best Regards,<br>
&gt;<br>
&gt; Radoslaw Garbacz<br>
&gt; XtremeData Incorporated<br>
<br>
</div></div>______________________________<wbr>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div><div dir="ltr"><div>Best Regards,<br><br>Radoslaw Garbacz<br></div>XtremeData Incorporated<br></div></div></div></div>
</div>