<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div>My cluster version:<br>Corosync 2.4.0<br>Pacemaker 1.1.16<br><br>There are many resource anomalies. Some resources are only monitored and not recovered. Some resources are not monitored or recovered. Only one resource of vnm is scheduled normally, but this resource cannot be started because other resources in the cluster are abnormal. Just like a deadlock. I have been plagued by this problem for a long time. I just want a stable and highly available resource with infinite recovery for everyone. Is my resource configure correct?<br></div><br><br>$ <b>cat /etc/corosync/corosync.conf</b><br>mpatibility: whitetank<br><br>quorum {<br>  provider: corosync_votequorum<br>        two_node: 0<br>   }<br><br>nodelist {<br>  node {<br>    ring0_addr: 122.0.1.8<br>    name: 122.0.1.8<br>    nodeid: 000001008<br>  }<br>  node {<br>    ring0_addr: 122.0.1.9<br>    name: 122.0.1.9<br>    nodeid: 000001009<br>  }<br>  node {<br>    ring0_addr: 122.0.1.10<br>    name: 122.0.1.10<br>    nodeid: 000001010<br>  }<br>}<br><br>totem {<br>  version:                             2<br>  token:                               3000<br>  token_retransmits_before_loss_const: 10<br>  join:                                60<br>  consensus:                           3600<br>  vsftype:                             none<br>  max_messages:                        20<br>  clear_node_high_bit:                 yes<br>  rrp_mode:                            none<br>  secauth:                             off<br>  threads:                             2<br>  transport:                           udpu<br>  interface {<br>    ringnumber:  0<br>    bindnetaddr: 122.0.1.8<br>    mcastport:   5405<br>  }<br>}<br><br>logging {<br>  fileline:        off<br>  to_stderr:       no<br>  to_logfile:      yes<br>  logfile:         /root/info/logs/pacemaker_cluster/corosync.log<br>  to_syslog:       yes<br>  syslog_facility: daemon<br>  syslog_priority: info<br>  debug:           off<br>  function_name:   on<br>  timestamp:       on<br>  logger_subsys {<br>    subsys: AMF<br>    debug:  off<br>    tags:   enter|leave|trace1|trace2|trace3|trace4|trace6<br>  }<br>}<br><br>amf {<br>  mode: disabled<br>}<br><br>aisexec {<br>  user:  root<br>  group: root<br>}<br><br><br><br><br><br>$ <b>crm configure show</b><br>node 1008: 122.0.1.8<br>node 1009: 122.0.1.9<br>node 1010: 122.0.1.10<br>primitive apigateway apigateway \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive apigateway_vip IPaddr2 \<br>        params ip=122.0.1.203 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive inetmanager inetmanager \<br>        op monitor interval=10s timeout=160 \<br>        op stop interval=0 timeout=60s on-fail=restart \<br>        op start interval=0 timeout=60s on-fail=restart \<br>        meta migration-threshold=2 failure-timeout=60s resource-stickiness=100<br>primitive inetmanager_vip IPaddr2 \<br>        params ip=122.0.1.201 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive logserver logserver \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive mariadb_vip IPaddr2 \<br>        params ip=122.0.1.204 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive mysql mysql \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive p_rdbserver hardb_docker \<br>        op start timeout=3600 interval=0 \<br>        op stop timeout=1260 interval=0 \<br>        op promote timeout=3600 interval=0 \<br>        op monitor role=Master interval=1 timeout=30 \<br>        op monitor interval=15 timeout=7200 \<br>        meta migration-threshold=3 failure-timeout=3600s<br>primitive p_rdbvip IPaddr2 \<br>        params ip=100.0.1.203 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s resource-stickiness=100<br>primitive rabbitmq rabbitmq \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive rabbitmq_vip IPaddr2 \<br>        params ip=122.0.1.200 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive router router \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive router_vip IPaddr2 \<br>        params ip=100.0.1.201 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive sdclient sdclient \<br>        op monitor interval=20s timeout=120s \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s<br>primitive sdclient_vip IPaddr2 \<br>        params ip=100.0.1.202 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive storage storage \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive swr swr \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta migration-threshold=2 failure-timeout=60s resource-stickiness=100<br>primitive tcfs_aerospike tcfs_aerospike \<br>        params probe_url=122.0.1.8 \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive tcfs_server tcfs_server \<br>        op monitor interval=20s timeout=220 \<br>        op stop interval=0 timeout=120s on-fail=restart \<br>        op start interval=0 timeout=120s on-fail=restart \<br>        meta failure-timeout=60s target-role=Started<br>primitive vip IPaddr2 \<br>        params ip=122.0.1.205 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>primitive vnm vnm \<br>        op monitor interval=20s timeout=340 \<br>        op stop interval=0 timeout=240s on-fail=restart \<br>        op start interval=0 timeout=240s on-fail=restart \<br>        meta migration-threshold=2 failure-timeout=60s resource-stickiness=100<br>primitive vnm_vip IPaddr2 \<br>        params ip=100.0.1.200 cidr_netmask=24 \<br>        op start interval=0 timeout=20 \<br>        op stop interval=0 timeout=20 \<br>        op monitor timeout=20s interval=10s depth=0 \<br>        meta migration-threshold=3 failure-timeout=60s<br>ms ms_rdbserver p_rdbserver \<br>        meta master-max=1 master-node-max=1 clone-max=3 clone-node-max=1 notify=true<br>clone apigateway_replica apigateway<br>clone logserver_replica logserver<br>clone mysql_replica mysql<br>clone rabbitmq_replica rabbitmq<br>clone router_replica router<br>clone sdclient_rep sdclient \<br>        meta target-role=Started<br>clone storage_replica storage<br>clone tcfs_aerospike_replica tcfs_aerospike<br>clone tcfs_server_replica tcfs_server<br>location apigateway_loc apigateway_vip \<br>        rule +inf: apigateway_workable eq 1<br>colocation c_rdb_with_vip inf: p_rdbvip ms_rdbserver:Master<br>colocation inetmanager_col +inf: inetmanager_vip inetmanager<br>order inetmanager_order Mandatory: inetmanager inetmanager_vip<br>location mysql_loc mariadb_vip \<br>        rule +inf: mysql_status eq ok<br>order o_vip_after_rdbserver inf: ms_rdbserver:promote p_rdbvip:start<br>location rabbitmq_loc rabbitmq_vip \<br>        rule +inf: rabbitmq_status eq ok<br>location router_loc router_vip \<br>        rule +inf: router_workable eq 1<br>location sdclient_loc sdclient_vip \<br>        rule +inf: sdclient_workable eq 1<br>colocation swr_col +inf: vip swr<br>order swr_order Mandatory: vip swr<br>colocation vnm_col +inf: vnm_vip vnm<br>order vnm_order Mandatory: vnm vnm_vip<br>property RDB_p_rdbserver_INSTANCE_UUID: \<br>        122.0.1.8_ebaserdb_1=375b9e0d-3e23-11e8-ab5c-0242ac110011<br>property RDB_p_rdbserver_REPL_INFO: \<br>        real_master=122.0.1.8 \<br>        master_node=122.0.1.8 \<br>        master_gtid=0 \<br>        master_score=2000<br>property cib-bootstrap-options: \<br>        have-watchdog=false \<br>        dc-version=1.1.16-12.el7-94ff4df \<br>        cluster-infrastructure=corosync \<br>        stonith-enabled=false \<br>        start-failure-is-fatal=false \<br>        load-threshold="3200%"<br><br><br><br><br><br><br>$ <b>crm status</b><br>Stack: corosync<br>Current DC: 122.0.1.10 (version 1.1.16-12.el7-94ff4df) - partition with quorum<br>Last updated: Fri Apr 13 23:48:12 2018<br>Last change: Fri Apr 13 15:31:54 2018 by root via cibadmin on 122.0.1.8<br><br>3 nodes configured<br>42 resources configured<br><br>Online: [ 122.0.1.10 122.0.1.8 122.0.1.9 ]<br><br>Full list of resources:<br><br> router_vip     (ocf::heartbeat:IPaddr2):       Started 122.0.1.10<br> sdclient_vip   (ocf::heartbeat:IPaddr2):       Started 122.0.1.10<br> apigateway_vip (ocf::heartbeat:IPaddr2):       Started 122.0.1.8<br> mariadb_vip    (ocf::heartbeat:IPaddr2):       Started 122.0.1.9<br> Clone Set: sdclient_rep [sdclient]<br>     sdclient   (ocf::heartbeat:sdclient):      FAILED 122.0.1.9<br>     Started: [ 122.0.1.10 ]<br>     Stopped: [ 122.0.1.8 ]<br> Clone Set: apigateway_replica [apigateway]<br>     Started: [ 122.0.1.10 122.0.1.8 122.0.1.9 ]<br> Clone Set: router_replica [router]<br>     Started: [ 122.0.1.10 122.0.1.8 122.0.1.9 ]<br> Clone Set: mysql_replica [mysql]<br>     Started: [ 122.0.1.10 122.0.1.8 122.0.1.9 ]<br> rabbitmq_vip   (ocf::heartbeat:IPaddr2):       Started 122.0.1.8<br> Clone Set: rabbitmq_replica [rabbitmq]<br>     rabbitmq   (ocf::heartbeat:rabbitmq):      FAILED 122.0.1.9<br>     Stopped: [ 122.0.1.10 122.0.1.8 ]<br> inetmanager_vip        (ocf::heartbeat:IPaddr2):       Stopped<br> inetmanager    (ocf::heartbeat:inetmanager):   Stopped<br> vnm_vip        (ocf::heartbeat:IPaddr2):       Stopped<br> vnm    (ocf::heartbeat:vnm):   FAILED 122.0.1.10<br> Clone Set: storage_replica [storage]<br>     storage    (ocf::heartbeat:storage):       FAILED 122.0.1.9<br>     Stopped: [ 122.0.1.10 122.0.1.8 ]<br> vip    (ocf::heartbeat:IPaddr2):       Started 122.0.1.8<br> swr    (ocf::heartbeat:swr):   FAILED 122.0.1.9<br> Clone Set: tcfs_aerospike_replica [tcfs_aerospike]<br>     tcfs_aerospike     (ocf::heartbeat:tcfs_aerospike):        FAILED 122.0.1.9<br>     Stopped: [ 122.0.1.10 122.0.1.8 ]<br> Clone Set: tcfs_server_replica [tcfs_server]<br>     tcfs_server        (ocf::heartbeat:tcfs_server):   FAILED 122.0.1.9<br>     Stopped: [ 122.0.1.10 122.0.1.8 ]<br> Clone Set: logserver_replica [logserver]<br>     logserver  (ocf::heartbeat:logserver):     FAILED 122.0.1.9<br>     Stopped: [ 122.0.1.10 122.0.1.8 ]<br> p_rdbvip       (ocf::heartbeat:IPaddr2):       Started 122.0.1.8<br> Master/Slave Set: ms_rdbserver [p_rdbserver]<br>     Masters: [ 122.0.1.8 ]<br>     Stopped: [ 122.0.1.10 122.0.1.9 ]<br><br>Failed Actions:<br>* sdclient_monitor_0 on 122.0.1.9 'unknown error' (1): call=2142, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=73ms<br>* rabbitmq_monitor_0 on 122.0.1.9 'unknown error' (1): call=2143, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=66ms<br>* storage_monitor_0 on 122.0.1.9 'unknown error' (1): call=2145, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=60ms<br>* p_rdbserver_monitor_0 on 122.0.1.9 'not installed' (5): call=135, status=Not installed, exitreason='none',<br>    last-rc-change='Fri Apr 13 13:39:33 2018', queued=0ms, exec=0ms<br>* tcfs_aerospike_monitor_0 on 122.0.1.9 'unknown error' (1): call=2147, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=1ms, exec=49ms<br>* swr_monitor_0 on 122.0.1.9 'unknown error' (1): call=2146, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=45ms<br>* tcfs_server_monitor_0 on 122.0.1.9 'unknown error' (1): call=2148, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=52ms<br>* logserver_monitor_0 on 122.0.1.9 'unknown error' (1): call=2149, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=58ms<br>* vnm_monitor_20000 on 122.0.1.10 'unknown error' (1): call=619, status=complete, exitreason='none',<br>    last-rc-change='Fri Apr 13 23:47:19 2018', queued=0ms, exec=241245ms<br>* p_rdbserver_monitor_0 on 122.0.1.10 'not installed' (5): call=101, status=Not installed, exitreason='none',<br>    last-rc-change='Fri Apr 13 13:37:10 2018', queued=0ms, exec=0ms<br><br><br><br><br><br><b>corosync.log of node 122.0.1.8</b><br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_perform_op:  Diff: --- 0.124.2399 2<br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_perform_op:  Diff: +++ 0.124.2400 (null)<br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_perform_op:  +  /cib:  @num_updates=2400<br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_perform_op:  +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_failure_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_perform_op:  +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6302] paas-controller-122-0-1-8        cib:     info: cib_process_request:     Completed cib_modify operation for section status: OK (rc=0, origin=122.0.1.9/crmd/2092, version=0.124.2400)<br>Apr 13 23:50:01 [6302] paas-controller-122-0-1-8        cib:     info: cib_process_ping:        Reporting our current digest to 122.0.1.10: 139d30df3b1f549818371c8cb08fab09 for 0.124.2400 (0x7fa03378e1e0 0)<br><br><br><br><b>corosync.log of node 122.0.1.9</b><br>Apr 13 23:49:56 [6255] paas-controller-122-0-1-9       crmd:  warning: find_xml_node:   Could not find parameters in resource-agent.<br>Apr 13 23:49:56 [6255] paas-controller-122-0-1-9       crmd:   notice: process_lrm_event:       Result of probe operation for inetmanager on 122.0.1.9: 1 (unknown error) | call=2152 key=inetmanager_monitor_0 confirmed=true cib-update=2092<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_process_request:     Forwarding cib_modify operation for section status to all (origin=local/crmd/2092)<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_perform_op:  Diff: --- 0.124.2399 2<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_perform_op:  Diff: +++ 0.124.2400 (null)<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_perform_op:  +  /cib:  @num_updates=2400<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_perform_op:  +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_failure_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_perform_op:  +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6250] paas-controller-122-0-1-9        cib:     info: cib_process_request:     Completed cib_modify operation for section status: OK (rc=0, origin=122.0.1.9/crmd/2092, version=0.124.2400)<br>Apr 13 23:50:01 [6250] paas-controller-122-0-1-9        cib:     info: cib_process_ping:        Reporting our current digest to 122.0.1.10: 139d30df3b1f549818371c8cb08fab09 for 0.124.2400 (0x7fb76e204f30 0)<br><br><br><br><b>corosync.log of node 122.0.1.10</b><br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_perform_op: Diff: --- 0.124.2399 2<br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_perform_op: Diff: +++ 0.124.2400 (null)<br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_perform_op: +  /cib:  @num_updates=2400<br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_perform_op: +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_failure_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_perform_op: +  /cib/status/node_state[@id='1009']/lrm[@id='1009']/lrm_resources/lrm_resource[@id='inetmanager']/lrm_rsc_op[@id='inetmanager_last_0']:  @transition-key=24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @transition-magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be, @call-id=2152, @last-run=1523634518, @last-rc-change=1523634518, @exec-time=78408<br>Apr 13 23:49:56 [6132] paas-controller-122-0-1-10        cib:     info: cib_process_request:    Completed cib_modify operation for section status: OK (rc=0, origin=122.0.1.9/crmd/2092, version=0.124.2400)<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:  warning: status_from_rc: Action 24 (inetmanager_monitor_0) on 122.0.1.9 failed (target: 7 vs. rc: 1): Error<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: abort_transition_graph: Transition aborted by operation inetmanager_monitor_0 'modify' on 122.0.1.9: Event failed | magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be cib=0.124.2400 source=match_graph_event:310 complete=false<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: match_graph_event:      Action inetmanager_monitor_0 (24) confirmed on 122.0.1.9 (rc=1)<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: process_graph_event:    Detected action (360.24) inetmanager_monitor_0.2152=unknown error: failed<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:  warning: status_from_rc: Action 24 (inetmanager_monitor_0) on 122.0.1.9 failed (target: 7 vs. rc: 1): Error<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: abort_transition_graph: Transition aborted by operation inetmanager_monitor_0 'modify' on 122.0.1.9: Event failed | magic=0:1;24:360:7:a7901eb1-462f-4259-a613-e0023ce8a6be cib=0.124.2400 source=match_graph_event:310 complete=false<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: match_graph_event:      Action inetmanager_monitor_0 (24) confirmed on 122.0.1.9 (rc=1)<br>Apr 13 23:49:56 [6137] paas-controller-122-0-1-10       crmd:     info: process_graph_event:    Detected action (360.24) inetmanager_monitor_0.2152=unknown error: failed<br>Apr 13 23:50:01 [6132] paas-controller-122-0-1-10        cib:     info: cib_process_ping:       Reporting our current digest to 122.0.1.10: 139d30df3b1f549818371c8cb08fab09 for 0.124.2400 (0x7f9fd1aa1c10 0)</div><br><br><span title="neteasefooter"><p> </p></span>