<div dir="ltr">Andrew,<div> Thanks to your reply. Here is the detail</div><div><br></div><div><div>[root@vsanqa8 ~]# rpm -qa | grep pacemaker</div><div>pacemaker-cluster-libs-1.1.8-7.el6.x86_64</div><div>pacemaker-1.1.8-7.el6.x86_64</div>
<div>pacemaker-libs-1.1.8-7.el6.x86_64</div><div>pacemaker-cli-1.1.8-7.el6.x86_64</div><div><br></div><div>[root@vsanqa8 ~]# rpm -qa | grep  coro</div><div>corosynclib-1.4.1-15.el6_4.1.x86_64</div><div>corosync-1.4.1-15.el6_4.1.x86_64</div>
<div><br></div><div>[root@vsanqa8 ~]# rpm -qa | grep  cman</div><div>cman-3.0.12.1-49.el6.x86_64</div><div><br></div><div>[root@vsanqa8 ~]# uname -a</div><div>Linux vsanqa8 2.6.32-220.el6.x86_64 #1 SMP Tue Dec 6 19:48:22 GMT 2011 x86_64 x86_64 x86_64 GNU/Linux</div>
<div><br></div><div>[root@vsanqa8 ~]# cat /etc/redhat-release</div><div>CentOS release 6.2 (Final)</div><div>[root@vsanqa8 ~]#</div></div><div><br></div><div>so do I need to upgrade to pacemaker 1.1.9 for the fix ?</div><div>
<br></div><div>Regards,</div><div> Kiran</div><div><br></div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Wed, Jul 17, 2013 at 4:31 AM, Andrew Beekhof <span dir="ltr"><<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im"><br>
On 16/07/2013, at 11:03 PM, K Mehta <<a href="mailto:kiranmehta1981@gmail.com">kiranmehta1981@gmail.com</a>> wrote:<br>
<br>
> I have a two node test cluster running with CMAN plugin. Fencing is not configured.<br>
<br>
</div>Thats problem 1<br>
<div class="im"><br>
> I see that vsanqa7 sends a message to vsanqa8 to shutdown.<br>
> However, it is not clear why vsanqa7 takes this decision.<br>
<br>
</div>It looks like you're hitting the problem addressed by:<br>
<br>
   <a href="https://github.com/beekhof/pacemaker/commit/913a850" target="_blank">https://github.com/beekhof/pacemaker/commit/913a850</a><br>
<br>
Is this on RHEL? or one of the rebuilds?<br>
<div><div class="h5"><br>
><br>
><br>
><br>
><br>
> ===================/var/log/messages=================================<br>
><br>
> Node vsanqa7<br>
><br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [CMAN  ] quorum regained, resuming activity<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [QUORUM] This node is within the primary component and will provide service.<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [QUORUM] Members[2]: 1 2<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [QUORUM] Members[2]: 1 2<br>
> Jul 15 08:51:18 vsanqa7 crmd[12372]:   notice: cman_event_callback: Membership 4035520: quorum acquired<br>
> Jul 15 08:51:18 vsanqa7 crmd[12372]:   notice: crm_update_peer_state: cman_event_callback: Node vsanqa8[2] - state is now member<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [CPG   ] chosen downlist: sender r(0) ip(172.16.68.120) ; members(old:1 left:0)<br>
> Jul 15 08:51:18 vsanqa7 corosync[12081]:   [MAIN  ] Completed service synchronization, ready to provide service.<br>
> Jul 15 08:51:30 vsanqa7 crmd[12372]:  warning: match_down_event: No match for shutdown action on vsanqa8<br>
> Jul 15 08:51:30 vsanqa7 crmd[12372]:   notice: do_state_transition: State transition S_IDLE -> S_INTEGRATION [ input=I_NODE_JOIN cause=C_FSA_INTERNAL origin=peer_update_callback ]<br>
> Jul 15 08:51:30 vsanqa7 cib[12367]:  warning: cib_process_diff: Diff 0.2760.0 -> 0.2760.1 from vsanqa8 not applied to 0.2760.307: current "num_updates" is greater than required<br>
> Jul 15 08:51:31 vsanqa7 kernel: send_and_wait_for_client_info failed with -110 uuid=0x74<br>
> Jul 15 08:51:32 vsanqa7 attrd[12370]:   notice: attrd_local_callback: Sending full refresh (origin=crmd)<br>
> Jul 15 08:51:32 vsanqa7 attrd[12370]:   notice: attrd_trigger_update: Sending flush op to all hosts for: master-vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839 (8)<br>
> Jul 15 08:51:32 vsanqa7 attrd[12370]:   notice: attrd_trigger_update: Sending flush op to all hosts for: probe_complete (true)<br>
> Jul 15 08:51:32 vsanqa7 pengine[12371]:   notice: unpack_config: On loss of CCM Quorum: Ignore<br>
><br>
> >>> Why vsanqa8 is scheduled for shutdown ? <<<<<<br>
><br>
> Jul 15 08:51:32 vsanqa7 pengine[12371]:   notice: stage6: Scheduling Node vsanqa8 for shutdown<br>
> Jul 15 08:51:32 vsanqa7 pengine[12371]:   notice: process_pe_message: Calculated Transition 1: /var/lib/pacemaker/pengine/pe-input-3530.bz2<br>
><br>
><br>
><br>
><br>
> Node vsanqa8<br>
><br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Corosync Cluster Engine ('1.4.1'): started and ready to provide service.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Corosync built-in features: nss dbus rdma snmp<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Successfully read config from /etc/cluster/cluster.conf<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Successfully parsed cman config<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [TOTEM ] Initializing transport (UDP/IP Multicast).<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [TOTEM ] Initializing transmit/receive security: libtomcrypt SOBER128/SHA1HMAC (mode 0).<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [TOTEM ] The network interface [172.16.68.126] is now up.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Using quorum provider quorum_cman<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync cluster quorum service v0.1<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [CMAN  ] CMAN 3.0.12.1 (built Feb 22 2013 07:20:27) started<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync CMAN membership service 2.90<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: openais checkpoint service B.01.01<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync extended virtual synchrony service<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync configuration service<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync cluster closed process group service v1.01<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync cluster config database access v1.01<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync profile loading service<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Using quorum provider quorum_cman<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [SERV  ] Service engine loaded: corosync cluster quorum service v0.1<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Compatibility mode set to whitetank.  Using V1 and V2 of the synchronization engine.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Members[1]: 2<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Members[1]: 2<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [CPG   ] chosen downlist: sender r(0) ip(172.16.68.126) ; members(old:0 left:0)<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Completed service synchronization, ready to provide service.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [CMAN  ] quorum regained, resuming activity<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] This node is within the primary component and will provide service.<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Members[2]: 1 2<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [QUORUM] Members[2]: 1 2<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [CPG   ] chosen downlist: sender r(0) ip(172.16.68.120) ; members(old:1 left:0)<br>
> Jul 15 08:51:18 vsanqa8 corosync[21392]:   [MAIN  ] Completed service synchronization, ready to provide service.<br>
> Jul 15 08:51:22 vsanqa8 fenced[21447]: fenced 3.0.12.1 started<br>
> Jul 15 08:51:22 vsanqa8 dlm_controld[21467]: dlm_controld 3.0.12.1 started<br>
> Jul 15 08:51:23 vsanqa8 gfs_controld[21522]: gfs_controld 3.0.12.1 started<br>
> Jul 15 08:51:29 vsanqa8 pacemakerd[21673]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 pacemakerd[21673]:   notice: main: Starting Pacemaker 1.1.8-7.el6 (Build: 394e906):  generated-manpages agent-manpages ascii-docs publican-docs ncurses libqb-logging libqb-ipc  corosync-plugin cman<br>

> Jul 15 08:51:29 vsanqa8 pacemakerd[21673]:   notice: update_node_processes: 0x13c1f80 Node 2 now known as vsanqa8, was:<br>
> Jul 15 08:51:29 vsanqa8 pacemakerd[21673]:   notice: update_node_processes: 0x13be960 Node 1 now known as vsanqa7, was:<br>
> Jul 15 08:51:29 vsanqa8 lrmd[21681]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 stonith-ng[21680]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 cib[21679]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 attrd[21682]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 stonith-ng[21680]:   notice: crm_cluster_connect: Connecting to cluster infrastructure: cman<br>
> Jul 15 08:51:29 vsanqa8 cib[21679]:   notice: main: Using legacy config location: /var/lib/heartbeat/crm<br>
> Jul 15 08:51:29 vsanqa8 attrd[21682]:   notice: crm_cluster_connect: Connecting to cluster infrastructure: cman<br>
> Jul 15 08:51:29 vsanqa8 crmd[21684]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 crmd[21684]:   notice: main: CRM Git Version: 394e906<br>
> Jul 15 08:51:29 vsanqa8 pengine[21683]:   notice: crm_add_logfile: Additional logging available in /var/log/cluster/corosync.log<br>
> Jul 15 08:51:29 vsanqa8 attrd[21682]:   notice: main: Starting mainloop...<br>
> Jul 15 08:51:29 vsanqa8 cib[21679]:   notice: crm_cluster_connect: Connecting to cluster infrastructure: cman<br>
> Jul 15 08:51:30 vsanqa8 crmd[21684]:   notice: crm_cluster_connect: Connecting to cluster infrastructure: cman<br>
> Jul 15 08:51:30 vsanqa8 stonith-ng[21680]:   notice: setup_cib: Watching for stonith topology changes<br>
> Jul 15 08:51:30 vsanqa8 crmd[21684]:   notice: cman_event_callback: Membership 4035520: quorum acquired<br>
> Jul 15 08:51:30 vsanqa8 crmd[21684]:   notice: crm_update_peer_state: cman_event_callback: Node vsanqa7[1] - state is now member<br>
> Jul 15 08:51:30 vsanqa8 crmd[21684]:   notice: crm_update_peer_state: cman_event_callback: Node vsanqa8[2] - state is now member<br>
> Jul 15 08:51:30 vsanqa8 crmd[21684]:   notice: do_started: The local CRM is operational<br>
> Jul 15 08:51:32 vsanqa8 crmd[21684]:   notice: do_state_transition: State transition S_PENDING -> S_NOT_DC [ input=I_NOT_DC cause=C_HA_MESSAGE origin=do_cl_join_finalize_respond ]<br>
> Jul 15 08:51:32 vsanqa8 attrd[21682]:   notice: attrd_local_callback: Sending full refresh (origin=crmd)<br>
><br>
> >>>>> vsanqa8 is not expecting a shutdown request from vsanqa7 <<<<<<<<br>
><br>
> Jul 15 08:51:32 vsanqa8 crmd[21684]:    error: handle_request: We didn't ask to be shut down, yet our DC is telling us too.<br>
> Jul 15 08:51:32 vsanqa8 crmd[21684]:   notice: do_state_transition: State transition S_NOT_DC -> S_STOPPING [ input=I_STOP cause=C_HA_MESSAGE origin=route_message ]<br>
> Jul 15 08:51:33 vsanqa8 crmd[21684]:   notice: process_lrm_event: LRM operation vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839_monitor_0 (call=6, rc=7, cib-update=9, confirmed=true) not running<br>
> Jul 15 08:51:33 vsanqa8 crmd[21684]:   notice: terminate_cs_connection: Disconnecting from Corosync<br>
> Jul 15 08:51:33 vsanqa8 cib[21679]:  warning: qb_ipcs_event_sendv: new_event_notification (21679-21684-12): Broken pipe (32)<br>
> Jul 15 08:51:33 vsanqa8 crmd[21684]:  warning: do_exit: Inhibiting respawn by Heartbeat<br>
> Jul 15 08:51:33 vsanqa8 cib[21679]:  warning: do_local_notify: A-Sync reply to crmd failed: No message of desired type<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:    error: pcmk_child_exit: Child process crmd exited (pid=21684, rc=100)<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:  warning: pcmk_child_exit: Pacemaker child process crmd no longer wishes to be respawned. Shutting ourselves down.<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:   notice: pcmk_shutdown_worker: Shuting down Pacemaker<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:   notice: stop_child: Stopping pengine: Sent -15 to process 21683<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:   notice: stop_child: Stopping attrd: Sent -15 to process 21682<br>
> Jul 15 08:51:33 vsanqa8 attrd[21682]:   notice: main: Exiting...<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:   notice: stop_child: Stopping lrmd: Sent -15 to process 21681<br>
> Jul 15 08:51:33 vsanqa8 pacemakerd[21673]:   notice: stop_child: Stopping stonith-ng: Sent -15 to process 21680<br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
> =========================corosync.log===============================================<br>
><br>
><br>
> vsanqa7<br>
><br>
> Jul 15 08:51:29 [12367] vsanqa7        cib:     info: pcmk_cpg_membership:      Member[3.1] cib.2<br>
> Jul 15 08:51:29 [12367] vsanqa7        cib:     info: crm_update_peer_proc:     pcmk_cpg_membership: Node vsanqa8[2] - corosync-cpg is now online<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: pcmk_cpg_membership:      Joined[3.0] crmd.2<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: pcmk_cpg_membership:      Member[3.0] crmd.1<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: pcmk_cpg_membership:      Member[3.1] crmd.2<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: crm_update_peer_proc:     pcmk_cpg_membership: Node vsanqa8[2] - corosync-cpg is now online<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: peer_update_callback:     Client vsanqa8/peer now has status [online] (DC=true)<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:  warning: match_down_event:         No match for shutdown action on vsanqa8<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:   notice: do_state_transition:      State transition S_IDLE -> S_INTEGRATION [ input=I_NODE_JOIN cause=C_FSA_INTERNAL origin=peer_update_callback ]<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: abort_transition_graph:   do_te_invoke:163 - Triggered transition abort (complete=1) : Peer Halt<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: join_make_offer:  Making join offers based on membership 4035520<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: do_dc_join_offer_all:     join-2: Waiting on 2 outstanding join acks<br>
> Jul 15 08:51:30 [12372] vsanqa7       crmd:     info: update_dc:        Set DC to vsanqa7 (3.0.7)<br>
> Jul 15 08:51:30 [12367] vsanqa7        cib:  warning: cib_process_diff:         Diff 0.2760.0 -> 0.2760.1 from vsanqa8 not applied to 0.2760.307: current "num_updates" is greater than required<br>
> Jul 15 08:51:30 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_sync_one for section 'all' (origin=vsanqa8/vsanqa8/(null), version=0.2760.307): OK (rc=0)<br>
> Jul 15 08:51:31 [12372] vsanqa7       crmd:     info: do_dc_join_offer_all:     A new node joined the cluster<br>
> Jul 15 08:51:31 [12372] vsanqa7       crmd:     info: do_dc_join_offer_all:     join-3: Waiting on 2 outstanding join acks<br>
> Jul 15 08:51:31 [12372] vsanqa7       crmd:     info: update_dc:        Set DC to vsanqa7 (3.0.7)<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: crm_update_peer_expected:         do_dc_join_filter_offer: Node vsanqa8[2] - expected state is now member<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: do_state_transition:      State transition S_INTEGRATION -> S_FINALIZE_JOIN [ input=I_INTEGRATED cause=C_FSA_INTERNAL origin=check_join_state ]<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: do_dc_join_finalize:      join-3: Syncing the CIB from vsanqa7 to the rest of the cluster<br>
> Jul 15 08:51:32 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_sync for section 'all' (origin=local/crmd/43, version=0.2760.307): OK (rc=0)<br>
> Jul 15 08:51:32 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_modify for section nodes (origin=local/crmd/44, version=0.2760.308): OK (rc=0)<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: do_dc_join_ack:   join-3: Updating node state to member for vsanqa7<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: erase_status_tag:         Deleting xpath: //node_state[@uname='vsanqa7']/lrm<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: do_dc_join_ack:   join-3: Updating node state to member for vsanqa8<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: erase_status_tag:         Deleting xpath: //node_state[@uname='vsanqa8']/lrm<br>
> Jul 15 08:51:32 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_modify for section nodes (origin=local/crmd/45, version=0.2760.309): OK (rc=0)<br>
> Jul 15 08:51:32 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_delete for section //node_state[@uname='vsanqa7']/lrm (origin=local/crmd/46, version=0.2760.310): OK (rc=0)<br>

> Jul 15 08:51:32 [12367] vsanqa7        cib:     info: cib_process_request:      Operation complete: op cib_delete for section //node_state[@uname='vsanqa8']/lrm (origin=local/crmd/48, version=0.2760.312): OK (rc=0)<br>

> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: do_state_transition:      State transition S_FINALIZE_JOIN -> S_POLICY_ENGINE [ input=I_FINALIZED cause=C_FSA_INTERNAL origin=check_join_state ]<br>
> Jul 15 08:51:32 [12372] vsanqa7       crmd:     info: abort_transition_graph:   do_te_invoke:156 - Triggered transition abort (complete=1) : Peer Cancelled<br>
> Jul 15 08:51:32 [12370] vsanqa7      attrd:   notice: attrd_local_callback:     Sending full refresh (origin=crmd)<br>
><br>
><br>
><br>
><br>
><br>
><br>
><br>
> vsanqa8<br>
><br>
> Jul 15 08:51:30 [21679] vsanqa8        cib:     info: cib_process_diff:         Diff 0.2760.306 -> 0.2760.307 from vsanqa7 not applied to 0.2760.1: current "num_updates" is less than required<br>
> Jul 15 08:51:30 [21679] vsanqa8        cib:     info: cib_server_process_diff:  Requesting re-sync from peer<br>
> Jul 15 08:51:30 [21684] vsanqa8       crmd:     info: do_started:       Delaying start, Config not read (0000000000000040)<br>
> Jul 15 08:51:30 [21684] vsanqa8       crmd:     info: do_started:       Delaying start, Config not read (0000000000000040)<br>
> Jul 15 08:51:30 [21684] vsanqa8       crmd:     info: qb_ipcs_us_publish:       server name: crmd<br>
> Jul 15 08:51:30 [21684] vsanqa8       crmd:   notice: do_started:       The local CRM is operational<br>
> Jul 15 08:51:30 [21684] vsanqa8       crmd:     info: do_state_transition:      State transition S_STARTING -> S_PENDING [ input=I_PENDING cause=C_FSA_INTERNAL origin=do_started ]<br>
> Jul 15 08:51:30 [21679] vsanqa8        cib:     info: cib_process_replace:      Digest matched on replace from vsanqa7: 0936115228a36c943f181954830c9b2b<br>
> Jul 15 08:51:30 [21679] vsanqa8        cib:     info: cib_process_replace:      Replaced 0.2760.1 with 0.2760.307 from vsanqa7<br>
> Jul 15 08:51:30 [21679] vsanqa8        cib:     info: cib_replace_notify:       Replaced: 0.2760.1 -> 0.2760.307 from vsanqa7<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: pcmk_cpg_membership:      Joined[0.0] crmd.2<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: pcmk_cpg_membership:      Member[0.0] crmd.1<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: crm_update_peer_proc:     pcmk_cpg_membership: Node vsanqa7[1] - corosync-cpg is now online<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: peer_update_callback:     Client vsanqa7/peer now has status [online] (DC=<null>)<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: pcmk_cpg_membership:      Member[0.1] crmd.2<br>
> Jul 15 08:51:31 [21684] vsanqa8       crmd:     info: update_dc:        Set DC to vsanqa7 (3.0.7)<br>
> Jul 15 08:51:32 [21680] vsanqa8 stonith-ng:     info: stonith_command:  Processed register from crmd.21684: OK (0)<br>
> Jul 15 08:51:32 [21680] vsanqa8 stonith-ng:     info: stonith_command:  Processed st_notify from crmd.21684: OK (0)<br>
> Jul 15 08:51:32 [21680] vsanqa8 stonith-ng:     info: stonith_command:  Processed st_notify from crmd.21684: OK (0)<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: erase_status_tag:         Deleting xpath: //node_state[@uname='vsanqa8']/transient_attributes<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: update_attrd:     Connecting to attrd... 5 retries remaining<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:   notice: do_state_transition:      State transition S_PENDING -> S_NOT_DC [ input=I_NOT_DC cause=C_HA_MESSAGE origin=do_cl_join_finalize_respond ]<br>
> Jul 15 08:51:32 [21679] vsanqa8        cib:     info: cib_process_replace:      Digest matched on replace from vsanqa7: 0936115228a36c943f181954830c9b2b<br>
> Jul 15 08:51:32 [21679] vsanqa8        cib:     info: cib_process_replace:      Replaced 0.2760.307 with 0.2760.307 from vsanqa7<br>
> Jul 15 08:51:32 [21682] vsanqa8      attrd:   notice: attrd_local_callback:     Sending full refresh (origin=crmd)<br>
> Jul 15 08:51:32 [21681] vsanqa8       lrmd:     info: process_lrmd_get_rsc_info:        Resource 'vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839' not found (0 active resources)<br>
> Jul 15 08:51:32 [21681] vsanqa8       lrmd:     info: process_lrmd_get_rsc_info:        Resource 'vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839:0' not found (0 active resources)<br>
> Jul 15 08:51:32 [21681] vsanqa8       lrmd:     info: process_lrmd_rsc_register:        Added 'vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839' to the rsc list (1 active resources)<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:    error: handle_request:   We didn't ask to be shut down, yet our DC is telling us too.<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:   notice: do_state_transition:      State transition S_NOT_DC -> S_STOPPING [ input=I_STOP cause=C_HA_MESSAGE origin=route_message ]<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: do_shutdown:      Disconnecting STONITH...<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: tengine_stonith_connection_destroy:       Fencing daemon disconnected<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: verify_stopped:   1 pending LRM operations at shutdown... waiting<br>
> Jul 15 08:51:32 [21684] vsanqa8       crmd:     info: ghash_print_pending:      Pending action: vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839:6 (vha-7413ed6d-2a3b-4ffc-9cd0-b80778d7a839_monitor_0)<br>
><br>
><br>
> Regards,<br>
>  Kiran<br>
</div></div>> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br></div>