<div dir="ltr"><div><div><div><div>Hi,<br><br></div><div>[I did go through the mail thread titled:<font><span style="font-weight:normal"><span id=":1cc" class="" tabindex="-1"> <font>"</font>RHEL6 and clones: CMAN needed anyway?", but <font>was not sure about some answers there]<br>
<br></font></span></span></font></div><div>I recently moved from pacemaker 1.1.7 to 1.1.8-7 on centos 6.2. I see the following in syslog:<br></div><br>corosync[2966]:   [pcmk  ] ERROR: process_ais_conf: You have configured a cluster using the Pacemaker plugin for Corosync. The plugin is not supported in this environment and will be removed very soon.<br>
corosync[2966]:   [pcmk  ] ERROR: process_ais_conf:  Please see Chapter 8 of 'Clusters from Scratch' (<a href="http://www.clusterlabs.org/doc">http://www.clusterlabs.org/doc</a>) for details on using Pacemaker with CMAN<br>
<br></div>Does this mean that my current configuration is incorrect and will not work as it used to with pacemaker 1.1.7/Corosync?<br><br></div>I looked at the "Clusters from Scratch" instructions and it talks mostly
 about GFS2. I don't have any filesystem requirements. In that case, can
 I live with Pacemaker/Corosync?<br><br></div><div>I do understand that this config is not recommended, but the reason I ask is because I am hitting a weird problem with this setup which I will explain below. Just want to make sure that I don't start off with an erroneous setup.<br>
<br></div><div>I have a two-node multi-state resource configured with the following config:<br><br></div><div>[root@vsanqa4 ~]# crm configure show<br>node vsanqa3<br>node vsanqa4<br>primitive vha-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e ocf:heartbeat:vgc-cm-agent.ocf \<br>
        params cluster_uuid="6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e" \<br>        op monitor interval="30s" role="Master" timeout="100s" \<br>        op monitor interval="31s" role="Slave" timeout="100s"<br>
ms ms-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e vha-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e \<br>        meta clone-max="2" globally-unique="false" target-role="Started"<br>location ms-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e-nodes ms-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e \<br>
        rule $id="ms-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e-nodes-rule" -inf: #uname ne vsanqa4 and #uname ne vsanqa3<br>property $id="cib-bootstrap-options" \<br>        dc-version="1.1.8-7.el6-394e906" \<br>
        cluster-infrastructure="classic openais (with plugin)" \<br>        expected-quorum-votes="2" \<br>        stonith-enabled="false" \<br>        no-quorum-policy="ignore"<br>
rsc_defaults $id="rsc-options" \<br>        resource-stickiness="100"<br><br></div><div>With this config, if I simulate a crash on the master with "echo c > /proc/sysrq-trigger", the slave does not get promoted for about 15 minutes. It does detect the peer going down, but does not seem to issue the promote immediately:<br>
<br>Apr 10 14:12:32 vsanqa4 corosync[2966]:   [TOTEM ] A processor failed, forming new configuration.<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] notice: pcmk_peer_update: Transitional membership event on ring 166060: memb=1, new=0, lost=1<br>
Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: pcmk_peer_update: memb: vsanqa4 1967394988<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: pcmk_peer_update: lost: vsanqa3 1950617772<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] notice: pcmk_peer_update: Stable membership event on ring 166060: memb=1, new=0, lost=0<br>
Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: pcmk_peer_update: MEMB: vsanqa4 1967394988<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: ais_mark_unseen_peer_dead: Node vsanqa3 was not seen in the previous transition<br>
Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: update_member: Node 1950617772/vsanqa3 is now: lost<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [pcmk  ] info: send_member_notification: Sending membership update 166060 to 2 children<br>
Apr 10 14:12:38 vsanqa4 corosync[2966]:   [TOTEM ] A processor joined or left the membership and a new membership was formed.<br>Apr 10 14:12:38 vsanqa4 cib[3386]:   notice: ais_dispatch_message: Membership 166060: quorum lost<br>
Apr 10 14:12:38 vsanqa4 crmd[3391]:   notice: ais_dispatch_message: Membership 166060: quorum lost<br>Apr 10 14:12:38 vsanqa4 cib[3386]:   notice: crm_update_peer_state: crm_update_ais_node: Node vsanqa3[1950617772] - state is now lost<br>
Apr 10 14:12:38 vsanqa4 crmd[3391]:   notice: crm_update_peer_state: crm_update_ais_node: Node vsanqa3[1950617772] - state is now lost<br>Apr 10 14:12:38 vsanqa4 corosync[2966]:   [CPG   ] chosen downlist: sender r(0) ip(172.16.68.117) ; members(old:2 left:1)<br>
Apr 10 14:12:38 vsanqa4 corosync[2966]:   [MAIN  ] Completed service synchronization, ready to provide service.<br><br>Then (after about 15 minutes), I see the following:<br><br>Apr 10 14:26:46 vsanqa4 crmd[3391]:   notice: do_state_transition: State transition S_IDLE -> S_POLICY_ENGINE [ input=I_PE_CALC cause=C_TIMER_POPPED origin=crm_timer_popped ]<br>
Apr 10 14:26:46 vsanqa4 pengine[3390]:   notice: unpack_config: On loss of CCM Quorum: Ignore<br>Apr 10 14:26:46 vsanqa4 pengine[3390]:   notice: LogActions: Promote vha-6f92a1f6-969c-4c41-b9ca-7eb6f83ace2e:0#011(Slave -> Master vsanqa4)<br>
Apr 10 14:26:46 vsanqa4 pengine[3390]:   notice: process_pe_message: Calculated Transition 3: /var/lib/pacemaker/pengine/pe-input-392.bz2<br><br></div><div>Thanks,<br></div><div>Pavan<br></div></div>