<html><body><div style="color:#000; background-color:#fff; font-family:verdana, helvetica, sans-serif;font-size:14pt"><div><font size="3">Hi All,</font></div><div><font size="2"><br></font></div><div><font size="3">I 've pacemaker running with corosync. Following is my </font><font size="3">CRM configuration.</font></div><div><br></div><div> <font size="2">node soalaba56<br>node soalaba63<br>primitive FloatingIP ocf:heartbeat:IPaddr2 \<br>        params ip="<floating_ip>" nic="eth0:0"<br>primitive acestatus lsb:acestatus \<br>primitive pingd ocf:pacemaker:ping \<br>        params host_list="<gateway_ip>" multiplier="100" \<br>        op monitor interval="15s" timeout="5s"<br>group HAService FloatingIP acestatus \<br>        meta target-role="Started"<br>clone pingdclone pingd
 \<br>        meta globally-unique="false"<br>location ip1_location FloatingIP \<br>        rule $id="ip1_location-rule" pingd: defined pingd<br>property $id="cib-bootstrap-options" \<br>        dc-version="1.1.5-5.el6-01e86afaaa6d4a8c4836f68df80ababd6ca3902f" \<br>        cluster-infrastructure="openais" \<br>        expected-quorum-votes="2" \<br>        stonith-enabled="false" \<br>        no-quorum-policy="ignore" \<br>        last-lrm-refresh="1305736421"</font></div><div><font size="2">----------------------------------------------------------------------</font></div><div><br></div><div><font size="3">When I reboot both the nodes together, cluster goes into an (unmanaged)
 Failed state as shown below.</font></div><div><font size="2"><br></font></div><div><br></div><div><font size="2">============<br>Last updated: Mon Oct 24 08:10:42 2011<br>Stack: openais<br>Current DC: soalaba63 - partition with quorum<br>Version: 1.1.5-5.el6-01e86afaaa6d4a8c4836f68df80ababd6ca3902f<br>2 Nodes configured, 2 expected votes<br>2 Resources configured.<br>============<br><br>Online: [ soalaba56 soalaba63 ]<br><br> Resource Group: HAService<br>     FloatingIP (ocf::heartbeat:IPaddr2) Started  (unmanaged) FAILED[   soalaba63       soalaba56 ]<br>     acestatus  (lsb:acestatus):        Stopped<br> Clone Set: pingdclone [pingd]<br>     Started: [ soalaba56 soalaba63 ]<br><br>Failed actions:<br>    FloatingIP_stop_0 (node=soalaba63, call=7, rc=1, status=complete): unknown
 error<br>    FloatingIP_stop_0 (node=soalaba56, call=7, rc=1, status=complete): unknown error<br></font></div><div><font size="2">------------------------------------------------------------------------------<br></font></div><div><br></div><div><font size="3">This happens only when the reboot is done simultaneously on both the nodes. If reboot is done with some interval in between this is not seen. Looking into the logs I see that  when the nodes come up resources are started on both the nodes and then it tries to stop the started resources and fails there. </font></div><div><font size="3"><br></font></div><div><font size="3">I've attached the logs.</font><br></div><div><font size="2"><br></font></div><div><font size="2"><br></font></div></div></body></html>