<html><head></head><body>Also one final thing I want to add. <br>
<br>
Corosync and pacemaker are enabled with chkconfig. So a hard reboot is esentually restarting the services too. The moment pacemaker is started at boot, this happens.  (Although I've tried disabling and manually starting the services after I recover the server and same issue)<br>
<br>
Thanks again<br>
<br>
Mike<br><br><div class="gmail_quote">David Vossel <dvossel@redhat.com> wrote:<blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">
<pre class="k9mail">----- Original Message -----<br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;">From: "Michael Monette" <mmonette@2keys.ca><br />To: pacemaker@oss.clusterlabs.org<br />Sent: Monday, January 20, 2014 8:22:25 AM<br />Subject: [Pacemaker] Preventing Automatic Failback<br /><br />Hi,<br /><br />I posted this question before but my question was a bit unclear.<br /><br />I have 2 nodes with DRBD with Postgresql.<br /><br />When node-1 fails, everything fails to node-2 . But when node 1 is recovered,<br />things try to failback to node-1 and all the services running on node-2 get<br />disrupted(things don't ACTUALLY fail back to node-1..they try, fail, and<br />then all services on node-2 are simply restarted..very annoying). This does<br />not happen if I perform the same tests on node-2! I can reboot node-2,<br />things fail to node-1 and node-2 comes online and waits until he is<br
/>needed(this is what I want!) It seems to only affect my node-1's.<br /><br />I have tried to set resource stickiness, I have tried everything I can really<br />think of, but whenever the Primary has recovered, it will always disrupt<br />services running on node-2.<br /><br />Also I tried removing things from this config to try and isolate this. At one<br />point I removed the atlassian_jira and drbd2_var primitives and only had a<br />failover-ip and drbd1_opt, but still had the same problem. Hopefully someone<br />can pinpoint this out for me. If I can't really avoid this, I would at least<br />like to make this "bug" or whatever happen on node-2 instead of the actives.</blockquote><br />I bet this is due to the drbd resource's master score value on node1 being higher than node2.  When you recover node1, are you actually rebooting that node?  If node1 doesn't lose membership from the cluster (reboot), those transient attributes that the drbd agent uses to specify which node will
be the master instance will stick around.  Otherwise if you are just putting node1 in standby and then bringing the node back online, the I believe the resources will come back if the drbd master was originally on node1.<br /><br />If you provide a policy engine file that shows the unwanted transition from node2 back to node1, we'll be able to tell you exactly why it is occurring.<br /><br />-- Vossel<br /><br /><br /><br /><blockquote class="gmail_quote" style="margin: 0pt 0pt 1ex 0.8ex; border-left: 1px solid #729fcf; padding-left: 1ex;">Here is my config:<br /><br />node <a href="http://node-1.comp.com">node-1.comp.com</a> \<br />attributes standby="off"<br />node <a href="http://node-1.comp.com">node-1.comp.com</a> \<br />attributes standby="off"<br />primitive atlassian_jira lsb:jira \<br />op start interval="0" timeout="240" \<br />op stop interval="0" timeout="240"<br />primitive drbd1_opt ocf:heartbeat:Filesystem \<br />params device="/dev/drbd1" directory="/opt/atlassian"
fstype="ext4"<br />primitive drbd2_var ocf:heartbeat:Filesystem \<br />params device="/dev/drbd2" directory="/var/atlassian" fstype="ext4"<br />primitive drbd_data ocf:linbit:drbd \<br />params drbd_resource="r0" \<br />op monitor interval="29s" role="Master" \<br />op monitor interval="31s" role="Slave"<br />primitive failover-ip ocf:heartbeat:IPaddr2 \<br />params ip="<a href="http://10.199.0.13">10.199.0.13</a>"<br />group jira_services drbd1_opt drbd2_var failover-ip atlassian_jira<br />ms ms_drbd_data drbd_data \<br />meta master-max="1" master-node-max="1" clone-max="2"<br />clone-node-max="1" notify="true"<br />colocation jira_services_on_drbd inf: atlassian_jira ms_drbd_data:Master<br />order jira_services_after_drbd inf: ms_drbd_data:promote jira_services:start<br />property $id="cib-bootstrap-options" \<br />dc-version="1.1.10-14.el6_5.1-368c726" \<br />cluster-infrastructure="classic openais (with plugin)" \<br />expected-quorum-votes="2" \<br />stonith-enabled="false"
\<br />no-quorum-policy="ignore" \<br />last-lrm-refresh="1390183165" \<br />default-resource-stickiness="INFINITY"<br />rsc_defaults $id="rsc-options" \<br />resource-stickiness="INFINITY"<br /><br />Thanks<br /><br />Mike<br /><br /><hr /><br />Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br /><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br /><br />Project Home: <a href="http://www.clusterlabs.org">http://www.clusterlabs.org</a><br />Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br />Bugs: <a href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></blockquote><br /><br /><hr /><br />Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br /><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br /><br />Project Home: <a
href="http://www.clusterlabs.org">http://www.clusterlabs.org</a><br />Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br />Bugs: <a href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a><br /></pre></blockquote></div><br>
-- <br>
Sent from my Android device with K-9 Mail. Please excuse my brevity.</body></html>