<div dir="ltr"><div><div><div><div><div>Hello,<br><br></div>This is the status (when not failed):<br><br>Last updated: Fri Mar 17 16:17:44 2017        Last change: Fri Mar 17 14:21:24 2017 by root via cibadmin on db-main<br>Stack: corosync<br>Current DC: db-main (version 1.1.14-70404b0) - partition with quorum<br>2 nodes and 8 resources configured<br><br>Online: [ db-main db-slave ]<br><br> Resource Group: SERVICES<br>     FSDATA    (ocf::heartbeat:Filesystem):    Started db-main<br>     IP    (ocf::heartbeat:IPaddr2):    Started db-main<br>     MYSQLD    (ocf::heartbeat:mysql):    Started db-main<br> Master/Slave Set: DRBD_MASTER [DRBD0]<br>     Masters: [ db-main ]<br>     Slaves: [ db-slave ]<br> Clone Set: CL_PING [PING]<br>     Started: [ db-main db-slave ]<br><br></div>I am not sure how to check (except for the above) whether the ping is really running. <br><br></div>What might be important to mention is that the servers have a direct link between them, so when I cut the ICMP by iptables, the cluster communication continues to work. My feeling is that my configuration has means to demote db-main, but nothing to promote db-slave, but i'm not sure how to add it.<br><br></div>When I drop the ICMP traffic (so the main node fails), it looks like this:<br><br>Last updated: Fri Mar 17 16:21:02 2017        Last change: Fri Mar 17 14:21:24 2017 by root via cibadmin on db-main<br>Stack: corosync<br>Current DC: db-main (version 1.1.14-70404b0) - partition with quorum<br>2 nodes and 8 resources configured<br><br>Online: [ db-main db-slave ]<br><br> Master/Slave Set: DRBD_MASTER [DRBD0]<br>     Slaves: [ db-main db-slave ] !!! no master here, only 2 slaves<br> Clone Set: CL_PING [PING]<br>     Started: [ db-main db-slave ]<br><br><br></div>Just to make it clear, normal failover works (so if instead of cutting ICMP, i reboot db-main, db-slave takes over correctly and completely. Also, if I remove the iptables ICMP rule, db-main starts back the services.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Mar 17, 2017 at 3:22 PM, Klaus Wenninger <span dir="ltr"><<a href="mailto:kwenning@redhat.com" target="_blank">kwenning@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 03/17/2017 01:17 PM, Victor wrote:<br>
> Hello,<br>
><br>
> I have implemented the following pacemaker configuration, and I have a<br>
> problem which I don't understand (and all my net searches were in<br>
> vain, probably not looking for the correct keywords). If the ping<br>
> fails on the Master node, it moves into Slave, but the other node also<br>
> remains a slave (is not promoted). Can somebody tell me what I'm doing<br>
> wrong? I have also tried to add a second rule to the location: "rule<br>
> $role=Master ping: defined ping", so my location had two rules instead<br>
> of one, but it still didn't work.<br>
<br>
</span>Did you check if the clones of PING are running on all your nodes?<br>
How do the node-attributes on the nodes look like?<br>
<div><div class="h5"><br>
><br>
> node 1084803074: db-main \<br>
>         attributes standby=off<br>
> node 1084803195: db-slave \<br>
>         attributes standby=off<br>
> primitive DRBD0 ocf:linbit:drbd \<br>
>         params drbd_resource=drbd0 \<br>
>         op monitor role=Master interval=15s \<br>
>         op monitor role=Slave interval=30s \<br>
>         op start interval=0 timeout=240s \<br>
>         op stop interval=0 timeout=100s<br>
> primitive FSDATA Filesystem \<br>
>         params device="/dev/drbd0" directory="/data" fstype=ext4 \<br>
>         meta target-role=Started<br>
> primitive IP IPaddr2 \<br>
>         params ip=5.35.208.178 cidr_netmask=32 nic=eth0<br>
> primitive MYSQLD mysql \<br>
>         params binary="/usr/sbin/mysqld" config="/etc/mysql/my.cnf"<br>
> datadir="/var/lib/mysql" pid="/var/run/mysqld/mysqld.<wbr>pid"<br>
> socket="/var/run/mysqld/<wbr>mysqld.sock" user=mysql group=mysql \<br>
>         op start timeout=120s interval=0 \<br>
>         op stop timeout=120s interval=0 \<br>
>         op monitor interval=20s timeout=30s<br>
> primitive PING ocf:pacemaker:ping \<br>
>         params name=ping multiplier=1000 host_list="192.168.1.1<br>
> 192.168.1.2" \<br>
>         op monitor interval=15s timeout=60s start<br>
> group SERVICES FSDATA IP MYSQLD<br>
> ms DRBD_MASTER DRBD0 \<br>
>         meta notify=true master-max=1 master-node-max=1 clone-max=2<br>
> clone-node-max=1 target-role=Master<br>
> clone CL_PING PING \<br>
>         meta interleave=true<br>
> location LOC_DRBD_MASTER_ON_PING DRBD_MASTER \<br>
>         rule $role=Master -inf: not_defined ping or ping number:lte 0<br>
> order SRV_ORDER Mandatory: DRBD_MASTER:promote SERVICES:start<br>
> colocation SRV_RULE inf: DRBD_MASTER:Master SERVICES<br>
> property cib-bootstrap-options: \<br>
>         have-watchdog=false \<br>
>         dc-version=1.1.14-70404b0 \<br>
>         cluster-infrastructure=<wbr>corosync \<br>
>         cluster-name=debian \<br>
>         stonith-enabled=false \<br>
>         no-quorum-policy=ignore<br>
> rsc_defaults rsc-options: \<br>
>         resource-stickiness=100<br>
><br>
> Thanks,<br>
> Victor<br>
><br>
><br>
</div></div>> ______________________________<wbr>_________________<br>
> Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
> <a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
<br>
______________________________<wbr>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://lists.clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br></div>