<div dir="ltr">I am running version 1.4.7 of corosync<div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">On Wed, Jul 1, 2015 at 3:25 PM, Ken Gaillot <span dir="ltr"><<a href="mailto:kgaillot@redhat.com" target="_blank">kgaillot@redhat.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">On 07/01/2015 08:57 AM, alex austin wrote:<br>
> I have now configured stonith-enabled=true. What device should I use for<br>
> fencing given the fact that it's a virtual machine but I don't have access<br>
> to its configuration. would fence_pcmk do? if so, what parameters should I<br>
> configure for it to work properly?<br>
<br>
</span>No, fence_pcmk is not for using in pacemaker, but for using in RHEL6's<br>
CMAN to redirect its fencing requests to pacemaker.<br>
<br>
For a virtual machine, ideally you'd use fence_virtd running on the<br>
physical host, but I'm guessing from your comment that you can't do<br>
that. Does whoever provides your VM also provide an API for controlling<br>
it (starting/stopping/rebooting)?<br>
<br>
Regarding your original problem, it sounds like the surviving node<br>
doesn't have quorum. What version of corosync are you using? If you're<br>
using corosync 2, you need "two_node: 1" in corosync.conf, in addition<br>
to configuring fencing in pacemaker.<br>
<div><div class="h5"><br>
> This is my new config:<br>
><br>
><br>
> node <a href="http://dcwbpvmuas004.edc.nam.gm.com" rel="noreferrer" target="_blank">dcwbpvmuas004.edc.nam.gm.com</a> \<br>
><br>
>         attributes standby=off<br>
><br>
> node <a href="http://dcwbpvmuas005.edc.nam.gm.com" rel="noreferrer" target="_blank">dcwbpvmuas005.edc.nam.gm.com</a> \<br>
><br>
>         attributes standby=off<br>
><br>
> primitive ClusterIP IPaddr2 \<br>
><br>
>         params ip=198.208.86.242 cidr_netmask=23 \<br>
><br>
>         op monitor interval=1s timeout=20s \<br>
><br>
>         op start interval=0 timeout=20s \<br>
><br>
>         op stop interval=0 timeout=20s \<br>
><br>
>         meta is-managed=true target-role=Started resource-stickiness=500<br>
><br>
> primitive pcmk-fencing stonith:fence_pcmk \<br>
><br>
>         params pcmk_host_list="<a href="http://dcwbpvmuas004.edc.nam.gm.com" rel="noreferrer" target="_blank">dcwbpvmuas004.edc.nam.gm.com</a><br>
> <a href="http://dcwbpvmuas005.edc.nam.gm.com" rel="noreferrer" target="_blank">dcwbpvmuas005.edc.nam.gm.com</a>" \<br>
><br>
>         op monitor interval=10s \<br>
><br>
>         meta target-role=Started<br>
><br>
> primitive redis redis \<br>
><br>
>         meta target-role=Master is-managed=true \<br>
><br>
>         op monitor interval=1s role=Master timeout=5s on-fail=restart<br>
><br>
> ms redis_clone redis \<br>
><br>
>         meta notify=true is-managed=true ordered=false interleave=false<br>
> globally-unique=false target-role=Master migration-threshold=1<br>
><br>
> colocation ClusterIP-on-redis inf: ClusterIP redis_clone:Master<br>
><br>
> colocation ip-on-redis inf: ClusterIP redis_clone:Master<br>
><br>
> colocation pcmk-fencing-on-redis inf: pcmk-fencing redis_clone:Master<br>
><br>
> property cib-bootstrap-options: \<br>
><br>
>         dc-version=1.1.11-97629de \<br>
><br>
>         cluster-infrastructure="classic openais (with plugin)" \<br>
><br>
>         expected-quorum-votes=2 \<br>
><br>
>         stonith-enabled=true<br>
><br>
> property redis_replication: \<br>
><br>
>         redis_REPL_INFO=<a href="http://dcwbpvmuas005.edc.nam.gm.com" rel="noreferrer" target="_blank">dcwbpvmuas005.edc.nam.gm.com</a><br>
><br>
> On Wed, Jul 1, 2015 at 2:53 PM, Nekrasov, Alexander <<br>
> <a href="mailto:alexander.nekrasov@emc.com">alexander.nekrasov@emc.com</a>> wrote:<br>
><br>
>> stonith-enabled=false<br>
>><br>
>> this might be the issue. The way peer node death is resolved, the<br>
>> surviving node must call STONITH on the peer. If it’s disabled it might not<br>
>> be able to resolve the event<br>
>><br>
>><br>
>><br>
>> Alex<br>
>><br>
>><br>
>><br>
</div></div>>> *From:* alex austin [mailto:<a href="mailto:alexixalex@gmail.com">alexixalex@gmail.com</a>]<br>
>> *Sent:* Wednesday, July 01, 2015 9:51 AM<br>
>> *To:* <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
>> *Subject:* Re: [ClusterLabs] Pacemaker failover failure<br>
<div class="HOEnZb"><div class="h5">>><br>
>><br>
>><br>
>> So I noticed that if I kill redis on one node, it starts on the other, no<br>
>> problem, but if I actually kill pacemaker itself on one node, the other<br>
>> doesn't "sense" it so it doesn't fail over.<br>
>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>><br>
>> On Wed, Jul 1, 2015 at 12:42 PM, alex austin <<a href="mailto:alexixalex@gmail.com">alexixalex@gmail.com</a>> wrote:<br>
>><br>
>> Hi all,<br>
>><br>
>><br>
>><br>
>> I have configured a virtual ip and redis in master-slave with corosync<br>
>> pacemaker. If redis fails, then the failover is successful, and redis gets<br>
>> promoted on the other node. However if pacemaker itself fails on the active<br>
>> node, the failover is not performed. Is there anything I missed in the<br>
>> configuration?<br>
>><br>
>><br>
>><br>
>> Here's my configuration (i have hashed the ip address out):<br>
>><br>
>><br>
>><br>
>> node <a href="http://host1.com" rel="noreferrer" target="_blank">host1.com</a><br>
>><br>
>> node <a href="http://host2.com" rel="noreferrer" target="_blank">host2.com</a><br>
>><br>
>> primitive ClusterIP IPaddr2 \<br>
>><br>
>> params ip=xxx.xxx.xxx.xxx cidr_netmask=23 \<br>
>><br>
>> op monitor interval=1s timeout=20s \<br>
>><br>
>> op start interval=0 timeout=20s \<br>
>><br>
>> op stop interval=0 timeout=20s \<br>
>><br>
>> meta is-managed=true target-role=Started resource-stickiness=500<br>
>><br>
>> primitive redis redis \<br>
>><br>
>> meta target-role=Master is-managed=true \<br>
>><br>
>> op monitor interval=1s role=Master timeout=5s on-fail=restart<br>
>><br>
>> ms redis_clone redis \<br>
>><br>
>> meta notify=true is-managed=true ordered=false interleave=false<br>
>> globally-unique=false target-role=Master migration-threshold=1<br>
>><br>
>> colocation ClusterIP-on-redis inf: ClusterIP redis_clone:Master<br>
>><br>
>> colocation ip-on-redis inf: ClusterIP redis_clone:Master<br>
>><br>
>> property cib-bootstrap-options: \<br>
>><br>
>> dc-version=1.1.11-97629de \<br>
>><br>
>> cluster-infrastructure="classic openais (with plugin)" \<br>
>><br>
>> expected-quorum-votes=2 \<br>
>><br>
>> stonith-enabled=false<br>
>><br>
>> property redis_replication: \<br>
>><br>
>> redis_REPL_INFO=<a href="http://host.com" rel="noreferrer" target="_blank">host.com</a><br>
<br>
<br>
<br>
</div></div><div class="HOEnZb"><div class="h5">_______________________________________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br></div>