<div dir="ltr">One more question. <div>With crmsh, it was easy to add constraint to avoid a resource from running only a subset(say vsanqa11 and vsanqa12) of nodes using the following command</div><div><br></div><div>crm configure location ms-${uuid}-nodes ms-$uuid rule -inf: \#uname ne vsanqa11 and \#uname ne  vsanqa12<br>
</div><div><div>[root@vsanqa11 ~]# pcs constraint show --full</div><div>Location Constraints:</div><div>  Resource: ms-c6933988-9e5c-419e-8fdf-744100d76ad6</div><div>    Constraint: ms-c6933988-9e5c-419e-8fdf-744100d76ad6-nodes</div>
<div>      Rule: score=-INFINITY  (id:ms-c6933988-9e5c-419e-8fdf-744100d76ad6-nodes-rule)</div><div>        Expression: #uname ne vsanqa11  (id:ms-c6933988-9e5c-419e-8fdf-744100d76ad6-nodes-expression)</div><div>        Expression: #uname ne vsanqa12  (id:ms-c6933988-9e5c-419e-8fdf-744100d76ad6-nodes-expression-0)</div>
<div>Ordering Constraints:</div><div>Colocation Constraints:</div></div><div><br></div><div>So, both expression are part of the same rule as expected.</div><div><br></div><div><br></div><div><br></div><div>With pcs, I am not sure how to use avoid constraints if I need a resource to run on vsanqa11 and vsanqa12 and not on any other node.<div>
So I tried adding location constraint as follows:</div><div>pcs -f $CLUSTER_CREATE_LOG constraint location vha-$uuid rule score=-INFINITY \#uname ne vsanqa11 and \#uname ne vsanqa12<br></div></div><div>Even though no error is thrown, the condition after "and" is silently dropped as shown below</div>
<div><br></div><div><div>[root@vsanqa11 ~]# pcs constraint show --full</div><div>Location Constraints:</div><div>  Resource: ms-c6933988-9e5c-419e-8fdf-744100d76ad6</div><div>    Constraint: location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6</div>
<div>      Rule: score=-INFINITY  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-rule)</div><div>        Expression: #uname ne vsanqa11  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-rule-expr)</div><div>Ordering Constraints:</div>
<div>Colocation Constraints:</div></div><div><br></div><div><br></div><div>Then I tried the following</div><div>pcs -f $CLUSTER_CREATE_LOG constraint location vha-$uuid rule score=-INFINITY \#uname ne vsanqa11<br></div><div>
pcs -f $CLUSTER_CREATE_LOG constraint location vha-$uuid rule score=-INFINITY \#uname ne vsanqa12<br></div><div><br></div><div>but running these two commands did not help either. Expressions were added to separate rules.</div>
<div><br></div><div><div>[root@vsanqa11 ~]# pcs constraint show --full</div><div>Location Constraints:</div><div>  Resource: ms-c6933988-9e5c-419e-8fdf-744100d76ad6</div><div>    Constraint: location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-1</div>
<div>      Rule: score=-INFINITY  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-1-rule)</div><div>        Expression: #uname ne vsanqa12  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-1-rule-expr)</div><div>
    Constraint: location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6</div><div>      Rule: score=-INFINITY  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-rule)</div><div>        Expression: #uname ne vsanqa11  (id:location-vha-c6933988-9e5c-419e-8fdf-744100d76ad6-rule-expr)</div>
<div>Ordering Constraints:</div><div>Colocation Constraints:</div></div><div><br></div><div><br></div><div>Also, tried using multistate resource name</div><div><div>[root@vsanqa11 ~]# pcs constraint location ms-c6933988-9e5c-419e-8fdf-744100d76ad6 rule score=-INFINITY \#uname ne vsanqa11</div>
<div>Error: 'ms-c6933988-9e5c-419e-8fdf-744100d76ad6' is not a resource</div></div><div><br></div><div><br></div><div>Can anyone let me correct command for this ?</div><div><br></div><div><br></div></div><div class="gmail_extra">
<br><br><div class="gmail_quote">On Tue, May 27, 2014 at 11:01 AM, Andrew Beekhof <span dir="ltr"><<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class=""><br>
On 27 May 2014, at 2:37 pm, K Mehta <<a href="mailto:kiranmehta1981@gmail.com">kiranmehta1981@gmail.com</a>> wrote:<br>
<br>
> So is globally-unique=false correct in my case ?<br>
<br>
</div>yes<br>
<div class="HOEnZb"><div class="h5"><br>
><br>
><br>
> On Tue, May 27, 2014 at 5:30 AM, Andrew Beekhof <<a href="mailto:andrew@beekhof.net">andrew@beekhof.net</a>> wrote:<br>
><br>
> On 26 May 2014, at 9:56 pm, K Mehta <<a href="mailto:kiranmehta1981@gmail.com">kiranmehta1981@gmail.com</a>> wrote:<br>
><br>
> > What I understand from "globally-unique=false" is as follows<br>
> > Agent handling the resource does exactly same processing on all nodes. For processing this resource, agent on all nodes will use exactly same resources (files, processes, same parameters to agent entry points, etc).<br>

> ><br>
> > In case of my resource, agent on all nodes execute same "command" to find score.<br>
> > Driver present on all nodes will make sure that the node that is to be promoted is the one that reports highest score as output of the "command". Score is reported to CM using ( /usr/sbin/crm_master -Q -l reboot -v $score) in monitor entry point. Until this score<br>

> > is reported, agent on other node will just delete the score using /usr/sbin/crm_master -Q -l reboot -D in monitor entry point<br>
> ><br>
> ><br>
> ><br>
> ><br>
> > I want to make sure that the resource does not run on nodes other than $node1 and $node2. To achieve this i use the following commands.<br>
> ><br>
> >         pcs -f $CLUSTER_CREATE_LOG constraint  location vha-${uuid}  prefers $node1<br>
> >         pcs -f $CLUSTER_CREATE_LOG constraint  location vha-${uuid}  prefers $node2<br>
> >         pcs -f $CLUSTER_CREATE_LOG constraint  location ms-${uuid}  prefers $node1<br>
> >         pcs -f $CLUSTER_CREATE_LOG constraint  location ms-${uuid}  prefers $node2<br>
> ><br>
> > Any issue here ?<br>
><br>
> Perhaps this is not intuitive but you'd need to specify 'avoids' constraints for the nodes it must not run on.<br>
> 'prefers' only says that of all the available nodes, this one is the best.<br>
><br>
> ><br>
> > Regards,<br>
> >  Kiran<br>
> ><br>
> ><br>
> ><br>
> > On Mon, May 26, 2014 at 8:54 AM, Andrew Beekhof <<a href="mailto:andrew@beekhof.net">andrew@beekhof.net</a>> wrote:<br>
> ><br>
> > On 22 May 2014, at 11:20 pm, K Mehta <<a href="mailto:kiranmehta1981@gmail.com">kiranmehta1981@gmail.com</a>> wrote:<br>
> ><br>
> > > > May 13 01:38:36 vsanqa28 pengine[4310]:   notice: LogActions: Promote vha-924bf029-93a2-41a0-adcf-f1c1a42956e5:0#011(Slave -> Master vsanqa28)<br>
> > > > May 13 01:38:36 vsanqa28 pengine[4310]:   notice: LogActions: Demote  vha-924bf029-93a2-41a0-adcf-f1c1a42956e5:1#011(Master -> Slave vsanqa27)  <<<<< Why did this happen ?<br>
> > ><br>
> > > attach the file mentioned on the next line and we might be able to find out<br>
> > ><br>
> ><br>
> > Quick question, do you understand what globally-unique=false means and are you sure you want it?<br>
> > If the answer is 'yes and yes', are you sure that your agent is using crm_master correctly?<br>
> ><br>
> > If I run, 'tools/crm_simulate -Sx ~/Downloads/pe-input-818.bz2 -s | grep vha-924bf029-93a2-41a0-adcf-f1c1a42956e5', I see:<br>
> ><br>
> > vha-924bf029-93a2-41a0-adcf-f1c1a42956e5:0 promotion score on vsanqa28: INFINITY<br>
> > vha-924bf029-93a2-41a0-adcf-f1c1a42956e5:1 promotion score on vsanqa27: 2<br>
> ><br>
> ><br>
> > Although much of the 'INFINITY' is probably from:<br>
> ><br>
> >       <rsc_location id="location-ms-924bf029-93a2-41a0-adcf-f1c1a42956e5-vsanqa28-INFINITY" node="vsanqa28" rsc="ms-924bf029-93a2-41a0-adcf-f1c1a42956e5" score="INFINITY"/><br>

> ><br>
> > This is somewhat odd to include for a clone/master resource.<br>
> ><br>
> > _______________________________________________<br>
> > Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> > <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
> ><br>
> > Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> > Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
> ><br>
> ><br>
> > _______________________________________________<br>
> > Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> > <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
> ><br>
> > Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> > Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> > Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br></div>