<tt><font size=2>> Von: Ken Gaillot <kgaillot@redhat.com></font></tt>
<br><tt><font size=2>> An: philipp.achmueller@arz.at</font></tt>
<br><tt><font size=2>> Kopie: Cluster Labs - All topics related to open-source
clustering <br>
> welcomed <users@clusterlabs.org></font></tt>
<br><tt><font size=2>> Datum: 13.12.2016 22:31</font></tt>
<br><tt><font size=2>> Betreff: Re: Antwort: Re: Antwort: Re: [ClusterLabs]
clone resource <br>
> - pacemaker remote</font></tt>
<br><tt><font size=2>> <br>
> On 12/07/2016 06:26 AM, philipp.achmueller@arz.at wrote:<br>
> >> Von: Ken Gaillot <kgaillot@redhat.com><br>
> >> An: philipp.achmueller@arz.at, Cluster Labs - All topics
related to<br>
> >> open-source clustering welcomed <users@clusterlabs.org><br>
> >> Datum: 05.12.2016 17:38<br>
> >> Betreff: Re: Antwort: Re: [ClusterLabs] clone resource -
pacemaker remote<br>
> >><br>
> >> On 12/05/2016 09:20 AM, philipp.achmueller@arz.at wrote:<br>
> >> > Ken Gaillot <kgaillot@redhat.com> schrieb am 02.12.2016
19:27:09:<br>
> >> ><br>
> >> >> Von: Ken Gaillot <kgaillot@redhat.com><br>
> >> >> An: users@clusterlabs.org<br>
> >> >> Datum: 02.12.2016 19:32<br>
> >> >> Betreff: Re: [ClusterLabs] clone resource - pacemaker
remote<br>
> >> >><br>
> >> >> On 12/02/2016 07:08 AM, philipp.achmueller@arz.at
wrote:<br>
> >> >> > hi,<br>
> >> >> ><br>
> >> >> > what is best way to prevent clone resource
trying to run on<br>
> > remote/guest<br>
> >> >> > nodes?<br>
> >> >><br>
> >> >> location constraints with a negative score:<br>
> >> >><br>
> >> >> </font></tt><a href="http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/"><tt><font size=2>http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/</font></tt></a><tt><font size=2><br>
> >> >><br>
> > Pacemaker_Explained/index.html#_deciding_which_nodes_a_resource_can_run_on<br>
> >> >><br>
> >> >><br>
> >> >> you can even use a single constraint with a rule
based on #kind ne<br>
> >> >> cluster, so you don't need a separate constraint
for each node:<br>
> >> >><br>
> >> >> </font></tt><a href="http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/"><tt><font size=2>http://clusterlabs.org/doc/en-US/Pacemaker/1.1-pcs/html-single/</font></tt></a><tt><font size=2><br>
> >> >> Pacemaker_Explained/index.html#_node_attribute_expressions<br>
> >> >><br>
> >> >><br>
> >> >> alternatively, you can set symmetric-cluster=false
and use positive<br>
> >> >> constraints for cluster nodes only<br>
> >> >><br>
> >> ><br>
> >> > set constraint to single primitive, group, or on clone
resource?<br>
> >> > are there any advantages/disadvantages using one of
these methods?<br>
> >><br>
> >> When a resource is cloned, you want to refer to the clone
name in any<br>
> >> constraints, rather than the primitive name.<br>
> >><br>
> >> For a group, it doesn't really matter, but it's simplest
to use the<br>
> >> group name in constraints -- mainly that keeps you from accidentally<br>
> >> setting conflicting constraints on different members of the
group. And<br>
> >> of course group members are automatically ordered/colocated
with each<br>
> >> other, so you don't need individual constraints for that.<br>
> >><br>
> > <br>
> > set location constraint to group didn't work:<br>
> > <br>
> > ERROR: error: unpack_location_tags:        Constraint<br>
> > 'location-base-group': Invalid reference to 'base-group'<br>
> <br>
> Maybe a syntax error in your command, or a bug in the tool you're
using?<br>
> The CIB XML is fine with something like this:<br>
> <br>
> <rsc_location id="id01" node="node1" rsc="group-1"
score="INFINITY"/><br>
> </font></tt>
<br>
<br><tt><font size=2>i edit it directly via "crm configure edit"</font></tt>
<br>
<br><tt><font size=2>> > for clone it works like expected.<br>
> > but crm_mon is showing "disallowed" set as "stopped".
is this "works as<br>
> > designed" or how to prevent this?<br>
> <br>
> You asked it to :)<br>
> <br>
> -r == show inactive resources</font></tt>
<br>
<br><tt><font size=2>yes :) - i set up monitoring because i want to know
which resources the cluster wasn't able to recover successful.</font></tt>
<br><tt><font size=2>in this case i receive a false positive - due to location
contraint i'd expect that this base-clone set didn't show up under "stopped"
because i disallowed them to run on Guest/Remote Server.</font></tt>
<br><tt><font size=2><br>
> <br>
> > <br>
> > crm configure show<br>
> > ...<br>
> > location location-base-clone base-clone resource-discovery=never
\<br>
> >        rule -inf: #kind ne cluster<br>
> > ...<br>
> > <br>
> > crm_mon -r<br>
> >  Clone Set: base-clone [base-group]<br>
> >      Started: [ lnx0223a lnx0223b ]<br>
> >      Stopped: [ vm-lnx0106a vm-lnx0107a ]<br>
> > <br>
> >> ><br>
> >> >> ><br>
> >> >> > ...<br>
> >> >> > node 167873318: lnx0223a \<br>
> >> >> >         attributes maintenance=off<br>
> >> >> > node 167873319: lnx0223b \<br>
> >> >> >         attributes maintenance=off<br>
> >> >> > ...<br>
> >> >> > /primitive vm-lnx0107a VirtualDomain \/<br>
> >> >> > /        params hypervisor="qemu:///system"<br>
> >> >> > config="/etc/kvm/lnx0107a.xml" \/<br>
> >> >> > /        meta remote-node=lnx0107a238
\/<br>
> >> >> > /        utilization cpu=1
hv_memory=4096/<br>
> >> >> > /primitive remote-lnx0106a ocf:pacemaker:remote
\/<br>
> >> >> > /        params server=xx.xx.xx.xx
\/<br>
> >> >> > /        meta target-role=Started/<br>
> >> >> > /group base-group dlm clvm vg1/<br>
> >> >> > /clone base-clone base-group \/<br>
> >> >> > /        meta interleave=true
target-role=Started/<br>
> >> >> > /.../<br>
> >> >> ><br>
> >> >> > /Dec  1 14:32:57 lnx0223a crmd[9826]:
  notice: Initiating start<br>
> >> >> > operation dlm_start_0 on lnx0107a238/<br>
> >> >> > /Dec  1 14:32:58 lnx0107a pacemaker_remoted[1492]:
  notice:<br>
> > executing -<br>
> >> >> > rsc:dlm action:start call_id:7/<br>
> >> >> > /Dec  1 14:32:58 lnx0107a pacemaker_remoted[1492]:
  notice:<br>
> > finished -<br>
> >> >> > rsc:dlm action:start call_id:7  exit-code:5
exec-time:16ms<br>
> >> > queue-time:0ms/<br>
> >> >> > /Dec  1 14:32:58 lnx0223b crmd[9328]:
   error: Result of start<br>
> >> >> > operation for dlm on lnx0107a238: Not installed/<br>
> >> >> > /Dec  1 14:32:58 lnx0223a crmd[9826]:
 warning: Action 31<br>
> > (dlm_start_0)<br>
> >> >> > on lnx0107a238 failed (target: 0 vs. rc: 5):
Error/<br>
> >> >> > /Dec  1 14:32:58 lnx0223a crmd[9826]:
 warning: Action 31<br>
> > (dlm_start_0)<br>
> >> >> > on lnx0107a238 failed (target: 0 vs. rc: 5):
Error/<br>
> >> >> > /Dec  1 14:34:07 lnx0223a pengine[9824]:
 warning: Processing<br>
> > failed op<br>
> >> >> > start for dlm:2 on lnx0107a238: not installed
(5)/<br>
> >> >> > /Dec  1 14:34:07 lnx0223a pengine[9824]:
 warning: Processing<br>
> > failed op<br>
> >> >> > start for dlm:2 on lnx0107a238: not installed
(5)/<br>
> >> >> > /.../<br>
> >> >> > /Dec  1 14:32:49 lnx0223a pengine[9824]:
  notice: Start  <br>
> >> >> > dlm:3#011(remote-lnx0106a)/<br>
> >> >> > /Dec  1 14:32:49 lnx0223a crmd[9826]:
  notice: Initiating monitor<br>
> >> >> > operation dlm_monitor_0 locally on remote-lnx0106a/<br>
> >> >> > /Dec  1 14:32:50 lnx0223a crmd[9826]:
   error: Result of probe<br>
> >> >> > operation for dlm on remote-lnx0106a: Not installed/<br>
> >> >> > /Dec  1 14:32:50 lnx0223a crmd[9826]:
 warning: Action 5<br>
> > (dlm_monitor_0)<br>
> >> >> > on remote-lnx0106a failed (target: 7 vs. rc:
5): Error/<br>
> >> >> > /Dec  1 14:32:50 lnx0223a crmd[9826]:
 warning: Action 5<br>
> > (dlm_monitor_0)<br>
> >> >> > on remote-lnx0106a failed (target: 7 vs. rc:
5): Error/<br>
> >> >> > /.../<br>
> >> >> ><br>
> >> >> > ---<br>
> >> >> > env: pacemaker-1.1.15-19.15.x86_64<br>
> >> >> ><br>
> >> >> > thank you!<br>
</font></tt><font size=2 face="sans-serif"><br>
</font>