<div dir="ltr"><div><div>Hi<br><br></div>Thank you very much for your quick answer, i didnt put the whole configuration because i though that maybe is a limitation of clone resources since it happens in any start/restart operation and when a node or a resource of a node has any problem. Also all my clone resources has interleave=true specify. <br><br></div><div>My whole configuration is this one:<br><br>Stack: corosync<br>Current DC: pbx2vs3 (version 1.1.13-10.el7_2.2-44eb2dd) - partition with quorum<br>2 nodes and 10 resources configured<br><br>Online: [ pbx1vs3 pbx2vs3 ]<br><br>Full list of resources:<br><br> Clone Set: dlm-clone [dlm]<br>     Started: [ pbx1vs3 pbx2vs3 ]<br> Clone Set: asteriskfs-clone [asteriskfs]<br>     Started: [ pbx1vs3 pbx2vs3 ]<br> Clone Set: asterisk-clone [asterisk]<br>     Started: [ pbx1vs3 pbx2vs3 ]<br> fence_pbx2_xvm    (stonith:fence_xvm):    Started pbx2vs3<br> fence_pbx1_xvm    (stonith:fence_xvm):    Started pbx1vs3<br> Clone Set: clvmd-clone [clvmd]<br>     Started: [ pbx1vs3 pbx2vs3 ]<br><br>PCSD Status:<br>  pbx1vs3: Online<br>  pbx2vs3: Online<br><br>Daemon Status:<br>  corosync: active/disabled<br>  pacemaker: active/disabled<br>  pcsd: active/enabled<br>[root@pbx1 ~]# pcs config show<br>Cluster Name: asteriskcluster<br>Corosync Nodes:<br> pbx1vs3 pbx2vs3 <br>Pacemaker Nodes:<br> pbx1vs3 pbx2vs3 <br><br>Resources: <br> Clone: dlm-clone<br>  Meta Attrs: clone-max=2 clone-node-max=1 interleave=true <br>  Resource: dlm (class=ocf provider=pacemaker type=controld)<br>   Attributes: allow_stonith_disabled=false <br>   Operations: start interval=0s timeout=90 (dlm-start-interval-0s)<br>               stop interval=0s on-fail=fence (dlm-stop-interval-0s)<br>               monitor interval=60s on-fail=fence (dlm-monitor-interval-60s)<br> Clone: asteriskfs-clone<br>  Meta Attrs: interleave=true clone-max=2 clone-node-max=1 <br>  Resource: asteriskfs (class=ocf provider=heartbeat type=Filesystem)<br>   Attributes: device=/dev/vg_san1/lv_pbx directory=/mnt/asterisk fstype=gfs2 <br>   Operations: start interval=0s timeout=60 (asteriskfs-start-interval-0s)<br>               stop interval=0s on-fail=fence (asteriskfs-stop-interval-0s)<br>               monitor interval=60s on-fail=fence (asteriskfs-monitor-interval-60s)<br> Clone: asterisk-clone<br>  Meta Attrs: interleaved=true sipp_monitor=/root/scripts/haasterisk.sh sipp_binary=/usr/local/src/sipp-3.4.1/bin/sipp globally-unique=false ordered=false interleave=true clone-max=2 clone-node-max=1 notify=true <br>  Resource: asterisk (class=ocf provider=heartbeat type=asterisk)<br>   Attributes: user=root group=root config=/mnt/asterisk/etc/asterisk.conf sipp_monitor=/root/scripts/haasterisk.sh sipp_binary=/usr/local/src/sipp-3.4.1/bin/sipp maxfiles=65535 <br>   Operations: start interval=0s timeout=40s (asterisk-start-interval-0s)<br>               stop interval=0s on-fail=fence (asterisk-stop-interval-0s)<br>               monitor interval=10s (asterisk-monitor-interval-10s)<br> Clone: clvmd-clone<br>  Meta Attrs: clone-max=2 clone-node-max=1 interleave=true <br>  Resource: clvmd (class=ocf provider=heartbeat type=clvm)<br>   Operations: start interval=0s timeout=90 (clvmd-start-interval-0s)<br>               monitor interval=30s on-fail=fence (clvmd-monitor-interval-30s)<br>               stop interval=0s on-fail=fence (clvmd-stop-interval-0s)<br><br>Stonith Devices: <br> Resource: fence_pbx2_xvm (class=stonith type=fence_xvm)<br>  Attributes: port=tegamjg_pbx2 pcmk_host_list=pbx2vs3 <br>  Operations: monitor interval=60s (fence_pbx2_xvm-monitor-interval-60s)<br> Resource: fence_pbx1_xvm (class=stonith type=fence_xvm)<br>  Attributes: port=tegamjg_pbx1 pcmk_host_list=pbx1vs3 <br>  Operations: monitor interval=60s (fence_pbx1_xvm-monitor-interval-60s)<br>Fencing Levels: <br><br>Location Constraints:<br>Ordering Constraints:<br>  start fence_pbx1_xvm then start fence_pbx2_xvm (kind:Mandatory) (id:order-fence_pbx1_xvm-fence_pbx2_xvm-mandatory)<br>  start fence_pbx2_xvm then start dlm-clone (kind:Mandatory) (id:order-fence_pbx2_xvm-dlm-clone-mandatory)<br>  start dlm-clone then start clvmd-clone (kind:Mandatory) (id:order-dlm-clone-clvmd-clone-mandatory)<br>  start clvmd-clone then start asteriskfs-clone (kind:Mandatory) (id:order-clvmd-clone-asteriskfs-clone-mandatory)<br>  start asteriskfs-clone then start asterisk-clone (kind:Mandatory) (id:order-asteriskfs-clone-asterisk-clone-mandatory)<br>Colocation Constraints:<br>  clvmd-clone with dlm-clone (score:INFINITY) (id:colocation-clvmd-clone-dlm-clone-INFINITY)<br>  asteriskfs-clone with clvmd-clone (score:INFINITY) (id:colocation-asteriskfs-clone-clvmd-clone-INFINITY)<br>  asterisk-clone with asteriskfs-clone (score:INFINITY) (id:colocation-asterisk-clone-asteriskfs-clone-INFINITY)<br><br>Resources Defaults:<br> migration-threshold: 2<br> failure-timeout: 10m<br> start-failure-is-fatal: false<br>Operations Defaults:<br> No defaults set<br><br>Cluster Properties:<br> cluster-infrastructure: corosync<br> cluster-name: asteriskcluster<br> dc-version: 1.1.13-10.el7_2.2-44eb2dd<br> have-watchdog: false<br> last-lrm-refresh: 1468598829<br> no-quorum-policy: ignore<br> stonith-action: reboot<br> stonith-enabled: true<br><br></div><div>There are some meta operations that doesnt make sense, sorry about that, the problem is that i dont know how to delete them with PCSD :). Now, I found something interesting about constraint ordering with clone resources in "Pacemaker Explained" documentation, which describes something like this:<br><i><br>"<constraints><br><rsc_location id="clone-prefers-node1" rsc="apache-clone" node="node1" score="500"/><br><rsc_colocation id="stats-with-clone" rsc="apache-stats" with="apache-clone"/><br><rsc_order id="start-clone-then-stats" first="apache-clone" then="apache-stats"/><br></constraints>"<br><br>"Ordering constraints behave slightly differently for clones. In the example above, apache-stats will<br>wait until all copies of apache-clone that need to be started have done so before being started itself.<br>Only if no copies can be started will apache-stats be prevented from being active. Additionally, the<br>clone will wait for apache-stats to be stopped before stopping itself".<br><br></i></div><div>I am not sure if that has something to do with it, but i cannot destroy the whole cluster to test it and probably in vain.<br><br></div><div>Thank you very much again. Regards<br><br></div><div>Alejandro<br></div></div><div class="gmail_extra"><br><div class="gmail_quote">2016-07-15 3:35 GMT-04:00 Kristoffer Grönlund <span dir="ltr"><<a href="mailto:kgronlund@suse.com" target="_blank">kgronlund@suse.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><span class="">TEG AMJG <<a href="mailto:tegamjg@gmail.com">tegamjg@gmail.com</a>> writes:<br>
<br>
> Dear list<br>
><br>
> I am quite new to PaceMaker and i am configuring a two node active/active<br>
> cluster which consist basically on something like this:<br>
><br>
> I am using pcsd Pacemaker/Corosync:<br>
><br>
>  Clone Set: dlm-clone [dlm]<br>
>      Started: [ pbx1vs3 pbx2vs3 ]<br>
>  Clone Set: asteriskfs-clone [asteriskfs]<br>
>      Started: [ pbx1vs3 pbx2vs3 ]<br>
>  Clone Set: asterisk-clone [asterisk]<br>
>      Started: [ pbx1vs3 pbx2vs3 ]<br>
>  fence_pbx2_xvm    (stonith:fence_xvm):    Started pbx1vs3<br>
>  fence_pbx1_xvm    (stonith:fence_xvm):    Started pbx2vs3<br>
>  Clone Set: clvmd-clone [clvmd]<br>
>      Started: [ pbx1vs3 pbx2vs3]<br>
><br>
> Now my problem is that, for example, when i fence one of the nodes, the<br>
> other one restarts every clone resource and start them back again, same<br>
> thing happens when i stop pacemaker and corosync in one node only (pcs<br>
> cluster stop). That would mean that if i have a problem in one of my<br>
> Asterisk (for example in DLM resource or CLVMD) that would require fencing<br>
> right away, for example node pbx2vs3, the other node (pbx1vs3) will restart<br>
> every service which will drop all my calls in a well functioning node.<br>
<br>
</span>The pcsd output doesn't really give any hint as to what your<br>
configuration looks like, but it sounds like the issue may be not setting<br>
interleave=true for a clone which other resources depend on. See this<br>
article for more information:<br>
<br>
<a href="https://www.hastexo.com/resources/hints-and-kinks/interleaving-pacemaker-clones/" rel="noreferrer" target="_blank">https://www.hastexo.com/resources/hints-and-kinks/interleaving-pacemaker-clones/</a><br>
<br>
Cheers,<br>
Kristoffer<br>
<span class="HOEnZb"><font color="#888888"><br>
--<br>
// Kristoffer Grönlund<br>
// <a href="mailto:kgronlund@suse.com">kgronlund@suse.com</a><br>
</font></span></blockquote></div><br><br clear="all"><br>-- <br><div class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr">-<br>Saludos a todos<br></div></div>
</div>