<div dir="ltr"><div><div>Miroslav, thank you! <br><br>It helps me understand that it's not a configuration issue.<br><br></div>BTW, is it okay to create new resources in parallel?<br></div><div>On timeline it looks like:<br><br></div><div>pcs resource create resA1 .... --group groupA<br></div><div>pcs resource create resB1 .... --group groupB<br>resA1 Started<br>pcs resource create resA2 .... --group groupA<br></div><div>res B1 Started<br>pcs resource create resB2 .... --group groupB<br></div><div>res A2 Started<br></div><div>res B2 Started<br></div><div><br></div><div>For now, it works okay)<br><br></div><div>In our case, cluster events like 'create' and 'remove' are generated by users, and for now we don't have any queue for operations. But now, I realized that we need a queue for 'remove' operations. Maybe we need a queue for 'create' operations to?<br></div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">пт, 17 мая 2024 г. в 17:49, Miroslav Lisik <<a href="mailto:mlisik@redhat.com">mlisik@redhat.com</a>>:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi Aleksandr!<br>
<br>
It is not safe to use `pcs resource remove` command in parallel because<br>
you run into the same issues as you already described. Processes run by<br>
remove command are not synchronized.<br>
<br>
Unfortunately, remove command does not support more than one resource<br>
yet.<br>
<br>
If you really need to remove resources at once you can use this method:<br>
1. get the current cib configuration:<br>
pcs cluster cib > original.xml<br>
<br>
2. create a new copy of the file:<br>
cp original.xml new.xml<br>
<br>
3. disable all to be removed resources using -f option and new<br>
configuration file:<br>
pcs -f new.xml resource disable <resource id>...<br>
<br>
4. remove resources using -f option and new configuration file:<br>
pcs -f new.xml resource remove <resource id><br>
...<br>
<br>
5. push new cib configuration to the cluster<br>
pcs cluster cib-push new.xml diff-against=original.xml<br>
<br>
<br>
On 5/17/24 13:47, Александр Руденко wrote:<br>
> Hi!<br>
> <br>
> I am new in the pacemaker world, and I, unfortunately, have problems <br>
> with simple actions like group removal. Please, help me understand when <br>
> I'm wrong.<br>
> <br>
> For simplicity I will use standard resources like IPaddr2 (but we have <br>
> this problem on any type of our custom resources).<br>
> <br>
> I have 5 groups like this:<br>
> <br>
> Full List of Resources:<br>
>    * Resource Group: group-1:<br>
>      * ip-11 (ocf::heartbeat:IPaddr2): Started vdc16<br>
>      * ip-12 (ocf::heartbeat:IPaddr2): Started vdc16<br>
>    * Resource Group: group-2:<br>
>      * ip-21 (ocf::heartbeat:IPaddr2): Started vdc17<br>
>      * ip-22 (ocf::heartbeat:IPaddr2): Started vdc17<br>
>    * Resource Group: group-3:<br>
>      * ip-31 (ocf::heartbeat:IPaddr2): Started vdc18<br>
>      * ip-32 (ocf::heartbeat:IPaddr2): Started vdc18<br>
>    * Resource Group: group-4:<br>
>      * ip-41 (ocf::heartbeat:IPaddr2): Started vdc16<br>
>      * ip-42 (ocf::heartbeat:IPaddr2): Started vdc16<br>
> <br>
> Groups were created by next simple script:<br>
> cat groups.sh<br>
> pcs resource create ip-11 ocf:heartbeat:IPaddr2 ip=10.7.1.11 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-1<br>
> pcs resource create ip-12 ocf:heartbeat:IPaddr2 ip=10.7.1.12 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-1<br>
> <br>
> pcs resource create ip-21 ocf:heartbeat:IPaddr2 ip=10.7.1.21 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-2<br>
> pcs resource create ip-22 ocf:heartbeat:IPaddr2 ip=10.7.1.22 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-2<br>
> <br>
> pcs resource create ip-31 ocf:heartbeat:IPaddr2 ip=10.7.1.31 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-3<br>
> pcs resource create ip-32 ocf:heartbeat:IPaddr2 ip=10.7.1.32 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-3<br>
> <br>
> pcs resource create ip-41 ocf:heartbeat:IPaddr2 ip=10.7.1.41 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-4<br>
> pcs resource create ip-42 ocf:heartbeat:IPaddr2 ip=10.7.1.42 <br>
> cidr_netmask=24 nic=lo op monitor interval=10s --group group-4<br>
> <br>
> Next, i try to remove all of these group in 'parallel':<br>
> cat remove.sh<br>
> pcs resource remove group-1 &<br>
> sleep 0.2<br>
> pcs resource remove group-2 &<br>
> sleep 0.2<br>
> pcs resource remove group-3 &<br>
> sleep 0.2<br>
> pcs resource remove group-4 &<br>
> <br>
> After this, every time I have a few resources in some groups which were <br>
> not removed. It looks like:<br>
> <br>
> Full List of Resources:<br>
>    * Resource Group: group-2 (disabled):<br>
>      * ip-21 (ocf::heartbeat:IPaddr2): Stopped (disabled)<br>
>    * Resource Group: group-4 (disabled):<br>
>      * ip-41 (ocf::heartbeat:IPaddr2): Stopped (disabled)<br>
> <br>
> In logs, I can see success stopping all resources, but after stopping <br>
> some resources it looks like pacemaker just 'forgot' about deletion and <br>
> didn't.<br>
> <br>
> Cluster name: pacemaker1<br>
> Cluster Summary:<br>
>    * Stack: corosync<br>
>    * Current DC: vdc16 (version 2.1.0-8.el8-7c3f660707) - partition with <br>
> quorum<br>
>    * Last updated: Fri May 17 14:30:14 2024<br>
>    * Last change:  Fri May 17 14:30:05 2024 by root via cibadmin on vdc16<br>
>    * 3 nodes configured<br>
>    * 2 resource instances configured (2 DISABLED)<br>
> <br>
> Node List:<br>
>    * Online: [ vdc16 vdc17 vdc18 ]<br>
> <br>
> Host OS is CentOS 8.4. Cluster with default settings. vdc16,vdc17,vdc18 <br>
> are VMs with 4 vCPU.<br>
> <br>
> <br>
> _______________________________________________<br>
> Manage your subscription:<br>
> <a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
> <br>
> ClusterLabs home: <a href="https://www.clusterlabs.org/" rel="noreferrer" target="_blank">https://www.clusterlabs.org/</a><br>
<br>
_______________________________________________<br>
Manage your subscription:<br>
<a href="https://lists.clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">https://lists.clusterlabs.org/mailman/listinfo/users</a><br>
<br>
ClusterLabs home: <a href="https://www.clusterlabs.org/" rel="noreferrer" target="_blank">https://www.clusterlabs.org/</a><br>
</blockquote></div>