<html><body><p><font size="2">My thanks to both Ken Gaillot and Tomas Jelinek for the workaround.   The procedure(s) worked like a champ. </font><br><br><font size="2">I just have a few side comments / observations ... </font><br><br><font size="2">First - Tomas,  in the bugzilla you show this error message on your cluster remove command, directing you to use the --force option: </font><br><br><tt>[root@rh72-node1:~]# pcs cluster node remove rh72-node3<br>Error: pcsd is not running on rh72-node3, use --force to override</tt><br><br><font size="2">When I issue the cluster remove, I do not get and reference to the --force option in the error message:</font><br><br><font size="2">[root@zs93kl ]# pcs cluster node remove  zs95KLpcs1</font><br><font size="2">Error: pcsd is not running on zs95KLpcs1</font><br><font size="2">[root@zs93kl ]#</font><br><br><font size="2">The man page doesn't mention --force at my level.  Is this a feature added after pcs-0.9.143-15.el7_2.ibm.2.s390x ? </font><br><br><font size="2">Also, in your workaround procedure,  you have me do: 'pcs cluster </font><b><font size="2">localnode</font></b><font size="2"> remove &lt;name_of_node_to_be_removed&gt; '.   </font><br><font size="2">However, wondering why the 'localnode' option is not in the pcs man page for the pcs cluster command?  <br>The command / option worked great, just curious why it's not documented ... </font><br><br><font size="2">[root@zs93kl #  pcs cluster localnode remove zs93kjpcs1</font><br><font size="2">zs93kjpcs1: successfully removed!</font><br><font size="2"> </font><br><font size="2">My man page level: </font><br><br><font size="2">[root@zs93kl VD]# rpm -q --whatprovides /usr/share/man/man8/pcs.8.gz</font><br><font size="2">pcs-0.9.143-15.el7_2.ibm.2.s390x</font><br><font size="2">[root@zs93kl VD]#</font><br><br><font size="2">Thanks again, </font><br><font size="2"><br>Scott G.</font><br><font size="2"><br>Scott Greenlese ... KVM on System Z - Solutions Test, IBM Poughkeepsie, N.Y.<br>  INTERNET:  swgreenl@us.ibm.com  <br></font><br><br><img width="16" height="16" src="cid:1__=8FBB0B95DFCC248B8f9e8a93df938690918c8FB@" border="0" alt="Inactive hide details for Tomas Jelinek ---04/18/2017 09:04:59 AM---Dne 17.4.2017 v 17:28 Ken Gaillot napsal(a): &gt; On 04/13/201"><font size="2" color="#424282">Tomas Jelinek ---04/18/2017 09:04:59 AM---Dne 17.4.2017 v 17:28 Ken Gaillot napsal(a): &gt; On 04/13/2017 01:11 PM, Scott Greenlese wrote:</font><br><br><font size="2" color="#5F5F5F">From:        </font><font size="2">Tomas Jelinek &lt;tojeline@redhat.com&gt;</font><br><font size="2" color="#5F5F5F">To:        </font><font size="2">users@clusterlabs.org</font><br><font size="2" color="#5F5F5F">Date:        </font><font size="2">04/18/2017 09:04 AM</font><br><font size="2" color="#5F5F5F">Subject:        </font><font size="2">Re: [ClusterLabs] How to force remove a cluster node?</font><br><hr width="100%" size="2" align="left" noshade style="color:#8091A5; "><br><br><br><tt><font size="2">Dne 17.4.2017 v 17:28 Ken Gaillot napsal(a):<br>&gt; On 04/13/2017 01:11 PM, Scott Greenlese wrote:<br>&gt;&gt; Hi,<br>&gt;&gt;<br>&gt;&gt; I need to remove some nodes from my existing pacemaker cluster which are<br>&gt;&gt; currently unbootable / unreachable.<br>&gt;&gt;<br>&gt;&gt; Referenced<br>&gt;&gt; </font></tt><tt><font size="2"><a href="https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Reference/s1-clusternodemanage-HAAR.html#s2-noderemove-HAAR">https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Reference/s1-clusternodemanage-HAAR.html#s2-noderemove-HAAR</a></font></tt><tt><font size="2"><br>&gt;&gt;<br>&gt;&gt; *4.4.4. Removing Cluster Nodes*<br>&gt;&gt; The following command shuts down the specified node and removes it from<br>&gt;&gt; the cluster configuration file, corosync.conf, on all of the other nodes<br>&gt;&gt; in the cluster. For information on removing all information about the<br>&gt;&gt; cluster from the cluster nodes entirely, thereby destroying the cluster<br>&gt;&gt; permanently, refer to _Section 4.6, “Removing the Cluster<br>&gt;&gt; Configuration”_<br>&gt;&gt; &lt;</font></tt><tt><font size="2"><a href="https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Reference/s1-clusterremove-HAAR.html#s2-noderemove-HAAR">https://access.redhat.com/documentation/en-US/Red_Hat_Enterprise_Linux/7/html/High_Availability_Add-On_Reference/s1-clusterremove-HAAR.html#s2-noderemove-HAAR</a></font></tt><tt><font size="2">&gt;.<br>&gt;&gt;<br>&gt;&gt; pcs cluster node remove /node/<br>&gt;&gt;<br>&gt;&gt; I ran the command with the cluster active on 3 of the 5 available<br>&gt;&gt; cluster nodes (with quorum). The command fails with:<br>&gt;&gt;<br>&gt;&gt; [root@zs90KP VD]# date;*pcs cluster node remove zs93kjpcs1*<br>&gt;&gt; Thu Apr 13 13:40:59 EDT 2017<br>&gt;&gt; *Error: pcsd is not running on zs93kjpcs1*<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; The node was not removed:<br>&gt;&gt;<br>&gt;&gt; [root@zs90KP VD]# pcs status |less<br>&gt;&gt; Cluster name: test_cluster_2<br>&gt;&gt; Last updated: Thu Apr 13 14:08:15 2017 Last change: Wed Apr 12 16:40:26<br>&gt;&gt; 2017 by root via cibadmin on zs93KLpcs1<br>&gt;&gt; Stack: corosync<br>&gt;&gt; Current DC: zs90kppcs1 (version 1.1.13-10.el7_2.ibm.1-44eb2dd) -<br>&gt;&gt; partition with quorum<br>&gt;&gt; 45 nodes and 180 resources configured<br>&gt;&gt;<br>&gt;&gt; Node zs95KLpcs1: UNCLEAN (offline)<br>&gt;&gt; Online: [ zs90kppcs1 zs93KLpcs1 zs95kjpcs1 ]<br>&gt;&gt; *OFFLINE: [ zs93kjpcs1 ]*<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; Is there a way to force remove a node that's no longer bootable? If not,<br>&gt;&gt; what's the procedure for removing a rogue cluster node?<br>&gt;&gt;<br>&gt;&gt; Thank you...<br>&gt;&gt;<br>&gt;&gt; Scott Greenlese ... KVM on System Z - Solutions Test, IBM Poughkeepsie, N.Y.<br>&gt;&gt; INTERNET: swgreenl@us.ibm.com<br>&gt;<br>&gt; Yes, the pcs command is just a convenient shorthand for a series of<br>&gt; commands. You want to ensure pacemaker and corosync are stopped on the<br>&gt; node to be removed (in the general case, obviously already done in this<br>&gt; case), remove the node from corosync.conf and restart corosync on all<br>&gt; other nodes, then run &quot;crm_node -R &lt;nodename&gt;&quot; on any one active node.<br><br>Hi Scott,<br><br>It is possible to remove an offline node from a cluster with upstream <br>pcs 0.9.154 or RHEL pcs-0.9.152-5 (available in RHEL7.3) or newer.<br><br>If you have an older version, here's a workaround:<br>1. run 'pcs cluster localnode remove &lt;nodename&gt;' on all remaining nodes<br>2. run 'pcs cluster reload corosync' on one node<br>3. run 'crm_node -R &lt;nodename&gt; --force' on one node<br>It's basically the same procedure Ken described.<br><br>See </font></tt><tt><font size="2"><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1225423">https://bugzilla.redhat.com/show_bug.cgi?id=1225423</a></font></tt><tt><font size="2">&nbsp;for more details.<br><br>Regards,<br>Tomas<br><br>_______________________________________________<br>Users mailing list: Users@clusterlabs.org<br></font></tt><tt><font size="2"><a href="http://lists.clusterlabs.org/mailman/listinfo/users">http://lists.clusterlabs.org/mailman/listinfo/users</a></font></tt><tt><font size="2"><br><br>Project Home: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org">http://www.clusterlabs.org</a></font></tt><tt><font size="2"><br>Getting started: </font></tt><tt><font size="2"><a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a></font></tt><tt><font size="2"><br>Bugs: </font></tt><tt><font size="2"><a href="http://bugs.clusterlabs.org">http://bugs.clusterlabs.org</a></font></tt><tt><font size="2"><br><br></font></tt><br><br><BR>
</body></html>