<div dir="ltr">I have a Ubuntu 20.04 drbd nfs pacemaker/corosync setup for 2 nodes,  it was working fine before but now I can't get the 2nd node to show as a slave under the Clone Set.  So if I do a failover both nodes show as stopped.<div><br></div><div>root@testnfs30:/etc/drbd.d# crm status<br>Cluster Summary:<br>  * Stack: corosync<br>  * Current DC: testnfs32 (version 2.0.3-4b1f869f0f) - partition with quorum<br>  * Last updated: Sun Nov 14 11:35:09 2021<br>  * Last change:  Sun Nov 14 10:31:41 2021 by root via cibadmin on testnfs30<br>  * 2 nodes configured<br>  * 5 resource instances configured<br><br>Node List:<br>  * Node testnfs32: standby<br>  * Online: [ testnfs30 ]<br><br>Full List of Resources:<br>  * Resource Group: HA:<br>    * vip       (ocf::heartbeat:IPaddr2):        Started testnfs30<br>    * fs_nfs    (ocf::heartbeat:Filesystem):     Started testnfs30<br>    * nfs       (ocf::heartbeat:nfsserver):      Started testnfs30<br>  * Clone Set: ms_drbd_nfs [drbd_nfs] (promotable):<br>    * Masters: [ testnfs30 ]<br>    * Stopped: [ testnfs32 ]<br></div><div><br></div><div>This used to show as</div><div>* Slaves: [ testnfs32 ]<br></div><div><br></div><div>testnfs30# cat /proc/drbd<br>version: 8.4.11 (api:1/proto:86-101)<br>srcversion: FC3433D849E3B88C1E7B55C<br> 0: cs:Connected ro:Primary/Secondary ds:UpToDate/UpToDate C r-----<br>    ns:352 nr:368 dw:720 dr:4221 al:6 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0<br></div><div><br></div><div><br></div><div>testnfs30:/etc/drbd.d# drbdadm status<br>nfs1 role:Primary<br>  volume:1 disk:UpToDate<br>  peer role:Secondary<br>    volume:1 replication:Established peer-disk:UpToDate<br></div><div><br></div><div>root@testnfs30:/etc/drbd.d# crm config show<br>node 1: testnfs30 \<br>        attributes standby=off<br>node 2: testnfs32 \<br>        attributes standby=on<br>primitive drbd_nfs ocf:linbit:drbd \<br>        params drbd_resource=nfs1 \<br>        op monitor interval=31s timeout=20s role=Slave \<br>        op monitor interval=30s timeout=20s role=Master<br>primitive fs_nfs Filesystem \<br>        params device="/dev/drbd0" directory="/nfs1srv" fstype=ext4 options="noatime,nodiratime" \<br>        op start interval=0 timeout=60 \<br>        op stop interval=0 timeout=120 \<br>        op monitor interval=15s timeout=60s<br>primitive nfs nfsserver \<br>        params nfs_init_script="/etc/init.d/nfs-kernel-server" nfs_shared_infodir="/nfs1srv/nfs_shared" nfs_ip=172.17.1.35 \<br>        op monitor interval=5s<br>primitive vip IPaddr2 \<br>        params ip=172.17.1.35 cidr_netmask=16 nic=bond0 \<br>        op monitor interval=20s timeout=20s \<br>        op start interval=0s timeout=20s \<br>        op stop interval=0s timeout=20s<br>group HA vip fs_nfs nfs \<br>        meta target-role=Started<br>ms ms_drbd_nfs drbd_nfs \<br>        meta master-max=1 master-node-max=1 clone-max=2 clone-node-max=1 notify=true<br>order fs-nfs-before-nfs inf: fs_nfs:start nfs:start<br>order ip-before-ms-drbd-nfs Mandatory: vip:start ms_drbd_nfs:promote<br>location loc ms_drbd_nfs 100: testnfs30<br>order ms-drbd-nfs-before-fs-nfs Mandatory: ms_drbd_nfs:promote fs_nfs:start<br>colocation ms-drbd-nfs-with-ha inf: ms_drbd_nfs:Master HA<br>property cib-bootstrap-options: \<br>        have-watchdog=false \<br>        dc-version=2.0.3-4b1f869f0f \<br>        cluster-infrastructure=corosync \<br>        cluster-name=debian \<br>        no-quorum-policy=ignore \<br>        stonith-enabled=false<br></div><div><br></div><div>I noticed that this line was added since last time I checked so I removed it but that didn't help'</div><div><br>location drbd-fence-by-handler-nfs1-ms_drbd_nfs ms_drbd_nfs \<br>        rule $role=Master -inf: #uname ne testnfs32<br></div><div><br></div></div>