<div dir="ltr"><div><div><div><br></div>Yikes.  I don't have any suggestions.  This is beyond me.<br></div>Sorry.<br><br></div>J.<br></div><div class="gmail_extra"><br><div class="gmail_quote">On Sat, Oct 15, 2016 at 4:48 AM, Anne Nicolas <span dir="ltr"><<a href="mailto:ennael1@gmail.com" target="_blank">ennael1@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><p dir="ltr"></p>
<p dir="ltr">Anne<br>
<a href="http://mageia.org" target="_blank">http://mageia.org</a></p><span class="">
<p dir="ltr">Le 15 oct. 2016 9:02 AM, "Jay Scott" <<a href="mailto:bigcrater@gmail.com" target="_blank">bigcrater@gmail.com</a>> a écrit :<br>
><br>
><br>
> Well, I'm a newbie myself.  But this:<br>
> drbdadm primary --force ___the name of the drbd res___<br>
> has worked for me.  But I'm having lots of trouble myself,<br>
> so...  <br>
> then there's this:<br>
> drbdadm -- --overwrite-data-of-peer primary bravo<br>
> (bravo happens to be my drbd res) and that should also<br>
> strongarm one machine or another to be the primary.<br>
></p>
</span><p dir="ltr">Well I used those commands it goes to primary but I czn see then pacemaker switching it to secondary after some secondd</p><div><div class="h5"><br>
> j.<br>
><br>
> On Fri, Oct 14, 2016 at 3:22 PM, Anne Nicolas <<a href="mailto:ennael1@gmail.com" target="_blank">ennael1@gmail.com</a>> wrote:<br>
>><br>
>> Hi!<br>
>><br>
>> I'm having trouble with a 2 nodes cluster used for DRBD / Apache / Samba<br>
>> and some other services.<br>
>><br>
>> Whatever I do, it always goes to the following state:<br>
>><br>
>> Last updated: Fri Oct 14 17:41:38 2016<br>
>> Last change: Thu Oct 13 10:42:29 2016 via cibadmin on bzvairsvr<br>
>> Stack: corosync<br>
>> Current DC: bzvairsvr (168430081) - partition with quorum<br>
>> Version: 1.1.8-9.mga5-394e906<br>
>> 2 Nodes configured, unknown expected votes<br>
>> 13 Resources configured.<br>
>><br>
>><br>
>> Online: [ bzvairsvr bzvairsvr2 ]<br>
>><br>
>>  Master/Slave Set: drbdservClone [drbdserv]<br>
>>      Slaves: [ bzvairsvr bzvairsvr2 ]<br>
>>  Clone Set: fencing [st-ssh]<br>
>>      Started: [ bzvairsvr bzvairsvr2 ]<br>
>><br>
>> When I reboot bzvairsvr2 this one goes primary again. But after a while<br>
>> becomes secondary also.<br>
>> I use a very basic fencing system based on ssh. It's not optimal but<br>
>> enough for the current tests.<br>
>><br>
>> Here are information about the configuration:<br>
>><br>
>> node 168430081: bzvairsvr<br>
>> node 168430082: bzvairsvr2<br>
>> primitive apache apache \<br>
>>         params configfile="/etc/httpd/conf/<wbr>httpd.conf" \<br>
>>         op start interval=0 timeout=120s \<br>
>>         op stop interval=0 timeout=120s<br>
>> primitive clusterip IPaddr2 \<br>
>>         params ip=192.168.100.1 cidr_netmask=24 nic=eno1 \<br>
>>         meta target-role=Started<br>
>> primitive clusterroute Route \<br>
>>         params destination="<a href="http://0.0.0.0/0" target="_blank">0.0.0.0/0</a>" gateway=192.168.100.254<br>
>> primitive drbdserv ocf:linbit:drbd \<br>
>>         params drbd_resource=server \<br>
>>         op monitor interval=30s role=Slave \<br>
>>         op monitor interval=29s role=Master start-delay=30s<br>
>> primitive fsserv Filesystem \<br>
>>         params device="/dev/drbd/by-res/<wbr>server" directory="/Server"<br>
>> fstype=ext4 \<br>
>>         op start interval=0 timeout=60s \<br>
>>         op stop interval=0 timeout=60s \<br>
>>         meta target-role=Started<br>
>> primitive libvirt-guests systemd:libvirt-guests<br>
>> primitive libvirtd systemd:libvirtd<br>
>> primitive mysql systemd:mysqld<br>
>> primitive named systemd:named<br>
>> primitive samba systemd:smb<br>
>> primitive st-ssh stonith:external/ssh \<br>
>>         params hostlist="bzvairsvr bzvairsvr2"<br>
>> group iphd clusterip clusterroute \<br>
>>         meta target-role=Started<br>
>> group services libvirtd libvirt-guests apache named mysql samba \<br>
>>         meta target-role=Started<br>
>> ms drbdservClone drbdserv \<br>
>>         meta master-max=1 master-node-max=1 clone-max=2 clone-node-max=1<br>
>> notify=true target-role=Started<br>
>> clone fencing st-ssh<br>
>> colocation fs_on_drbd inf: fsserv drbdservClone:Master<br>
>> colocation iphd_on_services inf: iphd services<br>
>> colocation services_on_fsserv inf: services fsserv<br>
>> order fsserv-after-drbdserv inf: drbdservClone:promote fsserv:start<br>
>> order services_after_fsserv inf: fsserv services<br>
>> property cib-bootstrap-options: \<br>
>>         dc-version=1.1.8-9.mga5-<wbr>394e906 \<br>
>>         cluster-infrastructure=<wbr>corosync \<br>
>>         no-quorum-policy=ignore \<br>
>>         stonith-enabled=true \<br>
>><br>
>> cluster logs are flooded by :<br>
>> Oct 14 17:42:28 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_trigger_update:    Sending flush op to all hosts for:<br>
>> master-drbdserv (10000)<br>
>> Oct 14 17:42:28 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_perform_update:    Sent update master-drbdserv=10000 failed:<br>
>> Transport endpoint is not connected<br>
>> Oct 14 17:42:28 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_perform_update:    Sent update -107: master-drbdserv=10000<br>
>> Oct 14 17:42:28 [3445] bzvairsvr      attrd:  warning:<br>
>> attrd_cib_callback:      Update master-drbdserv=10000 failed: Transport<br>
>> endpoint is not connected<br>
>> Oct 14 17:42:59 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_trigger_update:    Sending flush op to all hosts for:<br>
>> master-drbdserv (10000)<br>
>> Oct 14 17:42:59 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_perform_update:    Sent update master-drbdserv=10000 failed:<br>
>> Transport endpoint is not connected<br>
>> Oct 14 17:42:59 [3445] bzvairsvr      attrd:   notice:<br>
>> attrd_perform_update:    Sent update -107: master-drbdserv=10000<br>
>> Oct 14 17:42:59 [3445] bzvairsvr      attrd:  warning:<br>
>> attrd_cib_callback:      Update master-drbdserv=10000 failed: Transport<br>
>> endpoint is not connected<br>
>><br>
>><br>
>> And here is dmesg<br>
>><br>
>> [34067.547147] block drbd0: peer( Secondary -> Primary )<br>
>> [34091.023206] block drbd0: peer( Primary -> Secondary )<br>
>> [34096.616319] drbd server: peer( Secondary -> Unknown ) conn( Connected<br>
>> -> TearDown ) pdsk( UpToDate -> DUnknown )<br>
>> [34096.616353] drbd server: asender terminated<br>
>> [34096.616358] drbd server: Terminating drbd_a_server<br>
>> [34096.682874] drbd server: Connection closed<br>
>> [34096.682894] drbd server: conn( TearDown -> Unconnected )<br>
>> [34096.682897] drbd server: receiver terminated<br>
>> [34096.682900] drbd server: Restarting receiver thread<br>
>> [34096.682902] drbd server: receiver (re)started<br>
>> [34096.682915] drbd server: conn( Unconnected -> WFConnection )<br>
>> [34103.311898] drbd server: Handshake successful: Agreed network<br>
>> protocol version 101<br>
>> [34103.311903] drbd server: Agreed to support TRIM on protocol level<br>
>> [34103.311997] drbd server: Peer authenticated using 20 bytes HMAC<br>
>> [34103.312046] drbd server: conn( WFConnection -> WFReportParams )<br>
>> [34103.312062] drbd server: Starting asender thread (from drbd_r_server<br>
>> [4344])<br>
>> [34103.380311] block drbd0: drbd_sync_handshake:<br>
>> [34103.380318] block drbd0: self<br>
>> 8B500BD87A5D76D4:<wbr>0000000000000000:<wbr>A1860E99AC8107A0:<wbr>A1850E99AC8107A0<br>
>> bits:0 flags:0<br>
>> [34103.380323] block drbd0: peer<br>
>> 8B500BD87A5D76D4:<wbr>0000000000000000:<wbr>A1860E99AC8107A0:<wbr>A1850E99AC8107A0<br>
>> bits:0 flags:0<br>
>> [34103.380327] block drbd0: uuid_compare()=0 by rule 40<br>
>> [34103.380335] block drbd0: peer( Unknown -> Secondary ) conn(<br>
>> WFReportParams -> Connected ) pdsk( DUnknown -> UpToDate )<br>
>> [34114.046443] bnx2x 0000:05:00.0 enp5s0f0: NIC Link is Down<br>
>> [34123.802580] drbd server: PingAck did not arrive in time.<br>
>> [34123.802617] drbd server: peer( Secondary -> Unknown ) conn( Connected<br>
>> -> NetworkFailure ) pdsk( UpToDate -> DUnknown )<br>
>> [34123.802773] drbd server: asender terminated<br>
>> [34123.802777] drbd server: Terminating drbd_a_server<br>
>> [34123.932565] drbd server: Connection closed<br>
>> [34123.932585] drbd server: conn( NetworkFailure -> Unconnected )<br>
>> [34123.932588] drbd server: receiver terminated<br>
>> [34123.932590] drbd server: Restarting receiver thread<br>
>> [34123.932592] drbd server: receiver (re)started<br>
>> [34123.932605] drbd server: conn( Unconnected -> WFConnection )<br>
>> [34185.719207] bnx2x 0000:05:00.0 enp5s0f0: NIC Link is Up, 10000 Mbps<br>
>> full duplex, Flow control: ON - receive & transmit<br>
>> [34232.241599] bnx2x 0000:05:00.0 enp5s0f0: NIC Link is Down<br>
>> [34268.637861] bnx2x 0000:05:00.0 enp5s0f0: NIC Link is Up, 10000 Mbps<br>
>> full duplex, Flow control: ON - receive & transmit<br>
>> [34318.675122] drbd server: Handshake successful: Agreed network<br>
>> protocol version 101<br>
>> [34318.675128] drbd server: Agreed to support TRIM on protocol level<br>
>> [34318.675218] drbd server: Peer authenticated using 20 bytes HMAC<br>
>> [34318.675258] drbd server: conn( WFConnection -> WFReportParams )<br>
>> [34318.675276] drbd server: Starting asender thread (from drbd_r_server<br>
>> [4344])<br>
>> [34318.738909] block drbd0: drbd_sync_handshake:<br>
>> [34318.738916] block drbd0: self<br>
>> 8B500BD87A5D76D4:<wbr>0000000000000000:<wbr>A1860E99AC8107A0:<wbr>A1850E99AC8107A0<br>
>> bits:0 flags:0<br>
>> [34318.738921] block drbd0: peer<br>
>> 8B500BD87A5D76D4:<wbr>0000000000000000:<wbr>A1860E99AC8107A0:<wbr>A1850E99AC8107A0<br>
>> bits:0 flags:0<br>
>> [34318.738924] block drbd0: uuid_compare()=0 by rule 40<br>
>> [34318.738933] block drbd0: peer( Unknown -> Secondary ) conn(<br>
>> WFReportParams -> Connected ) pdsk( DUnknown -> UpToDate )<br>
>> [34328.812317] block drbd0: peer( Secondary -> Primary )<br>
>> [37316.065793] usb 3-11: USB disconnect, device number 3<br>
>> [52246.642265] block drbd0: peer( Primary -> Secondary )<br>
>><br>
>> Any help would be appreciated<br>
>><br>
>> Cheers<br>
>><br>
>> --<br>
>> Anne Nicolas<br>
>> <a href="http://mageia.org" target="_blank">http://mageia.org</a><br>
>><br>
>> ______________________________<wbr>_________________<br>
>> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
>> <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
>><br>
>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
><br>
><br>
> ______________________________<wbr>_________________<br>
> Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
> <a href="http://clusterlabs.org/mailman/listinfo/users" target="_blank">http://clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
></div></div><p></p>
<br>______________________________<wbr>_________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://clusterlabs.org/<wbr>mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/<wbr>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br></div>