<div dir="ltr"><div dir="ltr"><div>Hi, <br></div><div><br></div><div>When I assign an email sender handler to resynch events, it fill my email account. (because of the 
lot of Outdated/Inconsistent/UpToDate

cycles, I think)<br></div><div><br></div><div>handlers {<br></div><div>  after-resync-target  "echo after-resync-target  | mail -r root.$(hostname)@<my domain> -s after-resync-target  <my email>";<br>  before-resync-target "echo before-resync-target | mail -r root.$(hostname)@<my domain>

 -s before-resync-target <my email>";</div><div>  ...<br></div><div>}</div><div><br></div><div>B.r: Laszlo.</div><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr">Mevo Govo <<a href="mailto:govomevo@gmail.com">govomevo@gmail.com</a>> ezt írta (időpont: 2018. okt. 8., H, 14:12):<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div>Hi, <br></div><div><br></div><div>I tried it with and without drbd quorum options, I resterted all the node, but same "neverending" refresh. Device is not mounted, so no "outer" modification. protocol is C (synchron). I recreated the resource on node 3 (xetest3) with tis commands:</div><div><br></div><div>drbdadm down r0<br>dd if=/dev/zero of=/dev/sdb1 bs=100M count=1<br>drbdadm create-md r0<br></div><div><br></div><div>After this "full resync", the neverending sync stopped (UpToDate on every nodes). But after a resource down/up, the "Outdated/Inconsistent/UpToDate" cycle is restarted on xetest3. <br></div><div>Maybe it is normal on 3rd node, even if protocol C. But I do not see it on our prod environment.</div><div><br></div><div>B.r: Laszlo.</div><div><br></div><div><br></div></div></div><br><div class="gmail_quote"><div dir="ltr">Mevo Govo <<a href="mailto:govomevo@gmail.com" target="_blank">govomevo@gmail.com</a>> ezt írta (időpont: 2018. okt. 8., H, 11:20):<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div dir="ltr"><div>Hi, <br></div><div><br></div><div>we are testing drbd9 with 3 node. After a test (network disable, then enable on one host), the syncronization is not finishing. <br></div><div>As a recovery, I switched the pacemaker off, and I tried "primary --force" on one node and "--discard-my-data" on the other nodes. It seem solve the problem (everything is UpToDate), but after I down/up the resource, the "neverending" synchronization is restarted (when the resource is Secondary on all the 3 node). <br></div><div>Why sync is restarted after UpToDate state. Ho can I solve this problem?</div><div>Nodes are xetes1, xetest2, xetest3, here is a checking test ("drbdadm status" on every node, then wait 10 secod. This repeated 10 times)</div><div><br></div><div>
<div>Thanks for answers: Laci.<br></div><div><br></div>

</div><div><br></div><div><span style="font-family:monospace,monospace">for i in {1..10}<br>do<br>  echo "################## check $i ##################"<br>  sleep 10<br>  date<br>  echo '################## on node xetest1'<br>  ssh xetest1 sudo drbdadm status<br>  echo '################## on node xetest2'<br>  ssh xetest2 sudo drbdadm status<br>  echo '################## on node xetest3'<br>  ssh xetest3 sudo drbdadm status<br>done<br></span></div><div><span style="font-family:monospace,monospace"><br></span></div><span style="font-family:monospace,monospace">################## check 1 ##################<br><br><br><br>Mon Oct  8 09:11:12 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:UpToDate<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Inconsistent resync-suspended:peer<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 2 ##################<br>Mon Oct  8 09:11:23 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Inconsistent resync-suspended:peer<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br><br>################## check 3 ##################<br>Mon Oct  8 09:11:35 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 4 ##################<br>Mon Oct  8 09:11:46 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:WFBitMapS peer-disk:Outdated<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Inconsistent<br>  xetest1 role:Secondary<br>    replication:SyncTarget peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 5 ##################<br>Mon Oct  8 09:11:58 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Outdated<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 6 ##################<br>Mon Oct  8 09:12:09 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:UpToDate<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Inconsistent resync-suspended:peer<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Inconsistent<br>  xetest1 role:Secondary<br>    replication:SyncTarget peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 7 ##################<br>Mon Oct  8 09:12:21 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:UpToDate<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br><br>################## check 8 ##################<br>Mon Oct  8 09:12:32 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Outdated<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Inconsistent<br>  xetest1 role:Secondary<br>    replication:SyncTarget peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 9 ##################<br>Mon Oct  8 09:12:44 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:Outdated<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>################## check 10 ##################<br>Mon Oct  8 09:12:55 GMT 2018<br>################## on node xetest1<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    peer-disk:UpToDate<br><br>################## on node xetest2<br>r0 role:Secondary<br>  disk:UpToDate<br>  xetest1 role:Secondary<br>    peer-disk:UpToDate<br>  xetest3 role:Secondary<br>    replication:SyncSource peer-disk:Inconsistent<br><br>################## on node xetest3<br>r0 role:Secondary<br>  disk:Outdated blocked:upper<br>  xetest1 role:Secondary<br>    replication:WFBitMapT peer-disk:UpToDate<br>  xetest2 role:Secondary<br>    peer-disk:UpToDate<br><br>[oracle@xetest1 ~]$<br></span><br><div><br></div><div><br></div><div><br></div><div><br></div><div><br></div><div><span style="font-family:monospace,monospace">####### our config file is:</span></div><div><span style="font-family:monospace,monospace">[oracle@xetest1 ~]$ cat /etc/drbd.conf<br>include "drbd.d/global_common.conf";<br><br>resource r0 {<br> protocol C;<br> meta-disk internal;<br> device /dev/drbd0;<br> options {<br>   auto-promote no;<br>   quorum majority;<br>   on-no-quorum io-error;<br>#   quorum-minimum-redundancy 2;<br> }<br> syncer {<br>  verify-alg sha1;<br> }<br> net {<br>  ping-int 5;<br>  after-sb-0pri discard-zero-changes;<br>  after-sb-1pri disconnect;<br>  after-sb-2pri disconnect;<br> }<br> on xetest1 {<br>  disk   /dev/sdb1;<br>  address  <a href="http://10.0.1.2:7790" target="_blank">10.0.1.2:7790</a>;<br>  node-id  1;<br> }<br> on xetest2 {<br>  disk   /dev/sdb1;<br>  address  <a href="http://10.0.2.2:7790" target="_blank">10.0.2.2:7790</a>;<br>  node-id  2;<br> }<br> on xetest3 {<br>  disk   /dev/sdb1;<br>  address  <a href="http://10.0.0.2:7790" target="_blank">10.0.0.2:7790</a>;<br>  node-id  3;<br> }<br> connection-mesh {<br>        hosts     xetest1 xetest2 xetest3;<br> }<br>}<br>[oracle@xetest1 ~]$<br></span><br></div><div><br></div><br><div><br></div><div><br></div><div><br></div></div></div></div></div></div></div>
</blockquote></div>
</blockquote></div>