<div dir="ltr">Ok, i made some tests and now I can be more precise:<div>My configuration:</div><div>NODE1 192.168.122.143  (rep net 10.1.0.2)   Centos 6.5 64bit</div><div>NODE2 192.168.122.63 (rep net 10.1.0.3)      Centos 6.5 64 bit</div><div>are 2 vms </div><div>so on my host i have virbr0 192.168.122.1 </div><div>and eth0 192.168.1.45 (nfs ACL is ok!)</div><div><br></div><div>Failover simulation: putting in standby one node, so all resources are migrated to the other node. Is this ok?</div><div><br></div><div>Following the red hat tutorial, i'm trying to use tcpdump when i simulate a failover but i cannot see any <span style="color:rgb(51,51,51);font-family:Overpass,'Open Sans',Helvetica,sans-serif;font-size:14px;line-height:21px"> </span><span style="color:rgb(51,51,51);font-family:Overpass,'Open Sans',Helvetica,sans-serif;font-size:14px;line-height:21px">NFS4ERR_GRACE error. I think that nfs grace and lease time are ok, because they are ok in </span><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">/proc/fs/nfsd/nfsv4leasetime and /proc/fs/nfsd/nfsv4gracetime. I see a lot of TCP Dup ACK packets. Could be a problem related to the environment? Should i test this configuration on physical nodes?</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px"><br></span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">I also noted another strange behavior:</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">When i simulate a down, i launch "time ls" on the client. If the client mounts from NODE1 (active server) and this node goes down, "time ls" require few seconds, but then i simulate another down (NODE2) and in this case "time ls" require from 2 to 5 minutes. There is the same behavior if the client mounts from NODE2 (active server): first down require less time than the second.</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">Is this simulation wrong?</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">Someone can help me? please, i need a really HA NFS server.</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">Thanks,</span></font></div><div><font color="#333333" face="Overpass, Open Sans, Helvetica, sans-serif"><span style="font-size:14px;line-height:21px">MM</span></font></div><div><br></div><div><br></div></div><div class="gmail_extra"><br><div class="gmail_quote">2015-06-22 12:18 GMT+02:00 Marco Marino <span dir="ltr"><<a href="mailto:marino.mrc@gmail.com" target="_blank">marino.mrc@gmail.com</a>></span>:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">Following the solution proposed by red hat I noted that the resource agent cannot manage NFSD_V4_LEASE and NFSD_V4_GRACE options in /etc/sysconfig/nfs. <div>However, i manually changed the script in /usr/lib/ocf/resource.d/heartbeat/nfsserver on both nodes, but there is the same problem. How can i check if nfs "understand" this parameters? Should i reduce some timeout in the exportfs resources or nfsserver resource?</div><div><br></div><div>Thanks,</div><div>MM</div></div><div class="gmail_extra"><br><div class="gmail_quote"><div><div class="h5">2015-06-22 11:12 GMT+02:00 Michael Schwartzkopff <span dir="ltr"><<a href="mailto:ms@sys4.de" target="_blank">ms@sys4.de</a>></span>:<br></div></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="h5"><div><div>Am Montag, 22. Juni 2015, 10:51:16 schrieb Marco Marino:<br>
> Hi,<br>
> I'm building an nfs server with drbd and pacemaker on CentOS 6.5 and i have<br>
> some questions related to the failover. In my installation after a<br>
> simulated failover, clients hangs for a random time (between few seconds<br>
> and 140 seconds) before commands like "ls" or "touch" became responsive.<br>
> This happens also if I use nfsvers=3 on clients. Why this happens? How can<br>
> manage this case for reduce this time?<br>
> Following the guide on the linbit site ("Nfs on rhel 6") on chapter 11<br>
> there are some failover tests and it should works without this kind of<br>
> problems.<br>
><br>
> Thanks,<br>
> MM<br>
<br>
</div></div>Looks like your server waits for the lease / grace timeout. Please see:<br>
<br>
<a href="https://access.redhat.com/solutions/42868" rel="noreferrer" target="_blank">https://access.redhat.com/solutions/42868</a><br>
<br>
or goole for "nfsv4 lease timeout"<br>
<br>
The options grace / least timeout can be configured as agent parameters. Lower<br>
it according to your needs.<br>
<br>
Mit freundlichen Grüßen,<br>
<br>
Michael Schwartzkopff<br>
<span><font color="#888888"><br>
--<br>
[*] sys4 AG<br>
<br>
<a href="http://sys4.de" rel="noreferrer" target="_blank">http://sys4.de</a>, <a href="tel:%2B49%20%2889%29%2030%2090%2046%2064" value="+498930904664" target="_blank">+49 (89) 30 90 46 64</a>, <a href="tel:%2B49%20%28162%29%20165%200044" value="+491621650044" target="_blank">+49 (162) 165 0044</a><br>
Franziskanerstraße 15, 81669 München<br>
<br>
Sitz der Gesellschaft: München, Amtsgericht München: HRB 199263<br>
Vorstand: Patrick Ben Koetter, Marc Schiffbauer<br>
Aufsichtsratsvorsitzender: Florian Kirstein</font></span><br></div></div><span class="">_______________________________________________<br>
Users mailing list: <a href="mailto:Users@clusterlabs.org" target="_blank">Users@clusterlabs.org</a><br>
<a href="http://clusterlabs.org/mailman/listinfo/users" rel="noreferrer" target="_blank">http://clusterlabs.org/mailman/listinfo/users</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" rel="noreferrer" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" rel="noreferrer" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" rel="noreferrer" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></span></blockquote></div><br></div>
</blockquote></div><br></div>