<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: Times New Roman; font-size: 12pt; color: #000000'>Hi Dennis,<div><br></div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown">Have you also added /var/lib/nfs to the shared DRBD resource? This is an important step to ensure that data about currently-open files and mount information is transferred to the other node during failover. See the end of Step 4:</div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown"><a href="http://www.howtoforge.com/highly-available-nfs-server-using-drbd-and-heartbeat-on-debian-5.0-lenny">http://www.howtoforge.com/highly-available-nfs-server-using-drbd-and-heartbeat-on-debian-5.0-lenny</a></div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown"><br></div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown">Thanks,</div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown"><br></div><div id="aeaoofnhgocdbnbeljkmbjdmhbcokfdb-mousedown">Andrew<br><br><hr id="zwchr"><div style="color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;"><b>From: </b>"emmanuel segura" <emi2fast@gmail.com><br><b>To: </b>"The Pacemaker cluster resource manager" <pacemaker@oss.clusterlabs.org><br><b>Sent: </b>Monday, January 16, 2012 6:06:54 AM<br><b>Subject: </b>Re: [Pacemaker] how does the exportfs resource agent work?<br><br>you should check how you mount the nfs cluster share from your client<br><br>for example<br><br>mount -o hard,rw,rsize=32768,wsize=32768,suid,proto=tcp,vers=3 -t nfs your_virtual_ip:/your_cluster_fs_share /mountpoint<br><br>
man nfs<br><br>=====================================================<br>timeo=n        The  value  in  tenths  of  a second before sending the first retransmission after an RPC timeout.  The<br>                      default value is 7 tenths of a second.  After the first timeout, the timeout is doubled after each suc-<br>
                      cessive  timeout  until  a  maximum timeout of 60 seconds is reached or the enough retransmissions have<br>                      occured to cause a major timeout.  Then, if the filesystem is hard mounted, each  new  timeout  cascade<br>
                      restarts  at  twice  the  initial value of the previous cascade, again doubling at each retransmission.<br>                      The maximum timeout is always 60 seconds.  Better overall performance may be achieved by increasing the<br>
                      timeout when mounting on a busy network, to a slow server, or through several routers or gateways.<br><br>       retrans=n      The  number  of  minor timeouts and retransmissions that must occur before a major timeout occurs.  The<br>
                      default is 3 timeouts.  When a major timeout occurs, the file operation is either aborted or a  "server<br>                      not responding" message is printed on the console.<br>=======================================================<br>
<br><div class="gmail_quote">2012/1/16 Dennis Jacobfeuerborn <span dir="ltr"><<a href="mailto:dennisml@conversis.de" target="_blank">dennisml@conversis.de</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
What am I supposed to look for?<br>
<br>
Regards,<br>
  Dennis<div class="im"><br>
<br>
On 01/16/2012 12:13 PM, emmanuel segura wrote:<br>
</div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">
I think man nfs it's can help you<br>
<br>
Try to look your nfs client options<br>
<br>
2012/1/15 Dennis Jacobfeuerborn <<a href="mailto:dennisml@conversis.de" target="_blank">dennisml@conversis.de</a><br></div>
<mailto:<a href="mailto:dennisml@conversis.de" target="_blank">dennisml@conversis.de</a>><u></u>><div><div class="h5"><br>
<br>
    Hi,<br>
    I'm trying to build a HA nfs system based on drbd and apart from the<br>
    nfs export everything is working fine. The problem is that when I force<br>
    a failover things seem to work fine yet when I fail back to the<br>
    original system the clients freeze for a very long time.<br>
<br>
    /mnt/tmp is the mountpoint on the client and I'm using the following to<br>
    test access:<br>
    for i in `seq 1 2000`; do echo $i; ls /mnt/tmp; sleep 1; done<br>
<br>
    on a failover the output look like this:<br>
<br>
    ...<br>
    47<br>
    testfile  testfile2<br>
    48<br>
    testfile  testfile2<br>
    49<br>
    testfile  testfile2<br>
    50<br>
    testfile  testfile2<br>
    51<br>
    testfile  testfile2<br>
    52<br>
    ls: cannot open directory /mnt/tmp: Permission denied<br>
    53<br>
    ls: cannot open directory /mnt/tmp: Permission denied<br>
    54<br>
    <<< freeze of several minutes >>><br>
    testfile  testfile2<br>
    55<br>
    testfile  testfile2<br>
    56<br>
    testfile  testfile2<br>
    ...<br>
<br>
    The first question I have is how can I prevent the "Permission denied"<br>
    errors? If these occur on e.g. a mountpoint for MySQL for example this<br>
    will no doubt lead to problems with the database and that means the<br>
    storage isn't really redundant.<br>
<br>
    The second question is how do I reduce the failover time? I tried<br>
    adding timeo=30 to the client mount options but that doesn't seem to help.<br>
<br>
    This is what my cib looks like:<br>
<br>
    node storage1.dev<br>
    node storage2.dev<br>
    primitive p_drbd_nfs ocf:linbit:drbd \<br>
            params drbd_resource="nfs" \<br>
            op monitor interval="15" role="Master" \<br>
            op monitor interval="30" role="Slave"<br>
    primitive p_exportfs_data ocf:heartbeat:exportfs \<br>
            params fsid="1" directory="/mnt/data/export"<br>
    options="rw,no_root_squash" clientspec="*" \<br>
            op monitor interval="30s"<br>
    primitive p_fs_data ocf:heartbeat:Filesystem \<br>
            params device="/dev/drbd/by-res/nfs" directory="/mnt/data"<br>
    fstype="ext3" \<br>
            op monitor interval="10s"<br>
    primitive p_ip_nfs ocf:heartbeat:IPaddr2 \<br>
            params ip="192.168.2.190" cidr_netmask="24" \<br>
            op monitor interval="30s"<br>
    group g_nfs p_fs_data p_exportfs_data p_ip_nfs<br>
    ms ms_drbd_nfs p_drbd_nfs \<br>
            meta master-max="1" master-node-max="1" clone-max="2"<br>
    clone-node-max="1" notify="true"<br>
    colocation c_nfs_on_drbd inf: g_nfs ms_drbd_nfs:Master<br>
    order o_drbd_before_nfs inf: ms_drbd_nfs:promote g_nfs:start<br>
    property $id="cib-bootstrap-options" \<br>
            dc-version="1.0.12-unknown" \<br></div></div>
            cluster-infrastructure="__<u></u>openais" \<div class="im"><br>
            expected-quorum-votes="2" \<br>
            stonith-enabled="false" \<br>
            no-quorum-policy="ignore"<br>
    rsc_defaults $id="rsc-options" \<br>
            resource-stickiness="200"<br>
<br>
    Regards,<br>
      Dennis<br>
<br></div>
    ______________________________<u></u>___________________<br>
    Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
    <mailto:<a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.<u></u>clusterlabs.org</a>><br>
    <a href="http://oss.clusterlabs.org/__mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/__<u></u>mailman/listinfo/pacemaker</a><div class="im"><br>
    <<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a>><br>
<br>
    Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
    Getting started:<br></div>
    <a href="http://www.clusterlabs.org/__doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/__<u></u>doc/Cluster_from_Scratch.pdf</a><div class="im"><br>
    <<a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a>><br>
    Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
<br>
<br>
<br>
--<br>
esta es mi vida e me la vivo hasta que dios quiera<br>
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></blockquote><div class="HOEnZb"><div class="h5">
<br>
<br>
______________________________<u></u>_________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/<u></u>mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/<u></u>doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>
<br>_______________________________________________<br>Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br>http://oss.clusterlabs.org/mailman/listinfo/pacemaker<br><br>Project Home: http://www.clusterlabs.org<br>Getting started: http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf<br>Bugs: http://bugs.clusterlabs.org<br></div><br></div></div></body></html>