<div><br></div>To make sure the failed server is actually dead, you want to use STONITH.  So read about that.  Here are examples from our testing cluster.  These are broken, so don't use them as they are.  That's why they are set to "Stopped" right now.  I probably have some timing stuff very wrong:<div>

<br></div><div><br></div><blockquote class="webkit-indent-blockquote" style="margin: 0 0 0 40px; border: none; padding: 0px;"><div><div><font class="Apple-style-span" face="'courier new', monospace">primitive ShootLebekmfs1 stonith:external/ipmi \</font></div>

</div><div><div><font class="Apple-style-span" face="'courier new', monospace">        meta target-role="Stopped" \</font></div></div><div><div><font class="Apple-style-span" face="'courier new', monospace">        params hostname="lebekmfs1" ipaddr="10.1.1.59" userid="stonith" passwd="ShootMeInTheHead" interface="lan"</font></div>

</div><div><div><font class="Apple-style-span" face="'courier new', monospace">primitive ShootLebekmfs2 stonith:external/ipmi \</font></div></div><div><div><font class="Apple-style-span" face="'courier new', monospace">        meta target-role="Stopped" \</font></div>

</div><div><div><font class="Apple-style-span" face="'courier new', monospace">        params hostname="lebekmfs2" ipaddr="10.1.1.61" userid="stonith" passwd="ShootMeInTheHead" interface="lan"</font></div>

</div></blockquote><div><div><br></div><div>You can use the ocf:heartbeat:Filesystem resource to mount any file system you can mount manually.  Here's one from a config in our test cluster.  This works:</div><div><br>

</div><blockquote class="webkit-indent-blockquote" style="margin: 0 0 0 40px; border: none; padding: 0px;"><div><div><font class="Apple-style-span" face="'courier new', monospace">primitive lvTest ocf:heartbeat:Filesystem \</font></div>

</div><div><div><font class="Apple-style-span" face="'courier new', monospace">        params device="/dev/EkmCluVG/lvTest" directory="/srv/test1" fstype="ocfs2" \</font></div></div>
<div>
<div><font class="Apple-style-span" face="'courier new', monospace">        op monitor interval="10s" timeout="10s"</font></div></div></blockquote><div><br></div><div>Make sure you remove the file system from your /etc/fstab if you're going to do it this way.  During testing, for my convenience, I leave it in, but add the noauto option to prevent it being mounted on boot.</div>

<div><br></div><div>Best,</div><div>Mike</div><div><br><div class="gmail_quote">On Tue, Jan 4, 2011 at 2:05 PM, Michael Hittesdorf <span dir="ltr"><<a href="mailto:michael.hittesdorf@chicagotrading.com">michael.hittesdorf@chicagotrading.com</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">








<div lang="EN-US" link="blue" vlink="navy">

<div>

<p class="MsoNormal"><font size="2" face="Arial"><span style="font-size:10.0pt;font-family:Arial">Can I use the Filesystem resource agent to mount a SAN drive
in the event of a failover? How do I ensure that the failed server no longer
has the drive mounted so as to prevent storage corruption? Having read several
of the tutorials, I’m aware of DRBD and the clustered file systems GFS2
and OCFS2.  However, I don’t need simultaneous access to the disk from
both of my cluster nodes. I just want to make the shared SAN storage available
to the primary, active server only as my cluster is active-passive.  Is there a
recommended way to accomplish this?</span></font></p>

<p class="MsoNormal"><font size="2" face="Arial"><span style="font-size:10.0pt;font-family:Arial"> </span></font></p>

<p class="MsoNormal"><font size="2" face="Arial"><span style="font-size:10.0pt;font-family:Arial">Thanks for your help!</span></font></p>

</div>

<p></p><p><font size="1">This message is intended only for the personal and confidential use of the recipients named above.  If the reader of this email is not the intended recipient, you have received this email in error and any review, dissemination, distribution or copying is strictly prohibited.</font><font size="1">  If you have received this email in error, please notify the sender immediately by return email and permanently delete the copy you received.  This message is provided for informational purposes and should not be construed as a solicitation or offer to buy or sell any securities or related financial instruments.</font><font size="1">  Neither CTC Holdings nor any affiliates (CTC) are responsible for any recommendation, solicitation, offer or agreement or any information about any transaction, customer account or account activity that may be attached to or contained in this communication. CTC accepts no liability for any content contained in the email, or any errors or omissions arising as a result of e-mail transmission.</font><font size="1">  Any opinions contained in this email constitute the sender's best judgment at this time and are subject to change without notice. CTC London Limited is authorized and regulated by the Financial Services Authority.</font></p>

</div>


<br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker" target="_blank">http://developerbugs.linux-foundation.org/enter_bug.cgi?product=Pacemaker</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Mike Diehn<br>Senior Systems Administrator<br>ANSYS, Inc - Lebanon, NH Office<br><a href="mailto:mike.diehn@ansys.com">mike.diehn@ansys.com</a>, (603) 727-5492<br>
</div></div>