dear all, <br>i configure pacemaker and corosync on 2 Centos 6.3 servers by following instruction on 'Cluster from Scratch'.<br>on the beginning, i follow 'Cluster from Scratch' edition 5. but, since i use centos, i change to 'Cluster from Scratch' edition 3 to configure active/active servers.<br>
Now on 1st server (cluster1), the Filesystem resource cannot start. the gfs2 filesystem can't be mounted.<br><br>this is the crm configuration<br clear="all">[root@cluster2 ~]# crm configure show<br>node cluster1 \<br>
    attributes standby="off"<br>node cluster2 \<br>    attributes standby="off"<br>primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>    params ip="xxx.xxx.xxx.229" cidr_netmask="32" clusterip_hash="sourceip" \<br>
    op monitor interval="30s"<br>primitive WebData ocf:linbit:drbd \<br>    params drbd_resource="wwwdata" \<br>    op monitor interval="60s"<br>primitive WebFS ocf:heartbeat:Filesystem \<br>
    params device="/dev/drbd/by-res/wwwdata" directory="/var/www/html" fstype="gfs2"<br>primitive WebSite ocf:heartbeat:apache \<br>    params configfile="/etc/httpd/conf/httpd.conf" statusurl="<a href="http://localhost/server-status">http://localhost/server-status</a>" \<br>
    op monitor interval="1min"<br>ms WebDataClone WebData \<br>    meta master-max="2" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"<br>clone WebFSClone WebFS<br>
clone WebIP ClusterIP \<br>    meta globally-unique="true" clone-max="2" clone-node-max="1" interleave="false"<br>clone WebSiteClone WebSite \<br>    meta interleave="false"<br>
colocation WebSite-with-WebFS inf: WebSiteClone WebFSClone<br>colocation colocation-WebSite-ClusterIP-INFINITY inf: WebSiteClone WebIP<br>colocation fs_on_drbd inf: WebFSClone WebDataClone:Master<br>order WebFS-after-WebData inf: WebDataClone:promote WebFSClone:start<br>
order WebSite-after-WebFS inf: WebFSClone WebSiteClone<br>order order-ClusterIP-WebSite-mandatory : WebIP:start WebSiteClone:start<br>property $id="cib-bootstrap-options" \<br>    dc-version="1.1.7-6.el6-148fccfd5985c5590cc601123c6c16e966b85d14" \<br>
    cluster-infrastructure="cman" \<br>    expected-quorum-votes="2" \<br>    stonith-enabled="false" \<br>    no-quorum-policy="ignore"<br>rsc_defaults $id="rsc-options" \<br>
    resource-stickiness="100"<br><br>when i want to mount the filesystem manually, this message appear :<br>[root@cluster1 ~]# mount /dev/drbd1 /mnt/<br>mount point already used or other mount in progress<br>error mounting lockproto lock_dlm<br>
<br>but when i check the mount, there is no mount from drbd<br><br>there is another strange thing, the 1st server (cluster1) cannot reboot. it hangs with message 'please standby while rebooting the system'. in the reboot process, there are 2 failed action which is related to fencing. i didn't configure any fencing yet. one of the failed action is : <br>
'stopping cluster<br>leaving fence domain .... found dlm lockspace /sys/kernel/dlm/web<br>fence_tool : cannot leave due to active system       [FAILED]'<br><br>please help me with this problem<br><br>-- <br>Best Regards,<br>
<br>Soni Maula Harriz<br>Database Administrator<br>PT. Data Aksara Sangkuriang<br><br>