Sorry but i have one stupid question<br><br>Do you have a dlm clone resource for use gfs2 in your cluster?<br><br><div class="gmail_quote">2012/2/16 âÏÇÏÍÏÌÏ× äÍÉÔÒÉÊ ÷ÉËÔÏÒÏ×ÉÞ <span dir="ltr"><<a href="mailto:beatseed@mail.ru">beatseed@mail.ru</a>></span><br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
this is $cat /proc/drbd<br>
version: 8.3.11 (api:88/proto:86-96)<br>
srcversion: DA5A13F16DE6553FC7CE9B2<br>
<br>
š1: cs:WFConnection ro:Primary/Unknown ds:UpToDate/DUnknown C r-----<br>
 š šns:0 nr:0 dw:0 dr:1616 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:327516<br>
<br>
i tryed to mount drbd resource by hand with:<br>
mount /dev/drbd/by-res/clusterdata /mnt/cluster<br>
and with<br>
mount /dev/drbd/by-disk/mapper/turrel-cluster_storage /mnt/cluster<br>
and with<br>
mount /dev/drbd1 /mnt/cluster<br>
each make this log entrys:<br>
Feb 16 15:00:52 turrel kernel: [80365.686822] dlm_new_lockspace error -512<br>
Feb 16 15:00:52 turrel kernel: [80539.590344] GFS2: fsid=: Trying to join cluster "lock_dlm", "tumba:data"<br>
Feb 16 15:00:52 turrel kernel: [80539.603545] dlm: Using TCP for communications<br>
Feb 16 15:00:52 turrel dlm_controld[855]: process_uevent online@ error -17 errno 11<br>
<br>
both tasks hang, only kill -9 can help<br>
after killing task i have this log entry:<br>
<br>
Feb 16 15:02:50 turrel kernel: [80657.576111] dlm: data: group join failed -512 0<br>
<br>
I can check gfs2 filesystem with:<br>
fsck.gfs2 /dev/drbd1<br>
<br>
Initializing fsck<br>
Validating Resource Group index.<br>
Level 1 RG check.<br>
(level 1 passed)<br>
Starting pass1<br>
Pass1 complete<br>
Starting pass1b<br>
Pass1b complete<br>
Starting pass1c<br>
Pass1c complete<br>
Starting pass2<br>
Pass2 complete<br>
Starting pass3<br>
Pass3 complete<br>
Starting pass4<br>
Pass4 complete<br>
Starting pass5<br>
Pass5 complete<br>
gfs2_fsck complete<br>
<br>
So, whart is going wrong? I can't get it.<br>
<br>
> Hi,<br>
> I have a trouble with my test configuration.<br>
> I build an Actice/Active cluster Ubuntu(11.10)+DRBD+Cman+Pacemaker+gfs2+Xen for test purpose.<br>
> Now i am doing some tests with availability. I am try to start šcluster on one node.<br>
><br>
> Trouble is - the Filesystem primitive ClusterFS (fs type=gfs2) does not start when one of two nodes is switched off.<br>
><br>
> Here my configuration:<br>
><br>
> node blaster \<br>
> š š š š attributes standby="off"<br>
> node turrel \<br>
> š š š š attributes standby="off"<br>
> primitive ClusterData ocf:linbit:drbd \<br>
> š š š š params drbd_resource="clusterdata" \<br>
> š š š š op monitor interval="60s"<br>
> primitive ClusterFS ocf:heartbeat:Filesystem \<br>
> š š š š params device="/dev/drbd/by-res/clusterdata" directory="/mnt/cluster" fstype="gfs2" \<br>
> š š š š op start interval="0" timeout="60s" \<br>
> š š š š op stop interval="0" timeout="60s" \<br>
> š š š š op monitor interval="60s" timeout="60s"<br>
> primitive ClusterIP ocf:heartbeat:IPaddr2 \<br>
> š š š š params ip="192.168.122.252" cidr_netmask="32" clusterip_hash="sourceip" \<br>
> š š š š op monitor interval="30s"<br>
> primitive SSH-stonith stonith:ssh \<br>
> š š š š params hostlist="turrel blaster" \<br>
> š š š š op monitor interval="60s"<br>
> primitive XenDom ocf:heartbeat:Xen \<br>
> š š š š params xmfile="/etc/xen/xen1.example.com.cfg" \<br>
> š š š š meta allow-migrate="true" is-managed="true" target-role="Stopped" \<br>
> š š š š utilization cores="1" mem="512" \<br>
> š š š š op monitor interval="30s" timeout="30s" \<br>
> š š š š op start interval="0" timeout="90s" \<br>
> š š š š op stop interval="0" timeout="300s"<br>
> ms ClusterDataClone ClusterData \<br>
> š š š š meta master-max="2" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"<br>
> clone ClusterFSClone ClusterFS \<br>
> š š š š meta target-role="Started" is-managed="true"<br>
> clone IP ClusterIP \<br>
> š š š š meta globally-unique="true" clone-max="2" clone-node-max="2"<br>
> clone SSH-stonithClone SSH-stonith<br>
> location prefere-blaster XenDom 50: blaster<br>
> colocation XenDom-with-ClusterFS inf: XenDom ClusterFSClone<br>
> colocation fs_on_drbd inf: ClusterFSClone ClusterDataClone:Master<br>
> order ClusterFS-after-ClusterData inf: ClusterDataClone:promote ClusterFSClone:start<br>
> order XenDom-after-ClusterFS inf: ClusterFSClone XenDom<br>
> property $id="cib-bootstrap-options" \<br>
> š š š š dc-version="1.1.5-01e86afaaa6d4a8c4836f68df80ababd6ca3902f" \<br>
> š š š š cluster-infrastructure="cman" \<br>
> š š š š expected-quorum-votes="2" \<br>
> š š š š stonith-enabled="true" \<br>
> š š š š no-quorum-policy="ignore" \<br>
> š š š š last-lrm-refresh="1329194925"<br>
> rsc_defaults $id="rsc-options" \<br>
> š š š š resource-stickiness="100"<br>
><br>
> Here is an $crm resource show:<br>
><br>
> Master/Slave Set: ClusterDataClone [ClusterData]<br>
> š š šMasters: [ turrel ]<br>
> š š šStopped: [ ClusterData:1 ]<br>
> šClone Set: IP [ClusterIP] (unique)<br>
> š š šClusterIP:0 š š š š(ocf::heartbeat:IPaddr2) Started<br>
> š š šClusterIP:1 š š š š(ocf::heartbeat:IPaddr2) Started<br>
> šClone Set: ClusterFSClone [ClusterFS]<br>
> š š šStopped: [ ClusterFS:0 ClusterFS:1 ]<br>
> šClone Set: SSH-stonithClone [SSH-stonith]<br>
> š š šStarted: [ turrel ]<br>
> š š šStopped: [ SSH-stonith:1 ]<br>
> šXenDom (ocf::heartbeat:Xen) Stopped<br>
><br>
> I tryed:<br>
> crm(live)resource# cleanup ClusterFSClone<br>
> Cleaning up ClusterFS:0 on turrel<br>
> Cleaning up ClusterFS:1 on turrel<br>
> Waiting for 3 replies from the CRMd... OK<br>
><br>
> I can see only warn message in /var/log/cluster/corosync.log<br>
> Feb 14 16:25:56 turrel pengine: <a href="tel:%5B1640" value="+491640">[1640</a>]: WARN: unpack_rsc_op: Processing failed op ClusterFS:0_start_0 on turrel: unknown exec error (-2)<br>
> and<br>
> Feb 14 16:25:56 turrel pengine: [1640]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
> Feb 14 16:25:56 turrel pengine: [1640]: WARN: common_apply_stickiness: Forcing ClusterFSClone away from turrel after 1000000 failures (max=1000000)<br>
><br>
> Direct me, please, what i need to check or else?<br>
><br>
> Best regards,<br>
> Dmitriy Bogomolov<br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
Best regards,<br>
Dmitriy Bogomolov<br>
<br>
_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>