Thank for the link emmanuel, it seems to be a solution for my problem, i will test it!<br><br><br><br><div class="gmail_quote">2012/6/26 emmanuel segura <span dir="ltr"><<a href="mailto:emi2fast@gmail.com" target="_blank">emi2fast@gmail.com</a>></span><br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Look here <a href="http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html/Pacemaker_Explained/ch09s03s03.html" target="_blank">http://www.clusterlabs.org/doc/en-US/Pacemaker/1.1/html/Pacemaker_Explained/ch09s03s03.html</a><br>

<br>:-)<br>
<br><div class="gmail_quote">2012/6/26 coma <span dir="ltr"><<a href="mailto:coma.inf@gmail.com" target="_blank">coma.inf@gmail.com</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div><div class="h5">
Hello,<br><br>i running on a 2 node cluster with corosync & drbd in active/passive mode for mysql hight availablity.<br><br>The cluster working fine (failover/failback & replication ok), i have no network outage (network is monitored and i've not seen any failure) but split-brain occurs very often and i don't anderstand why, maybe you can help me?<br>




<br>I'm new pacemaker/corosync/DRBD user, so my cluster and drbd configuration are probably not optimal, so if you have any comments, tips or examples I would be very grateful!<br><br>Here is an exemple of corosync log when a split-brain occurs (1 hour log to see before/after split-brain):<br>




<br><a href="http://pastebin.com/3DprkcTA" target="_blank">http://pastebin.com/3DprkcTA</a><br><br>Thank you in advance for any help!<br><br><br>More details about my configuration:<br><br>I have:<br>One prefered "master" node (node1) on a virtual server, and one "slave" node on a physical server.<br>




On each server, <br>eth0 is connected on my main LAN for client/server communication (with cluster VIP)<br>Eth1 is connected on a dedicated Vlan for corosync communication (network: 192.168.3.0 /30)<br>Eth2 is connected on a dedicated Vlan for drbd replication (network: <a href="http://192.168.2.0/30" target="_blank">192.168.2.0/30</a>)<br>




<br>Here is my drbd configuration:<br><br><br>resource drbd-mysql {<br>protocol C;<br>    disk {<br>        on-io-error detach;<br>    }<br>    handlers {<br>        fence-peer "/usr/lib/drbd/crm-fence-peer.sh";<br>




        after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";<br>        split-brain "/usr/lib/drbd/notify-split-brain.sh root";<br>    }<br>    net {<br>        cram-hmac-alg sha1;<br>        shared-secret "secret";<br>




        after-sb-0pri discard-younger-primary;<br>        after-sb-1pri discard-secondary;<br>        after-sb-2pri call-pri-lost-after-sb;<br>    }<br>    startup {<br>        wfc-timeout  1;<br>        degr-wfc-timeout 1;<br>




    }<br>    on node1{<br>        device /dev/drbd1;<br>        address <a href="http://192.168.2.1:7801" target="_blank">192.168.2.1:7801</a>;<br>        disk /dev/sdb;<br>        meta-disk internal;<br>    }<br>    on node2 {<br>


    device /dev/drbd1;<br>

    address <a href="http://192.168.2.2:7801" target="_blank">192.168.2.2:7801</a>;<br>    disk /dev/sdb;<br>    meta-disk internal;<br>    }<br>}<br><br><br>Here my cluster config:<br><br>node node1 \<br>        attributes standby="off"<br>




node node2 \<br>        attributes standby="off"<br>primitive Cluster-VIP ocf:heartbeat:IPaddr2 \<br>        params ip="10.1.0.130" broadcast="10.1.7.255" nic="eth0" cidr_netmask="21" iflabel="VIP1" \<br>




        op monitor interval="10s" timeout="20s" \<br>        meta is-managed="true"<br>primitive cluster_status_page ocf:heartbeat:ClusterMon \<br>        params pidfile="/var/run/crm_mon.pid" htmlfile="/var/www/html/cluster_status.html" \<br>




        op monitor interval="4s" timeout="20s"<br>primitive datavg ocf:heartbeat:LVM \<br>        params volgrpname="datavg" exclusive="true" \<br>        op start interval="0" timeout="30" \<br>




        op stop interval="0" timeout="30"<br>primitive drbd_mysql ocf:linbit:drbd \<br>        params drbd_resource="drbd-mysql" \<br>        op monitor interval="15s"<br>primitive fs_mysql ocf:heartbeat:Filesystem \<br>




        params device="/dev/datavg/data" directory="/data" fstype="ext4"<br>primitive mail_alert ocf:heartbeat:MailTo \<br>        params email="<a href="mailto:myemail@test.com" target="_blank">myemail@test.com</a>" \<br>




        op monitor interval="10" timeout="10" depth="0"<br>primitive mysqld ocf:heartbeat:mysql \<br>        params binary="/usr/bin/mysqld_safe" config="/etc/my.cnf" datadir="/data/mysql/databases" user="mysql" pid="/var/run/mysqld/mysqld.pid" socket="/var/lib/mysql/mysql.sock" test_passwd="cluster_test" test_table="Cluster_Test.dbcheck" test_user="cluster_test" \<br>




        op start interval="0" timeout="120" \<br>        op stop interval="0" timeout="120" \<br>        op monitor interval="30s" timeout="30s" OCF_CHECK_LEVEL="1" target-role="Started"<br>




group mysql datavg fs_mysql Cluster-VIP mysqld cluster_status_page mail_alert<br>ms ms_drbd_mysql drbd_mysql \<br>        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"<br>




location mysql-preferred-node mysql inf: node1<br>colocation mysql_on_drbd inf: mysql ms_drbd_mysql:Master<br>order mysql_after_drbd inf: ms_drbd_mysql:promote mysql:start<br>property $id="cib-bootstrap-options" \<br>




        dc-version="1.1.6-3.el6-a02c0f19a00c1eb2527ad38f146ebc0834814558" \<br>        cluster-infrastructure="openais" \<br>        expected-quorum-votes="2" \<br>        stonith-enabled="false" \<br>




        no-quorum-policy="ignore" \<br>        last-lrm-refresh="1340701656"<br>rsc_defaults $id="rsc-options" \<br>        resource-stickiness="100" \<br>        migration-threshold="2" \<br>




        failure-timeout="30s"<br>
<br></div></div>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org" target="_blank">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><span class="HOEnZb"><font color="#888888"><br><br clear="all"><br>-- <br>esta es mi vida e me la vivo hasta que dios quiera<br>
</font></span><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br>