Hello,<br><br>i running on a 2 node cluster with corosync & drbd in active/passive mode for mysql hight availablity.<br><br>The cluster working fine (failover/failback & replication ok), i have no network outage (network is monitored and i've not seen any failure) but split-brain occurs very often and i don't anderstand why, maybe you can help me?<br>

<br>I'm new pacemaker/corosync/DRBD user, so my cluster and drbd configuration are probably not optimal, so if you have any comments, tips or examples I would be very grateful!<br><br>Here is an exemple of corosync log when a split-brain occurs (1 hour log to see before/after split-brain):<br>

<br><a href="http://pastebin.com/3DprkcTA">http://pastebin.com/3DprkcTA</a><br><br>Thank you in advance for any help!<br><br><br>More details about my configuration:<br><br>I have:<br>One prefered "master" node (node1) on a virtual server, and one "slave" node on a physical server.<br>

On each server, <br>eth0 is connected on my main LAN for client/server communication (with cluster VIP)<br>Eth1 is connected on a dedicated Vlan for corosync communication (network: 192.168.3.0 /30)<br>Eth2 is connected on a dedicated Vlan for drbd replication (network: <a href="http://192.168.2.0/30">192.168.2.0/30</a>)<br>

<br>Here is my drbd configuration:<br><br><br>resource drbd-mysql {<br>protocol C;<br>    disk {<br>        on-io-error detach;<br>    }<br>    handlers {<br>        fence-peer "/usr/lib/drbd/crm-fence-peer.sh";<br>

        after-resync-target "/usr/lib/drbd/crm-unfence-peer.sh";<br>        split-brain "/usr/lib/drbd/notify-split-brain.sh root";<br>    }<br>    net {<br>        cram-hmac-alg sha1;<br>        shared-secret "secret";<br>

        after-sb-0pri discard-younger-primary;<br>        after-sb-1pri discard-secondary;<br>        after-sb-2pri call-pri-lost-after-sb;<br>    }<br>    startup {<br>        wfc-timeout  1;<br>        degr-wfc-timeout 1;<br>

    }<br>    on node1{<br>        device /dev/drbd1;<br>        address <a href="http://192.168.2.1:7801">192.168.2.1:7801</a>;<br>        disk /dev/sdb;<br>        meta-disk internal;<br>    }<br>    on node2 {<br>    device /dev/drbd1;<br>

    address <a href="http://192.168.2.2:7801">192.168.2.2:7801</a>;<br>    disk /dev/sdb;<br>    meta-disk internal;<br>    }<br>}<br><br><br>Here my cluster config:<br><br>node node1 \<br>        attributes standby="off"<br>

node node2 \<br>        attributes standby="off"<br>primitive Cluster-VIP ocf:heartbeat:IPaddr2 \<br>        params ip="10.1.0.130" broadcast="10.1.7.255" nic="eth0" cidr_netmask="21" iflabel="VIP1" \<br>

        op monitor interval="10s" timeout="20s" \<br>        meta is-managed="true"<br>primitive cluster_status_page ocf:heartbeat:ClusterMon \<br>        params pidfile="/var/run/crm_mon.pid" htmlfile="/var/www/html/cluster_status.html" \<br>

        op monitor interval="4s" timeout="20s"<br>primitive datavg ocf:heartbeat:LVM \<br>        params volgrpname="datavg" exclusive="true" \<br>        op start interval="0" timeout="30" \<br>

        op stop interval="0" timeout="30"<br>primitive drbd_mysql ocf:linbit:drbd \<br>        params drbd_resource="drbd-mysql" \<br>        op monitor interval="15s"<br>primitive fs_mysql ocf:heartbeat:Filesystem \<br>

        params device="/dev/datavg/data" directory="/data" fstype="ext4"<br>primitive mail_alert ocf:heartbeat:MailTo \<br>        params email="<a href="mailto:myemail@test.com">myemail@test.com</a>" \<br>

        op monitor interval="10" timeout="10" depth="0"<br>primitive mysqld ocf:heartbeat:mysql \<br>        params binary="/usr/bin/mysqld_safe" config="/etc/my.cnf" datadir="/data/mysql/databases" user="mysql" pid="/var/run/mysqld/mysqld.pid" socket="/var/lib/mysql/mysql.sock" test_passwd="cluster_test" test_table="Cluster_Test.dbcheck" test_user="cluster_test" \<br>

        op start interval="0" timeout="120" \<br>        op stop interval="0" timeout="120" \<br>        op monitor interval="30s" timeout="30s" OCF_CHECK_LEVEL="1" target-role="Started"<br>

group mysql datavg fs_mysql Cluster-VIP mysqld cluster_status_page mail_alert<br>ms ms_drbd_mysql drbd_mysql \<br>        meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1" notify="true"<br>

location mysql-preferred-node mysql inf: node1<br>colocation mysql_on_drbd inf: mysql ms_drbd_mysql:Master<br>order mysql_after_drbd inf: ms_drbd_mysql:promote mysql:start<br>property $id="cib-bootstrap-options" \<br>

        dc-version="1.1.6-3.el6-a02c0f19a00c1eb2527ad38f146ebc0834814558" \<br>        cluster-infrastructure="openais" \<br>        expected-quorum-votes="2" \<br>        stonith-enabled="false" \<br>

        no-quorum-policy="ignore" \<br>        last-lrm-refresh="1340701656"<br>rsc_defaults $id="rsc-options" \<br>        resource-stickiness="100" \<br>        migration-threshold="2" \<br>

        failure-timeout="30s"<br>