<div dir="ltr">Hi,<div><br></div><div>I'm trying to set up a three node cluster using pacemaker+corosync, and I installed the required packages on each node, checked for their network connectivity so they can see each other, added the required startup scripts and edited the cluster.conf file as well so it includes all three nodes.</div>
<div><br></div><div>Now, when on the first node, I attempt to start up cman using service cman start, it times out thus:</div><div><br></div><div><p style="margin:0px;font-size:11px;font-family:Menlo">vagrant@precise64-pmk1:~$ sudo service cman start</p>

<p style="margin:0px;font-size:11px;font-family:Menlo">Starting cluster: </p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Checking if cluster has been disabled at boot... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Checking Network Manager... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Global setup... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Loading kernel modules... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Mounting configfs... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Starting cman... [  OK  ]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">   Waiting for quorum... Timed-out waiting for cluster</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">[FAILED]</p>
<p style="margin:0px;font-size:11px;font-family:Menlo">vagrant@precise64-pmk1:~$</p></div><div><br></div><div>Why is this? Is it because I have three nodes to begin with in my /etc/cluster/cluster.conf, and so this node expects that the cluster quorum is 2, and so it should be able to talk to at least one other node? At this point, I haven't started the cman or pacemaker services on the other nodes.</div>
<div><br></div><div>If this is the case, what will happen when two nodes of the three die? In case cluster.conf changes accordingly to reflect the new cluster membership, what if all three nodes are simply powered off and one rebooted? The cluster will be down, won't it?</div>
<div><br></div><div>What is the best way to get around this? I don't want to set CMAN_QUORUM_TIMEOUT=0, since as I understand it, the node would then go ahead and start itself as a cluster without waiting for the other nodes, and if this causes my service to start up and it is already started/running on another node, it could cause issues.</div>
<div><br></div><div>Now, I don't know how to configure quorum disks for pacemaker - is it possible to do this with pacemaker? How does it work? What are the recommended ways to address the above problem? I infer that if this disk is configured, the node that grabs the disk first becomes the president of the pacemaker cluster. In this context, I have another question - does corosync have its own cluster membership state distributed across all cluster nodes? If so, I guess quorum is configured at the corosync level rather than at the pacemaker level?</div>
<div><br></div><div>Apologies in advance if my queries above are addressed in the documentation already - I felt it would be quicker and more accurate to ask the community for reliable info.</div><div><br></div><div>Thanks!</div>
<div>Regards,</div><div>Vijay</div><div><br></div><div><br></div></div>