<br><br><div class="gmail_quote">On 18 October 2010 11:13, Dan Frincu <span dir="ltr"><<a href="mailto:dfrincu@streamwide.ro">dfrincu@streamwide.ro</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin: 0pt 0pt 0pt 0.8ex; border-left: 1px solid rgb(204, 204, 204); padding-left: 1ex;">



  

<div bgcolor="#ffffff" text="#000000"><div><div></div><div class="h5">
Pavlos Parissis wrote:
<blockquote type="cite"><br>
  <br>
  <div class="gmail_quote">On 18 October 2010 10:52, Florian Haas <span dir="ltr"><<a href="mailto:florian.haas@linbit.com" target="_blank">florian.haas@linbit.com</a>></span>
wrote:<br>
  <blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
    <div>----- Original Message -----<br>
> From: "Andreas Vogelsang" <<a href="mailto:a.vogelsang@uni-muenster.de" target="_blank">a.vogelsang@uni-muenster.de</a>><br>
> To: <a href="mailto:pacemaker@oss.clusterlabs.org" target="_blank">pacemaker@oss.clusterlabs.org</a><br>
> Sent: Monday, October 18, 2010 9:46:12 AM<br>
> Subject: [Pacemaker] Question: How many nodes can join a cluster?<br>
> Hello,<br>
><br>
><br>
><br>
> I’m creating a presentation about a virtual Linux-HA Cluster. I
just<br>
> asked me how many nodes pacemaker can handle. Mr. Schwartzkopff
wrote<br>
> in his Book that Linux-HA version 2 can handle up to 16 Nodes. Is
this<br>
> also true for pacemaker?<br>
    </div>
  </blockquote>
  </div>
  <br>
I have been asked the same question and I said to them, let's say it is
126, what is the use of having 126 nodes in the cluster?<br>
Can someone imagine himself going through the logs to find why the
resource-XXX failed while there are 200 resources?!!<br>
  <br>
The only use of having 126 nodes is if you want to have HPC, but HPC is
total different story than high available clusters.<br>
Even in N+N setup I would go with more than 4 or 6 nodes.<br>
  <br>
  <br>
My 2 cents,<br>
Pavlos<br>
  <br>
  <br>
</blockquote></div></div>
Actually, the syslog_facility in corosync.conf allows you to specify
either a log file for each node in the cluster (locally), or setting up
a remote syslog server. Either way, identifying the node by hostname or
some other identifier should point out what is going on where. Granted,
it's a large amount of data to process, therefore (such is the case
with any large deployment) SNMP is a much better alternative for
tracking issues, or (if you have _126_ times the same resource) adding
some notification options to the RA might be a choice, such as SNMP
trap, or even email.<br>
<br>
BTW, I'm also interested in this, I remember reading something about 64
nodes, but I'd appreciate an official response.<br>
<br></div></blockquote></div>Have you ever done troubleshooting on a 4 node cluster at 01:00 night?<br>believe me it is not fun.<br><br>I don't say there are no use cases which require a lot of nodes, but I have my doubts if there are a lot of use cases for High Available Clusters. Adding without a second thought nodes and services increase complexity, which is one of the main root cause of major problems.<br>
<br><br>Cheers,<br>Pavlos<br><br><br>