<div style="line-height:1.7;color:#000000;font-size:14px;font-family:Arial"><div>Hi,</div><div><br></div><div>This is a continuation of the email below(I did not subscrib this maillist)</div><div><br></div><div>http://clusterlabs.org/pipermail/users/2016-August/003838.html</div><div><br></div><div>>>From the above, I suspect that the node with the network loss was the</div><div>>DC, and from its point of view, it was the other node that went away.</div><div><br></div><div>Yes. the node with the network loss was DC(node2)</div><div><br></div><div>Could someone explain what's the following messges means, and </div><div>why pacemakerd process exit instead of rejoin to CPG group?</div><div><br></div><div>> Aug 27 12:33:59 [46849] node3 pacemakerd:    error: pcmk_cpg_membership:</div><div>>        We're not part of CPG group 'pacemakerd' anymore!</div><div><br></div><div><br></div><div>>> [root at node3 ~]# rpm -q corosync</div><div>>> corosync-1.4.1-7.el6.x86_64</div><div>>That is quite old ...</div><div>>> [root at node3 ~]# cat /etc/redhat-release </div><div>>> CentOS release 6.3 (Final)</div><div>>> [root at node3 ~]# pacemakerd -F</div><div>> Pacemaker 1.1.14-1.el6 (Build: 70404b0)</div><div>>and I doubt that many people have tested Pacemaker 1.1.14 against</div><div>>corosync 1.4.1 ... quite far away from</div><div>>each other release-wise ...</div><div><br></div><div>pacemaker 1.1.14 + corosync-1.4.7 can also reproduced this probleam, but seems with lower probability.</div></div>