<div dir="ltr"><div><div><div><div><div><div><div>Hi,<br><br></div>I have a pacemaker / corosync / cman cluster running on redhat 6.6.<br></div>Although cluster is working as expected, I have some trace of old failures (several monthes ago) I can&#39;t gert rid of.<br></div>Basically I have set cluster-recheck-interval=&quot;300&quot; and failure-timeout=&quot;600&quot; (in rsc_defaults) as shown bellow:<br><br>property $id=&quot;cib-bootstrap-options&quot; \<br>    dc-version=&quot;1.1.10-14.el6-368c726&quot; \<br>    cluster-infrastructure=&quot;cman&quot; \<br>    expected-quorum-votes=&quot;2&quot; \<br>    no-quorum-policy=&quot;ignore&quot; \<br>    stonith-enabled=&quot;false&quot; \<br>    last-lrm-refresh=&quot;1429702408&quot; \<br>    maintenance-mode=&quot;false&quot; \<br>    cluster-recheck-interval=&quot;300&quot;<br>rsc_defaults $id=&quot;rsc-options&quot; \<br>    failure-timeout=&quot;600&quot;<br><br></div>So I would expect old failure to be purged from the cib long ago, but actually I have the following when issuing crm_mon -frA1.<br><br>Migration summary:<br>* Node host1: <br>   etc_ml_drbd: migration-threshold=1000000 fail-count=244 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   spool_postfix_drbd_msg: migration-threshold=1000000 fail-count=244 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   lib_ml_drbd: migration-threshold=1000000 fail-count=244 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   lib_imap_drbd: migration-threshold=1000000 fail-count=244 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   spool_imap_drbd: migration-threshold=1000000 fail-count=11654 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   spool_ml_drbd: migration-threshold=1000000 fail-count=244 last-failure=&#39;Sat Feb 14 17:04:05 2015&#39;<br>   documents_drbd: migration-threshold=1000000 fail-count=248 last-failure=&#39;Sat Feb 14 17:58:55 2015&#39;<br>* Node host2 <br>   documents_drbd: migration-threshold=1000000 fail-count=548 last-failure=&#39;Sat Feb 14 16:26:33 2015&#39;<br><br></div>I have tried to crm_failcount -D the resources also tried cleanup... but it&#39;s still there!<br></div>How can I get reid of those record (so my monitoring tools stop complaining) .<br><br></div>Regards.</div>