<html><head></head><body><div style="font-family: Verdana;font-size: 12.0px;"><div>
<div>I can also agree patch is working.</div>

<div> </div>

<div>To be sure, that it had to do with notify, i have created a clone resource with notify=true and it happened to same way, after notify monitor was not called again.</div>

<div> </div>

<div>With patch applied it works also for clone resources.</div>

<div>And from my output of the modified resource agents i can see on the timestamps of applied calls that there is no interruption of monitor operation.</div>

<div>
<div>Thu Aug 1 10:34:53 CEST 2013 resABC: operation monitor, type , operation<br/>
Thu Aug 1 10:34:59 CEST 2013 resABC: operation notify, type pre, operation start<br/>
Thu Aug 1 10:34:59 CEST 2013 resABC: operation notify, type post, operation start<br/>
Thu Aug 1 10:35:13 CEST 2013 resABC: operation monitor, type , operation</div>

<div>Monitor interval is set to 20 seconds and it is called at this intervals even if notify is in between.</div>
</div>

<div> </div>

<div>Some hint for the check of sufficency:</div>

<div>On the original 1.1.10 version (without patch) i have tried some resource configuration change on clone resource with notify=true, which result in a "reload" call of the resource agent.</div>

<div>After logging reload, monitor starts again on both nodes.</div>

<div>
<div>
<div>Thu Aug 1 09:28:31 CEST 2013 resX: operation monitor, type , operation<br/>
Thu Aug 1 09:28:48 CEST 2013 resX: operation notify, type pre, operation start<br/>
Thu Aug 1 09:28:48 CEST 2013 resX: operation notify, type post, operation start<br/>
Thu Aug 1 09:38:47 CEST 2013 resX: operation reload, type , operation<br/>
Thu Aug 1 09:38:47 CEST 2013 resX: operation monitor, type , operation</div>

<div> </div>
</div>

<div>Will there be a new tag (like 1.1.10-2) for version 1.1.10 with applied patch ?</div>

<div> </div>

<div>Rainer</div>

<div name="quote" style="margin:10px 5px 5px 10px; padding: 10px 0 10px 10px; border-left:2px solid #C3D9E5; word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">
<div style="margin:0 0 10px 0;"><b>Gesendet:</b> Donnerstag, 01. August 2013 um 05:56 Uhr<br/>
<b>Von:</b> "Takatoshi MATSUO" <matsuo.tak@gmail.com><br/>
<b>An:</b> "The Pacemaker cluster resource manager" <pacemaker@oss.clusterlabs.org><br/>
<b>Betreff:</b> Re: [Pacemaker] Announce: Pacemaker 1.1.10 now available</div>

<div name="quoted-content">Hi Andrew<br/>
<br/>
This patch works fine.<br/>
<br/>
2013/8/1 Andrew Beekhof <andrew@beekhof.net>:<br/>
><br/>
> On 01/08/2013, at 10:18 AM, Takatoshi MATSUO <matsuo.tak@gmail.com> wrote:<br/>
><br/>
>> Hi Andrew<br/>
>><br/>
>> I'm about to collect logs of crm_report,<br/>
>> but Rainer already provides it.<br/>
>><br/>
>> Could you see his reports ?<br/>
><br/>
> I had just written:<br/>
><br/>
> "I can but they're insufficiently helpful."<br/>
><br/>
> when a thought struck me....<br/>
><br/>
> Can you try the following patch?<br/>
> It would explain why I couldn't reproduce it locally earlier today.<br/>
><br/>
> diff --git a/crmd/lrm.c b/crmd/lrm.c<br/>
> index d6b0dd0..4bce39a 100644<br/>
> --- a/crmd/lrm.c<br/>
> +++ b/crmd/lrm.c<br/>
> @@ -1744,7 +1744,9 @@ do_lrm_rsc_op(lrm_state_t * lrm_state, lrmd_rsc_info_t * rsc, const char *operat<br/>
> CRM_CHECK(op != NULL, return);<br/>
><br/>
> /* stop any previous monitor operations before changing the resource state */<br/>
> - if (op->interval == 0 && strcmp(operation, CRMD_ACTION_STATUS) != 0) {<br/>
> + if (op->interval == 0<br/>
> + && strcmp(operation, CRMD_ACTION_STATUS) != 0<br/>
> + && strcmp(operation, CRMD_ACTION_NOTIFY) != 0) {<br/>
> guint removed = 0;<br/>
> struct stop_recurring_action_s data;<br/>
><br/>
><br/>
><br/>
>><br/>
>> Thanks,<br/>
>> Takatoshi MATSUO<br/>
>><br/>
>><br/>
>> 2013/8/1 Rainer Brestan <rainer.brestan@gmx.net>:<br/>
>>> Base situation for the logs:<br/>
>>> Pacemaker stop on int2node1 and int2node2<br/>
>>> Master/slave resource msABC already configured.<br/>
>>> Included in the crm_report is also per node a file "a", this is the one,<br/>
>>> which the modified Stateful RA writes to log each action performed.<br/>
>>><br/>
>>> 1.) 19:22:25 start Pacemaker on int2node1<br/>
>>> <a href="https://www.dropbox.com/s/ftbdl71ol2iyi42/step1.log.tar.bz2" target="_blank">https://www.dropbox.com/s/ftbdl71ol2iyi42/step1.log.tar.bz2</a><br/>
>>> monitor on master is called<br/>
>>><br/>
>>> 2.) 19:32:14 start Pacemaker on int2node2<br/>
>>> <a href="https://www.dropbox.com/s/s3jnxqvod9mlyz1/step2.log.tar.bz2" target="_blank">https://www.dropbox.com/s/s3jnxqvod9mlyz1/step2.log.tar.bz2</a><br/>
>>> monitor on master is not called any more<br/>
>>><br/>
>>> 3.) 19:37:14 stop Pacemaker on int2node2<br/>
>>> <a href="https://www.dropbox.com/s/w75myab6fxh7mak/step3.log.tar.bz2" target="_blank">https://www.dropbox.com/s/w75myab6fxh7mak/step3.log.tar.bz2</a><br/>
>>> monitor on master is still not called any more<br/>
>>><br/>
>>> 4.) 19:42:14 start Pacemaker on in2node2<br/>
>>> <a href="https://www.dropbox.com/s/p00wl9kx4vwhilh/step4.log.tar.bz2" target="_blank">https://www.dropbox.com/s/p00wl9kx4vwhilh/step4.log.tar.bz2</a><br/>
>>> monitor on master is called normally<br/>
>>><br/>
>>> Hope this gives a clearer picture which component has forgotten the monitor<br/>
>>> action.<br/>
>>><br/>
>>> Rainer<br/>
>>> Gesendet: Mittwoch, 31. Juli 2013 um 14:19 Uhr<br/>
>>><br/>
>>> Von: "Andrew Beekhof" <andrew@beekhof.net><br/>
>>> An: "The Pacemaker cluster resource manager" <pacemaker@oss.clusterlabs.org><br/>
>>> Betreff: Re: [Pacemaker] Announce: Pacemaker 1.1.10 now available<br/>
>>><br/>
>>> On 31/07/2013, at 5:17 PM, Rainer Brestan <rainer.brestan@gmx.net> wrote:<br/>
>>><br/>
>>>> Modified the RA to log each action call performed and from this log there<br/>
>>>> is no call of monitor action.<br/>
>>>><br/>
>>>> From the logs i do not think it is the policy engine, it might be the LRM<br/>
>>>> part of crmd (the is the only relevant change be seen after git diff between<br/>
>>>> 1.1.10-rc7 and 1.1.10).<br/>
>>><br/>
>>> Ok. Can you still send me a crm_report though?<br/>
>>> Even if the PE isn't at fault, it shows me what the cib looked like at the<br/>
>>> time which can be surprisingly helpful.<br/>
>>> And it would have all the logs...<br/>
>>><br/>
>>>><br/>
>>>> Explanation of the below log:<br/>
>>>> primitive resABC ocf:heartbeat:Stateful \<br/>
>>>> op start interval="0s" timeout="60s" on-fail="restart" \<br/>
>>>> op monitor interval="30s" timeout="60s" on-fail="restart" \<br/>
>>>> op promote interval="0s" timeout="60s" on-fail="restart" \<br/>
>>>> op demote interval="0" timeout="60s" on-fail="restart" \<br/>
>>>> op stop interval="0" timeout="60s" on-fail="restart" \<br/>
>>>> op monitor interval="20" role="Master" timeout="60"<br/>
>>>> ms msABC resABC \<br/>
>>>> meta master-max="1" master-node-max="1" clone-max="2" clone-node-max="1"<br/>
>>>> notify="true"<br/>
>>>> crm_mon at begin of log:<br/>
>>>> Last updated: Wed Jul 31 08:30:57 2013<br/>
>>>> Last change: Tue Jul 30 13:01:36 2013 via crmd on int2node1<br/>
>>>> Stack: corosync<br/>
>>>> Current DC: int2node1 (1743917066) - partition with quorum<br/>
>>>> Version: 1.1.10-1.el6-368c726<br/>
>>>> 2 Nodes configured<br/>
>>>> 5 Resources configured<br/>
>>>> Online: [ int2node1 int2node2 ]<br/>
>>>> Master/Slave Set: msABC [resABC]<br/>
>>>> Masters: [ int2node1 ]<br/>
>>>> Slaves: [ int2node2 ]<br/>
>>>> crm_mon at end of log:<br/>
>>>> Last updated: Wed Jul 31 08:55:29 2013<br/>
>>>> Last change: Tue Jul 30 13:01:36 2013 via crmd on int2node1<br/>
>>>> Stack: corosync<br/>
>>>> Current DC: int2node1 (1743917066) - partition with quorum<br/>
>>>> Version: 1.1.10-1.el6-368c726<br/>
>>>> 2 Nodes configured<br/>
>>>> 5 Resources configured<br/>
>>>> Online: [ int2node1 ]<br/>
>>>> OFFLINE: [ int2node2 ]<br/>
>>>> Master/Slave Set: msABC [resABC]<br/>
>>>> Masters: [ int2node1 ]<br/>
>>>><br/>
>>>> int2node1 is running, int2node2 is started<br/>
>>>> 2013-07-31T08:30:52.631+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> LogActions: Start resABC:1 (int2node2)<br/>
>>>> 2013-07-31T08:30:52.638+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 9: monitor resABC:1_monitor_0 on int2node2<br/>
>>>> 2013-07-31T08:30:52.638+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 54: notify resABC_pre_notify_start_0 on<br/>
>>>> int2node1 (local)<br/>
>>>> 2013-07-31T08:30:52.681+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> process_lrm_event: LRM operation resABC_notify_0 (call=64, rc=0,<br/>
>>>> cib-update=0, confirmed=true) ok<br/>
>>>> 2013-07-31T08:30:52.780+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 25: start resABC:1_start_0 on int2node2<br/>
>>>> 2013-07-31T08:30:52.940+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 55: notify resABC_post_notify_start_0 on<br/>
>>>> int2node1 (local)<br/>
>>>> 2013-07-31T08:30:52.943+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 56: notify resABC:1_post_notify_start_0 on<br/>
>>>> int2node2<br/>
>>>> 2013-07-31T08:30:52.982+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> process_lrm_event: LRM operation resABC_notify_0 (call=67, rc=0,<br/>
>>>> cib-update=0, confirmed=true) ok<br/>
>>>> 2013-07-31T08:30:52.992+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 24: monitor resABC_monitor_20000 on<br/>
>>>> int2node1 (local)<br/>
>>>> 2013-07-31T08:30:52.996+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 26: monitor resABC:1_monitor_30000 on<br/>
>>>> int2node2<br/>
>>>> 2013-07-31T08:30:53.035+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> process_lrm_event: LRM operation resABC_monitor_20000 (call=70, rc=8,<br/>
>>>> cib-update=149, confirmed=false) master<br/>
>>>><br/>
>>>> At this point int2node2 is stopped.<br/>
>>>> 2013-07-31T08:37:51.457+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> do_state_transition: State transition S_IDLE -> S_POLICY_ENGINE [<br/>
>>>> input=I_PE_CALC cause=C_FSA_INTERNAL origin=abort_transition_graph ]<br/>
>>>> 2013-07-31T08:37:51.462+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> unpack_config: On loss of CCM Quorum: Ignore<br/>
>>>> 2013-07-31T08:37:51.465+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> stage6: Scheduling Node int2node2 for shutdown<br/>
>>>> 2013-07-31T08:37:51.466+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> LogActions: Stop resABC:1 (int2node2)<br/>
>>>> 2013-07-31T08:37:51.469+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> process_pe_message: Calculated Transition 86:<br/>
>>>> /var/lib/pacemaker/pengine/pe-input-125.bz2<br/>
>>>> 2013-07-31T08:37:51.471+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 56: notify resABC_pre_notify_stop_0 on<br/>
>>>> int2node1 (local)<br/>
>>>> 2013-07-31T08:37:51.474+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 58: notify resABC_pre_notify_stop_0 on<br/>
>>>> int2node2<br/>
>>>> 2013-07-31T08:37:51.512+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> process_lrm_event: LRM operation resABC_notify_0 (call=74, rc=0,<br/>
>>>> cib-update=0, confirmed=true) ok<br/>
>>>> 2013-07-31T08:37:51.514+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 23: stop resABC_stop_0 on int2node2<br/>
>>>> 2013-07-31T08:37:51.654+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> te_rsc_command: Initiating action 57: notify resABC_post_notify_stop_0 on<br/>
>>>> int2node1 (local)<br/>
>>>> 2013-07-31T08:37:51.699+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> process_lrm_event: LRM operation resABC_notify_0 (call=78, rc=0,<br/>
>>>> cib-update=0, confirmed=true) ok<br/>
>>>> 2013-07-31T08:37:51.699+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> run_graph: Transition 86 (Complete=13, Pending=0, Fired=0, Skipped=2,<br/>
>>>> Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-125.bz2): Stopped<br/>
>>>> 2013-07-31T08:37:51.705+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> unpack_config: On loss of CCM Quorum: Ignore<br/>
>>>> 2013-07-31T08:37:51.705+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> stage6: Scheduling Node int2node2 for shutdown<br/>
>>>> 2013-07-31T08:37:51.706+02:00 int2node1 pengine[16443] notice: notice:<br/>
>>>> process_pe_message: Calculated Transition 87:<br/>
>>>> /var/lib/pacemaker/pengine/pe-input-126.bz2<br/>
>>>> 2013-07-31T08:37:51.707+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> run_graph: Transition 87 (Complete=1, Pending=0, Fired=0, Skipped=0,<br/>
>>>> Incomplete=0, Source=/var/lib/pacemaker/pengine/pe-input-126.bz2): Complete<br/>
>>>> 2013-07-31T08:37:51.707+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> do_state_transition: State transition S_TRANSITION_ENGINE -> S_IDLE [<br/>
>>>> input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br/>
>>>> 2013-07-31T08:37:51.720+02:00 int2node1 crmd[16444] notice: notice:<br/>
>>>> peer_update_callback: do_shutdown of int2node2 (op 45) is complete<br/>
>>>><br/>
>>>> Output from RA on int2node1:<br/>
>>>> Wed Jul 31 08:30:52 CEST 2013 resABC: operation notify, type pre,<br/>
>>>> operation start<br/>
>>>> Wed Jul 31 08:30:52 CEST 2013 resABC: operation notify, type post,<br/>
>>>> operation start<br/>
>>>> Wed Jul 31 08:30:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:31:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:31:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:31:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:32:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:32:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:32:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:33:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:33:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:33:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:34:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:34:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:34:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:35:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:35:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:35:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:36:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:36:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:36:53 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:37:13 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:37:33 CEST 2013 resABC: operation monitor, type , operation<br/>
>>>> Wed Jul 31 08:37:51 CEST 2013 resABC: operation notify, type pre,<br/>
>>>> operation stop<br/>
>>>> Wed Jul 31 08:37:51 CEST 2013 resABC: operation notify, type post,<br/>
>>>> operation stop<br/>
>>>><br/>
>>>> After 08:37:51 no log output from Pacemaker for resABC, nor any output<br/>
>>>> from RA on int2node1.<br/>
>>>><br/>
>>>> Gesendet: Mittwoch, 31. Juli 2013 um 02:10 Uhr<br/>
>>>> Von: "Andrew Beekhof" <andrew@beekhof.net><br/>
>>>> An: "The Pacemaker cluster resource manager"<br/>
>>>> <pacemaker@oss.clusterlabs.org><br/>
>>>> Betreff: Re: [Pacemaker] Announce: Pacemaker 1.1.10 now available<br/>
>>>><br/>
>>>> On 30/07/2013, at 9:13 PM, Rainer Brestan <rainer.brestan@gmx.net> wrote:<br/>
>>>><br/>
>>>>> I can agree, Master monitor operation is broken in 1.1.10 release.<br/>
>>>>> When the slave monitor action is started, the master monitor action is<br/>
>>>>> not called any more.<br/>
>>>><br/>
>>>> Based on?<br/>
>>>><br/>
>>>>><br/>
>>>>> I have created a setup with Stateful resource with two nodes.<br/>
>>>>> Then the Pacemaker installation is changed to different versions without<br/>
>>>>> changing the configuration part of the CIB.<br/>
>>>>><br/>
>>>>> Result:<br/>
>>>>> 1.1.10-rc5, 1.1.10-rc6 and 1.1.10-rc7 does not have this error<br/>
>>>>> 1.1.10-1 release has the error<br/>
>>>>><br/>
>>>>> Installation order (just that anybody know how it was done):<br/>
>>>>> 1.1.10-1 -> error<br/>
>>>>> 1.1.10-rc5 -> no error<br/>
>>>>> 1.1.10-rc6 -> no error<br/>
>>>>> 1.1.10-rc7 -> no error<br/>
>>>>> 1.1.10-1 -> error<br/>
>>>>><br/>
>>>>> Rainer<br/>
>>>>> Gesendet: Freitag, 26. Juli 2013 um 09:32 Uhr<br/>
>>>>> Von: "Takatoshi MATSUO" <matsuo.tak@gmail.com><br/>
>>>>> An: "The Pacemaker cluster resource manager"<br/>
>>>>> <pacemaker@oss.clusterlabs.org><br/>
>>>>> Betreff: Re: [Pacemaker] Announce: Pacemaker 1.1.10 now available<br/>
>>>>> Hi<br/>
>>>>><br/>
>>>>> I used Stateful RA and caught a same issue.<br/>
>>>>><br/>
>>>>> 1. before starting slave<br/>
>>>>><br/>
>>>>> # crm_simulate -VVV -S -x /var/lib/pacemaker/pengine/pe-input-1543.bz2<br/>
>>>>> | grep "Resource action"<br/>
>>>>> * Resource action: stateful monitor=2000 on 16-sl6<br/>
>>>>><br/>
>>>>> 2. starting slave<br/>
>>>>> # crm_simulate -VVV -S -x /var/lib/pacemaker/pengine/pe-input-1544.bz2<br/>
>>>>> | grep "Resource action"<br/>
>>>>> * Resource action: stateful monitor on 17-sl6<br/>
>>>>> * Resource action: stateful notify on 16-sl6<br/>
>>>>> * Resource action: stateful start on 17-sl6<br/>
>>>>> * Resource action: stateful notify on 16-sl6<br/>
>>>>> * Resource action: stateful notify on 17-sl6<br/>
>>>>> * Resource action: stateful monitor=3000 on 17-sl6<br/>
>>>>><br/>
>>>>> 3. after<br/>
>>>>> # crm_simulate -VVV -S -x /var/lib/pacemaker/pengine/pe-input-1545.bz2<br/>
>>>>> | grep "Resource action"<br/>
>>>>> * Resource action: stateful monitor=3000 on 17-sl6<br/>
>>>>><br/>
>>>>> Monitor=2000 is deleted.<br/>
>>>>> Is this correct ?<br/>
>>>>><br/>
>>>>><br/>
>>>>> My setting<br/>
>>>>> --------<br/>
>>>>> property \<br/>
>>>>> no-quorum-policy="ignore" \<br/>
>>>>> stonith-enabled="false"<br/>
>>>>><br/>
>>>>> rsc_defaults \<br/>
>>>>> resource-stickiness="INFINITY" \<br/>
>>>>> migration-threshold="1"<br/>
>>>>><br/>
>>>>> ms msStateful stateful \<br/>
>>>>> meta \<br/>
>>>>> master-max="1" \<br/>
>>>>> master-node-max="1" \<br/>
>>>>> clone-max="2" \<br/>
>>>>> clone-node-max="1" \<br/>
>>>>> notify="true"<br/>
>>>>><br/>
>>>>> primitive stateful ocf:heartbeat:Stateful \<br/>
>>>>> op start timeout="60s" interval="0s" on-fail="restart" \<br/>
>>>>> op monitor timeout="60s" interval="3s" on-fail="restart" \<br/>
>>>>> op monitor timeout="60s" interval="2s" on-fail="restart" role="Master" \<br/>
>>>>> op promote timeout="60s" interval="0s" on-fail="restart" \<br/>
>>>>> op demote timeout="60s" interval="0s" on-fail="stop" \<br/>
>>>>> op stop timeout="60s" interval="0s" on-fail="block"<br/>
>>>>> --------<br/>
>>>>><br/>
>>>>> Regards,<br/>
>>>>> Takatoshi MATSUO<br/>
>>>>><br/>
>>>>> 2013/7/26 Takatoshi MATSUO <matsuo.tak@gmail.com>:<br/>
>>>>>> Hi<br/>
>>>>>><br/>
>>>>>> My report is late for 1.1.10 :(<br/>
>>>>>><br/>
>>>>>> I am using pacemaker 1.1.10-0.1.ab2e209.git.<br/>
>>>>>> It seems that master's monitor is stopped when slave is started.<br/>
>>>>>><br/>
>>>>>> Does someone encounter same problem ?<br/>
>>>>>> I attach a log and settings.<br/>
>>>>>><br/>
>>>>>><br/>
>>>>>> Thanks,<br/>
>>>>>> Takatoshi MATSUO<br/>
>>>>>><br/>
>>>>>> 2013/7/26 Digimer <lists@alteeve.ca>:<br/>
>>>>>>> Congrats!! I know this was a long time in the making.<br/>
>>>>>>><br/>
>>>>>>> digimer<br/>
>>>>>>><br/>
>>>>>>><br/>
>>>>>>> On 25/07/13 20:43, Andrew Beekhof wrote:<br/>
>>>>>>>><br/>
>>>>>>>> Announcing the release of Pacemaker 1.1.10<br/>
>>>>>>>><br/>
>>>>>>>> <a href="https://github.com/ClusterLabs/pacemaker/releases/Pacemaker-1.1.10" target="_blank">https://github.com/ClusterLabs/pacemaker/releases/Pacemaker-1.1.10</a><br/>
>>>>>>>><br/>
>>>>>>>> There were three changes of note since rc7:<br/>
>>>>>>>><br/>
>>>>>>>> + Bug cl#5161 - crmd: Prevent memory leak in operation cache<br/>
>>>>>>>> + cib: Correctly read back archived configurations if the primary is<br/>
>>>>>>>> corrupted<br/>
>>>>>>>> + cman: Do not pretend we know the state of nodes we've never seen<br/>
>>>>>>>><br/>
>>>>>>>> Along with assorted bug fixes, the major topics for this release<br/>
>>>>>>>> were:<br/>
>>>>>>>><br/>
>>>>>>>> - stonithd fixes<br/>
>>>>>>>> - fixing memory leaks, often caused by incorrect use of glib<br/>
>>>>>>>> reference<br/>
>>>>>>>> counting<br/>
>>>>>>>> - supportability improvements (code cleanup and deduplication,<br/>
>>>>>>>> standardized error codes)<br/>
>>>>>>>><br/>
>>>>>>>> Release candidates for the next Pacemaker release (1.1.11) can be<br/>
>>>>>>>> expected some time around Novemeber.<br/>
>>>>>>>><br/>
>>>>>>>> A big thankyou to everyone that spent time testing the release<br/>
>>>>>>>> candidates and/or contributed patches. However now that Pacemaker is<br/>
>>>>>>>> perfect, anyone reporting bugs will be shot :-)<br/>
>>>>>>>><br/>
>>>>>>>> To build `rpm` packages:<br/>
>>>>>>>><br/>
>>>>>>>> 1. Clone the current sources:<br/>
>>>>>>>><br/>
>>>>>>>> # git clone --depth 0 git://github.com/ClusterLabs/pacemaker.git<br/>
>>>>>>>> # cd pacemaker<br/>
>>>>>>>><br/>
>>>>>>>> 1. Install dependancies (if you haven't already)<br/>
>>>>>>>><br/>
>>>>>>>> [Fedora] # sudo yum install -y yum-utils<br/>
>>>>>>>> [ALL] # make rpm-dep<br/>
>>>>>>>><br/>
>>>>>>>> 1. Build Pacemaker<br/>
>>>>>>>><br/>
>>>>>>>> # make release<br/>
>>>>>>>><br/>
>>>>>>>> 1. Copy and deploy as needed<br/>
>>>>>>>><br/>
>>>>>>>> ## Details - 1.1.10 - final<br/>
>>>>>>>><br/>
>>>>>>>> Changesets: 602<br/>
>>>>>>>> Diff: 143 files changed, 8162 insertions(+), 5159 deletions(-)<br/>
>>>>>>>><br/>
>>>>>>>> ## Highlights<br/>
>>>>>>>><br/>
>>>>>>>> ### Features added since Pacemaker-1.1.9<br/>
>>>>>>>><br/>
>>>>>>>> + Core: Convert all exit codes to positive errno values<br/>
>>>>>>>> + crm_error: Add the ability to list and print error symbols<br/>
>>>>>>>> + crm_resource: Allow individual resources to be reprobed<br/>
>>>>>>>> + crm_resource: Allow options to be set recursively<br/>
>>>>>>>> + crm_resource: Implement --ban for moving resources away from nodes<br/>
>>>>>>>> and --clear (replaces --unmove)<br/>
>>>>>>>> + crm_resource: Support OCF tracing when using<br/>
>>>>>>>> --force-(check|start|stop)<br/>
>>>>>>>> + PE: Allow active nodes in our current membership to be fenced<br/>
>>>>>>>> without<br/>
>>>>>>>> quorum<br/>
>>>>>>>> + PE: Suppress meaningless IDs when displaying anonymous clone<br/>
>>>>>>>> status<br/>
>>>>>>>> + Turn off auto-respawning of systemd services when the cluster<br/>
>>>>>>>> starts<br/>
>>>>>>>> them<br/>
>>>>>>>> + Bug cl#5128 - pengine: Support maintenance mode for a single node<br/>
>>>>>>>><br/>
>>>>>>>> ### Changes since Pacemaker-1.1.9<br/>
>>>>>>>><br/>
>>>>>>>> + crmd: cib: stonithd: Memory leaks resolved and improved use of<br/>
>>>>>>>> glib<br/>
>>>>>>>> reference counting<br/>
>>>>>>>> + attrd: Fixes deleted attributes during dc election<br/>
>>>>>>>> + Bug cf#5153 - Correctly display clone failcounts in crm_mon<br/>
>>>>>>>> + Bug cl#5133 - pengine: Correctly observe on-fail=block for failed<br/>
>>>>>>>> demote operation<br/>
>>>>>>>> + Bug cl#5148 - legacy: Correctly remove a node that used to have a<br/>
>>>>>>>> different nodeid<br/>
>>>>>>>> + Bug cl#5151 - Ensure node names are consistently compared without<br/>
>>>>>>>> case<br/>
>>>>>>>> + Bug cl#5152 - crmd: Correctly clean up fenced nodes during<br/>
>>>>>>>> membership<br/>
>>>>>>>> changes<br/>
>>>>>>>> + Bug cl#5154 - Do not expire failures when on-fail=block is present<br/>
>>>>>>>> + Bug cl#5155 - pengine: Block the stop of resources if any<br/>
>>>>>>>> depending<br/>
>>>>>>>> resource is unmanaged<br/>
>>>>>>>> + Bug cl#5157 - Allow migration in the absence of some colocation<br/>
>>>>>>>> constraints<br/>
>>>>>>>> + Bug cl#5161 - crmd: Prevent memory leak in operation cache<br/>
>>>>>>>> + Bug cl#5164 - crmd: Fixes crash when using pacemaker-remote<br/>
>>>>>>>> + Bug cl#5164 - pengine: Fixes segfault when calculating transition<br/>
>>>>>>>> with remote-nodes.<br/>
>>>>>>>> + Bug cl#5167 - crm_mon: Only print "stopped" node list for<br/>
>>>>>>>> incomplete<br/>
>>>>>>>> clone sets<br/>
>>>>>>>> + Bug cl#5168 - Prevent clones from being bounced around the cluster<br/>
>>>>>>>> due to location constraints<br/>
>>>>>>>> + Bug cl#5170 - Correctly support on-fail=block for clones<br/>
>>>>>>>> + cib: Correctly read back archived configurations if the primary is<br/>
>>>>>>>> corrupted<br/>
>>>>>>>> + cib: The result is not valid when diffs fail to apply cleanly for<br/>
>>>>>>>> CLI<br/>
>>>>>>>> tools<br/>
>>>>>>>> + cib: Restore the ability to embed comments in the configuration<br/>
>>>>>>>> + cluster: Detect and warn about node names with capitals<br/>
>>>>>>>> + cman: Do not pretend we know the state of nodes we've never seen<br/>
>>>>>>>> + cman: Do not unconditionally start cman if it is already running<br/>
>>>>>>>> + cman: Support non-blocking CPG calls<br/>
>>>>>>>> + Core: Ensure the blackbox is saved on abnormal program termination<br/>
>>>>>>>> + corosync: Detect the loss of members for which we only know the<br/>
>>>>>>>> nodeid<br/>
>>>>>>>> + corosync: Do not pretend we know the state of nodes we've never<br/>
>>>>>>>> seen<br/>
>>>>>>>> + corosync: Ensure removed peers are erased from all caches<br/>
>>>>>>>> + corosync: Nodes that can persist in sending CPG messages must be<br/>
>>>>>>>> alive afterall<br/>
>>>>>>>> + crmd: Do not get stuck in S_POLICY_ENGINE if a node we couldn't<br/>
>>>>>>>> fence<br/>
>>>>>>>> returns<br/>
>>>>>>>> + crmd: Do not update fail-count and last-failure for old failures<br/>
>>>>>>>> + crmd: Ensure all membership operations can complete while trying<br/>
>>>>>>>> to<br/>
>>>>>>>> cancel a transition<br/>
>>>>>>>> + crmd: Ensure operations for cleaned up resources don't block<br/>
>>>>>>>> recovery<br/>
>>>>>>>> + crmd: Ensure we return to a stable state if there have been too<br/>
>>>>>>>> many<br/>
>>>>>>>> fencing failures<br/>
>>>>>>>> + crmd: Initiate node shutdown if another node claims to have<br/>
>>>>>>>> successfully fenced us<br/>
>>>>>>>> + crmd: Prevent messages for remote crmd clients from being relayed<br/>
>>>>>>>> to<br/>
>>>>>>>> wrong daemons<br/>
>>>>>>>> + crmd: Properly handle recurring monitor operations for remote-node<br/>
>>>>>>>> agent<br/>
>>>>>>>> + crmd: Store last-run and last-rc-change for all operations<br/>
>>>>>>>> + crm_mon: Ensure stale pid files are updated when a new process is<br/>
>>>>>>>> started<br/>
>>>>>>>> + crm_report: Correctly collect logs when 'uname -n' reports fully<br/>
>>>>>>>> qualified names<br/>
>>>>>>>> + fencing: Fail the operation once all peers have been exhausted<br/>
>>>>>>>> + fencing: Restore the ability to manually confirm that fencing<br/>
>>>>>>>> completed<br/>
>>>>>>>> + ipc: Allow unpriviliged clients to clean up after server failures<br/>
>>>>>>>> + ipc: Restore the ability for members of the haclient group to<br/>
>>>>>>>> connect<br/>
>>>>>>>> to the cluster<br/>
>>>>>>>> + legacy: Support "crm_node --remove" with a node name for corosync<br/>
>>>>>>>> plugin (bnc#805278)<br/>
>>>>>>>> + lrmd: Default to the upstream location for resource agent scratch<br/>
>>>>>>>> directory<br/>
>>>>>>>> + lrmd: Pass errors from lsb metadata generation back to the caller<br/>
>>>>>>>> + pengine: Correctly handle resources that recover before we operate<br/>
>>>>>>>> on<br/>
>>>>>>>> them<br/>
>>>>>>>> + pengine: Delete the old resource state on every node whenever the<br/>
>>>>>>>> resource type is changed<br/>
>>>>>>>> + pengine: Detect constraints with inappropriate actions (ie.<br/>
>>>>>>>> promote<br/>
>>>>>>>> for a clone)<br/>
>>>>>>>> + pengine: Ensure per-node resource parameters are used during<br/>
>>>>>>>> probes<br/>
>>>>>>>> + pengine: If fencing is unavailable or disabled, block further<br/>
>>>>>>>> recovery for resources that fail to stop<br/>
>>>>>>>> + pengine: Implement the rest of get_timet_now() and rename to<br/>
>>>>>>>> get_effective_time<br/>
>>>>>>>> + pengine: Re-initiate _active_ recurring monitors that previously<br/>
>>>>>>>> failed but have timed out<br/>
>>>>>>>> + remote: Workaround for inconsistent tls handshake behavior between<br/>
>>>>>>>> gnutls versions<br/>
>>>>>>>> + systemd: Ensure we get shut down correctly by systemd<br/>
>>>>>>>> + systemd: Reload systemd after adding/removing override files for<br/>
>>>>>>>> cluster services<br/>
>>>>>>>> + xml: Check for and replace non-printing characters with their<br/>
>>>>>>>> octal<br/>
>>>>>>>> equivalent while exporting xml text<br/>
>>>>>>>> + xml: Prevent lockups by setting a more reliable buffer allocation<br/>
>>>>>>>> strategy<br/>
>>>>>>>><br/>
>>>>>>>><br/>
>>>>>>>> _______________________________________________<br/>
>>>>>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>>>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>>>>>><br/>
>>>>>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>>>>>> Getting started:<br/>
>>>>>>>> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>>>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>>>>>>><br/>
>>>>>>><br/>
>>>>>>><br/>
>>>>>>> --<br/>
>>>>>>> Digimer<br/>
>>>>>>> Papers and Projects: <a href="https://alteeve.ca/w/" target="_blank">https://alteeve.ca/w/</a><br/>
>>>>>>> What if the cure for cancer is trapped in the mind of a person<br/>
>>>>>>> without<br/>
>>>>>>> access to education?<br/>
>>>>>>><br/>
>>>>>>><br/>
>>>>>>> _______________________________________________<br/>
>>>>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>>>>><br/>
>>>>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>>>>> Getting started:<br/>
>>>>>>> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>>>><br/>
>>>>> _______________________________________________<br/>
>>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>>><br/>
>>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>>>> _______________________________________________<br/>
>>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>>><br/>
>>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>>><br/>
>>>><br/>
>>>> _______________________________________________<br/>
>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>><br/>
>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>>> _______________________________________________<br/>
>>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>>><br/>
>>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>><br/>
>>><br/>
>>> _______________________________________________<br/>
>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>><br/>
>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>><br/>
>>> _______________________________________________<br/>
>>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>>><br/>
>>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
>>><br/>
>><br/>
>> _______________________________________________<br/>
>> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
>><br/>
>> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
>> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
><br/>
><br/>
> _______________________________________________<br/>
> Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
><br/>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br/>
<br/>
_______________________________________________<br/>
Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br/>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br/>
<br/>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br/>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br/>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a></div>
</div>
</div>
</div></div></body></html>