<br>
<br><font size=1 color=#5f5f5f face="sans-serif">Von:      
 </font><font size=1 face="sans-serif">Michael Schwartzkopff
<ms@sys4.de></font>
<br><font size=1 color=#5f5f5f face="sans-serif">An:      
 </font><font size=1 face="sans-serif">The Pacemaker cluster
resource manager <pacemaker@oss.clusterlabs.org></font>
<br><font size=1 color=#5f5f5f face="sans-serif">Datum:      
 </font><font size=1 face="sans-serif">08.04.2015 17:12</font>
<br><font size=1 color=#5f5f5f face="sans-serif">Betreff:    
   </font><font size=1 face="sans-serif">Re: [Pacemaker]
update cib after fence</font>
<br>
<hr noshade>
<br>
<br>
<br><tt><font size=2>Am Mittwoch, 8. April 2015, 15:03:48 schrieb philipp.achmueller@arz.at:<br>
> hi,<br>
> <br>
> how to cleanup cib from node after unexpected system halt?<br>
> failed node still thinks of running VirtualDomain resource, which
is<br>
> already running on other node in cluster(sucessful takeover:<br>
> <br>
> executing "pcs cluster start" -<br>
> ....<br>
> Apr  8 13:41:10 lnx0083a daemon:info lnx0083a<br>
> VirtualDomain(lnx0106a)[20360]: INFO: Virtual domain lnx0106a currently<br>
> has no state, retrying.<br>
> Apr  8 13:41:12 lnx0083a daemon:err|error lnx0083a<br>
> VirtualDomain(lnx0106a)[20360]: ERROR: Virtual domain lnx0106a has
no<br>
> state during stop operation, bailing out.<br>
> Apr  8 13:41:12 lnx0083a daemon:info lnx0083a<br>
> VirtualDomain(lnx0106a)[20360]: INFO: Issuing forced shutdown (destroy)<br>
> request for domain lnx0106a.<br>
> Apr  8 13:41:12 lnx0083a daemon:err|error lnx0083a<br>
> VirtualDomain(lnx0106a)[20360]: ERROR: forced stop failed<br>
> Apr  8 13:41:12 lnx0083a daemon:notice lnx0083a lrmd[14230]:
  notice:<br>
> operation_finished: lnx0106a_stop_0:20360:stderr [ error: failed to<br>
> connect to the hypervisor error: end of file while reading data: :<br>
> input/output error ]<br>
> Apr  8 13:41:12 lnx0083a daemon:notice lnx0083a lrmd[14230]:
  notice:<br>
> operation_finished: lnx0106a_stop_0:20360:stderr [ ocf-exit-reason:forced<br>
> stop failed ]<br>
> Apr  8 13:41:12 lnx0083a daemon:notice lnx0083a crmd[14233]:
  notice:<br>
> process_lrm_event: Operation lnx0106a_stop_0: unknown error<br>
> (node=lnx0083a, call=131, rc=1, cib-update=43, confirmed=true)<br>
> Apr  8 13:41:12 lnx0083a daemon:notice lnx0083a crmd[14233]:
  notice:<br>
> process_lrm_event: lnx0083a-lnx0106a_stop_0:131 [ error: failed to
connect<br>
> to the hypervisor error: end of file while reading data: : input/output<br>
> error\nocf-exit-reason:forced stop failed\n ]<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: status_from_rc: Action 105 (lnx0106a_stop_0) on lnx0083a
failed<br>
> (target: 0 vs. rc: 1): Error<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: update_failcount: Updating failcount for lnx0106a on lnx0083a<br>
> after failed stop: rc=1 (update=INFINITY, time=1428493272)<br>
> Apr  8 13:41:12 lnx0083b daemon:notice lnx0083b crmd[18244]:
  notice:<br>
> abort_transition_graph: Transition aborted by lnx0106a_stop_0 'modify'
on<br>
> lnx0083a: Event failed<br>
> (magic=0:1;105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> cib=1.499.624, source=match_graph_event:350, 0)<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: update_failcount: Updating failcount for lnx0106a on lnx0083a<br>
> after failed stop: rc=1 (update=INFINITY, time=1428493272)<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: status_from_rc: Action 105 (lnx0106a_stop_0) on lnx0083a
failed<br>
> (target: 0 vs. rc: 1): Error<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: update_failcount: Updating failcount for lnx0106a on lnx0083a<br>
> after failed stop: rc=1 (update=INFINITY, time=1428493272)<br>
> Apr  8 13:41:12 lnx0083b daemon:warn|warning lnx0083b crmd[18244]:<br>
> warning: update_failcount: Updating failcount for lnx0106a on lnx0083a<br>
> after failed stop: rc=1 (update=INFINITY, time=1428493272)<br>
> Apr  8 13:41:17 lnx0083b daemon:warn|warning lnx0083b pengine[18243]:<br>
> warning: unpack_rsc_op_failure: Processing failed op stop for lnx0106a
on<br>
> lnx0083a: unknown error (1)<br>
> Apr  8 13:41:17 lnx0083b daemon:warn|warning lnx0083b pengine[18243]:<br>
> warning: unpack_rsc_op_failure: Processing failed op stop for lnx0106a
on<br>
> lnx0083a: unknown error (1)<br>
> Apr  8 13:41:17 lnx0083b daemon:warn|warning lnx0083b pengine[18243]:<br>
> warning: pe_fence_node: Node lnx0083a will be fenced because of resource<br>
> failure(s)<br>
> Apr  8 13:41:17 lnx0083b daemon:warn|warning lnx0083b pengine[18243]:<br>
> warning: common_apply_stickiness: Forcing lnx0106a away from lnx0083a<br>
> after 1000000 failures (max=3)<br>
> Apr  8 13:41:17 lnx0083b daemon:warn|warning lnx0083b pengine[18243]:<br>
> warning: stage6: Scheduling Node lnx0083a for STONITH<br>
> Apr  8 13:41:17 lnx0083b daemon:notice lnx0083b pengine[18243]:
  notice:<br>
> native_stop_constraints: Stop of failed resource lnx0106a is implicit<br>
> after lnx0083a is fenced<br>
> ....<br>
> <br>
> Node is fenced..<br>
> <br>
> log from corosync.log:<br>
> ...<br>
> Apr 08 13:41:00 [14226] lnx0083a pacemakerd:   notice: mcp_read_config:<br>
> Configured corosync to accept connections from group 2035: OK (1)<br>
> Apr 08 13:41:00 [14226] lnx0083a pacemakerd:   notice: main:
   Starting<br>
> Pacemaker 1.1.12 (Build: 4ed91da):  agent-manpages ascii-docs
ncurses<br>
> libqb-logging libqb-ip<br>
> c lha-fencing upstart nagios  corosync-native atomic-attrd libesmtp
acls<br>
> ....<br>
> Apr 08 13:16:04 [23690] lnx0083a        cib:  
  info: cib_perform_op:  +<br>
> /cib/status/node_state[@id='4']/lrm[@id='4']/lrm_resources/lrm_resource[@id=<br>
> 'lnx0106a']/lrm_rsc_op[@id='lnx0106a_last_0']:<br>
> @operation_key=lnx0106a_stop_0, @operation=stop,<br>
> @transition-key=106:10167:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @transition-magic=0:0;106:10167:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @call-id=538, @last-run=1428491757, @last-rc-change=1428491757,<br>
> @exec-time=7686<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: write_attribute:<br>
> Sent update 40 with 3 changes for fail-count-vm-lnx0106a, id=<n/a>,<br>
> set=(null)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: write_attribute:<br>
> Sent update 45 with 3 changes for fail-count-lnx0106a, id=<n/a>,<br>
> set=(null)<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
<lrm_resource id="lnx0106a" type="VirtualDomain"<br>
> class="ocf" provider="heartbeat"><br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_last_0"<br>
> operation_key="lnx0106a_monitor_0" operation="monitor"<br>
> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.9"<br>
> transition-key="7:8297:7:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:7;7:8297:7:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0083b" call-id="660" rc-code="7"
op-status="0" interval="0"<br>
> last-run="1427965815" last-rc-change="1427965815"
exec-time="8<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
<lrm_resource id="lnx0106a" type="VirtualDomain"<br>
> class="ocf" provider="heartbeat"><br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_last_failure_0"<br>
> operation_key="lnx0106a_migrate_to_0" operation="migrate_to"<br>
> crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"<br>
> transition-key="112:8364:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:1;112:8364:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0129a" call-id="444" rc-code="1"
op-status="0" interval="0"<br>
> last-run="1427973596" last-rc-change="1427<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_last_0"<br>
> operation_key="lnx0106a_stop_0" operation="stop"<br>
> crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"<br>
> transition-key="113:9846:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:0;113:9846:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0129a" call-id="546" rc-code="0"
op-status="0" interval="0"<br>
> last-run="1428403880" last-rc-change="1428403880"
exec-time="2<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_monitor_30000"<br>
> operation_key="lnx0106a_monitor_30000" operation="monitor"<br>
> crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"<br>
> transition-key="47:8337:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:0;47:8337:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0129a" call-id="436" rc-code="0"
op-status="0"<br>
> interval="30000" last-rc-change="1427965985" exec-time="1312<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
<lrm_resource id="lnx0106a" type="VirtualDomain"<br>
> class="ocf" provider="heartbeat"><br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_last_0"<br>
> operation_key="lnx0106a_start_0" operation="start"<br>
> crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"<br>
> transition-key="110:10168:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:0;110:10168:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0129b" call-id="539" rc-code="0"
op-status="0" interval="0"<br>
> last-run="1428491780" last-rc-change="1428491780"
exec-tim<br>
> Apr 08 13:41:04 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
  <lrm_rsc_op id="lnx0106a_monitor_30000"<br>
> operation_key="lnx0106a_monitor_30000" operation="monitor"<br>
> crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"<br>
> transition-key="89:10170:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:0;89:10170:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0129b" call-id="540" rc-code="0"
op-status="0"<br>
> interval="30000" last-rc-change="1428491810" exec-time="12<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 40 for fail-count-vm-lnx0106a:
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 40 for fail-count-vm-lnx0106a[lnx0129a]=(null):
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 40 for fail-count-vm-lnx0106a[lnx0129b]=(null):
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 40 for fail-count-vm-lnx0106a[lnx0083b]=(null):
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 45 for fail-count-lnx0106a: OK
(0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 45 for fail-count-lnx0106a[lnx0129a]=(null):
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 45 for fail-count-lnx0106a[lnx0129b]=(null):
OK (0)<br>
> Apr 08 13:41:04 [14231] lnx0083a      attrd:  
  info: attrd_cib_callback:<br>
>         Update 45 for fail-count-lnx0106a[lnx0083b]=(null):
OK (0)<br>
> Apr 08 13:41:05 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
                  <lrm_resource
id="lnx0106a"<br>
> type="VirtualDomain" class="ocf" provider="heartbeat"><br>
> Apr 08 13:41:05 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
                    <lrm_rsc_op
id="lnx0106a_last_0"<br>
> operation_key="lnx0106a_monitor_0" operation="monitor"<br>
> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.9"<br>
> transition-key="7:8297:7:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:7;7:8297:7:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0083b" call-id="660" rc-code="7"
op-status="0" interval="0"<br>
> last-run="1427965815" last-rc-change="142796<br>
> Apr 08 13:41:07 [14230] lnx0083a       lrmd:  
  info:<br>
> process_lrmd_get_rsc_info:      Resource 'lnx0106a'
not found (27 active<br>
> resources)<br>
> Apr 08 13:41:07 [14230] lnx0083a       lrmd:  
  info:<br>
> process_lrmd_rsc_register:      Added 'lnx0106a' to
the rsc list (28<br>
> active resources)<br>
> Apr 08 13:41:07 [14233] lnx0083a       crmd:  
  info: do_lrm_rsc_op:<br>
> Performing key=65:10177:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc<br>
> op=lnx0106a_monitor_0<br>
> Apr 08 13:41:08 [14233] lnx0083a       crmd:  
notice: process_lrm_event:<br>
> Operation lnx0106a_monitor_0: not running (node=lnx0083a, call=114,
rc=7,<br>
> cib-update=34, confirmed=true)<br>
> Apr 08 13:41:08 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
> /cib/status/node_state[@id='1']/lrm[@id='1']/lrm_resources:  <lrm_resource<br>
> id="lnx0106a" type="VirtualDomain" class="ocf"
provider="heartbeat"/><br>
> Apr 08 13:41:08 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
                     
                     <lrm_rsc_op<br>
> id="lnx0106a_last_failure_0" operation_key="lnx0106a_monitor_0"<br>
> operation="monitor" crm-debug-origin="do_update_resource"<br>
> crm_feature_set="3.0.9"<br>
> transition-key="65:10177:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:7;65:10177:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0083a" call-id="114" rc-code="7"
op-status="0" interval="0"<br>
> last-ru<br>
> Apr 08 13:41:08 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
>                    
                     
                     <lrm_rsc_op<br>
> id="lnx0106a_last_0" operation_key="lnx0106a_monitor_0"<br>
> operation="monitor" crm-debug-origin="do_update_resource"<br>
> crm_feature_set="3.0.9"<br>
> transition-key="65:10177:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> transition-magic="0:7;65:10177:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"<br>
> on_node="lnx0083a" call-id="114" rc-code="7"
op-status="0" interval="0"<br>
> last-run="14284<br>
> Apr 08 13:41:09 [14233] lnx0083a       crmd:  
  info: do_lrm_rsc_op:<br>
> Performing key=105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc<br>
> op=lnx0106a_stop_0<br>
> Apr 08 13:41:09 [14230] lnx0083a       lrmd:  
  info: log_execute:<br>
> executing - rsc:lnx0106a action:stop call_id:131<br>
> VirtualDomain(lnx0106a)[20360]: 2015/04/08_13:41:09 INFO: Virtual
domain<br>
> lnx0106a currently has no state, retrying.<br>
> VirtualDomain(lnx0106a)[20360]: 2015/04/08_13:41:10 INFO: Virtual
domain<br>
> lnx0106a currently has no state, retrying.<br>
> VirtualDomain(lnx0106a)[20360]: 2015/04/08_13:41:12 ERROR: Virtual
domain<br>
> lnx0106a has no state during stop operation, bailing out.<br>
> VirtualDomain(lnx0106a)[20360]: 2015/04/08_13:41:12 INFO: Issuing
forced<br>
> shutdown (destroy) request for domain lnx0106a.<br>
> VirtualDomain(lnx0106a)[20360]: 2015/04/08_13:41:12 ERROR: forced
stop<br>
> failed<br>
> Apr 08 13:41:12 [14230] lnx0083a       lrmd:  
notice: operation_finished:<br>
>         lnx0106a_stop_0:20360:stderr [ error:
failed to connect to the<br>
> hypervisor error: end of file while reading data: : input/output error
]<br>
> Apr 08 13:41:12 [14230] lnx0083a       lrmd:  
notice: operation_finished:<br>
>         lnx0106a_stop_0:20360:stderr [ ocf-exit-reason:forced
stop failed<br>
> ]<br>
> Apr 08 13:41:12 [14230] lnx0083a       lrmd:  
  info: log_finished:<br>
> finished - rsc:lnx0106a action:stop call_id:131 pid:20360 exit-code:1<br>
> exec-time:2609ms queue-time:0ms<br>
> Apr 08 13:41:12 [14233] lnx0083a       crmd:  
notice: process_lrm_event:<br>
> Operation lnx0106a_stop_0: unknown error (node=lnx0083a, call=131,
rc=1,<br>
> cib-update=43, confirmed=true)<br>
> Apr 08 13:41:12 [14233] lnx0083a       crmd:  
notice: process_lrm_event:<br>
> lnx0083a-lnx0106a_stop_0:131 [ error: failed to connect to the hypervisor<br>
> error: end of file while reading data: : input/output<br>
> error\nocf-exit-reason:forced stop failed\n ]<br>
> Apr 08 13:41:12 [14228] lnx0083a        cib:  
  info: cib_perform_op:  +<br>
> /cib/status/node_state[@id='1']/lrm[@id='1']/lrm_resources/lrm_resource[@id=<br>
> 'lnx0106a']/lrm_rsc_op[@id='lnx0106a_last_failure_0']:<br>
> @operation_key=lnx0106a_stop_0, @operation=stop,<br>
> @transition-key=105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @transition-magic=0:1;105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @call-id=131, @rc-code=1, @last-run=1428493269,<br>
> @last-rc-change=1428493269, @exec-time=2609, @exit-reason=forced stop<br>
> Apr 08 13:41:12 [14228] lnx0083a        cib:  
  info: cib_perform_op:  +<br>
> /cib/status/node_state[@id='1']/lrm[@id='1']/lrm_resources/lrm_resource[@id=<br>
> 'lnx0106a']/lrm_rsc_op[@id='lnx0106a_last_0']:<br>
> @operation_key=lnx0106a_stop_0, @operation=stop,<br>
> @transition-key=105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @transition-magic=0:1;105:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @call-id=131, @rc-code=1, @last-run=1428493269,<br>
> @last-rc-change=1428493269, @exec-time=2609, @exit-reason=forced stop<br>
> failed<br>
> Apr 08 13:41:12 [14231] lnx0083a      attrd:  
  info: attrd_peer_update:<br>
> Setting fail-count-lnx0106a[lnx0083a]: (null) -> INFINITY from
lnx0083b<br>
> Apr 08 13:41:12 [14231] lnx0083a      attrd:  
  info: attrd_peer_update:<br>
> Setting last-failure-lnx0106a[lnx0083a]: (null) -> 1428493272 from<br>
> lnx0083b<br>
> Apr 08 13:41:12 [14228] lnx0083a        cib:  <br>
> info: cib_perform_op:  ++<br>
> /cib/status/node_state[@id='1']/transient_attributes[@id='1']/instance_attri<br>
> butes[@id='status-1']: <nvpair id="status-1-fail-count-lnx0106a"<br>
> name="fail-count-lnx0106a" value="INFINITY"/><br>
> Apr 08 13:41:12 [14228] lnx0083a        cib:  
  info: cib_perform_op:  ++<br>
> /cib/status/node_state[@id='1']/transient_attributes[@id='1']/instance_attri<br>
> butes[@id='status-1']: <nvpair id="status-1-last-failure-lnx0106a"<br>
> name="last-failure-lnx0106a" value="1428493272"/><br>
> Apr 08 13:41:17 [14228] lnx0083a        cib:  
  info: cib_perform_op:  +<br>
> /cib/status/node_state[@id='4']/lrm[@id='4']/lrm_resources/lrm_resource[@id=<br>
> 'lnx0106a']/lrm_rsc_op[@id='lnx0106a_last_0']:<br>
> @operation_key=lnx0106a_stop_0, @operation=stop,<br>
> @transition-key=106:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @transition-magic=0:0;106:10179:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc,<br>
> @call-id=542, @last-run=1428493269, @last-rc-change=1428493269,<br>
> @exec-time=7645<br>
> ...<br>
> <br>
> any ideas?<br>
> <br>
> thank you!<br>
> Philipp<br>
<br>
>It will get the latest version of the CIB after it connects to the
cluster <br>
>again.><br>
<br>
>The CIB has a timestamp and so every node can decide if it has the
lastest <br>
>version of the CIB or it should fetch it from an other node.<br>
</font></tt>
<br><tt><font size=2>rechecked config and logs. </font></tt>
<br><tt><font size=2>during cluster startup cib update was successful,
looks like there is/was an outstanding livemigration request on mentioned
VM (lnx0106a) to joining KVM host. although lnx0106a was up/running on
lnx0129b:</font></tt>
<br>
<br><tt><font size=2>            <lrm_rsc_op
id="lnx0106a_last_0" operation_key="lnx0106a_start_0"
operation="start" crm-debug-origin="do_update_resource"
crm_feature_set="3.0.9" transition-key="110:1018</font></tt>
<br><tt><font size=2>0:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc" transition-magic="0:0;110:10180:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"
on_node="lnx0129b" call-id="543" rc-code="0"
op-status="0" interval=</font></tt>
<br><tt><font size=2>"0" last-run="1428493293" last-rc-change="1428493293"
exec-time="2639" queue-time="0" op-digest="b963c7f1b26e14b411d990a5c51d86c0"/></font></tt>
<br><tt><font size=2>            <lrm_rsc_op
id="lnx0106a_monitor_30000" operation_key="lnx0106a_monitor_30000"
operation="monitor" crm-debug-origin="do_update_resource"
crm_feature_set="3.0.9" transitio</font></tt>
<br><tt><font size=2>n-key="89:10182:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"
transition-magic="0:0;89:10182:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"
on_node="lnx0129b" call-id="544" rc-code="0"
op-status=</font></tt>
<br><tt><font size=2>"0" interval="30000" last-rc-change="1428493323"
exec-time="1123" queue-time="0" op-digest="048ac70015296e4006c8825a9fc7b5f1"/></font></tt>
<br>
<br><tt><font size=2>why does pacemaker try to move VM to joining node?
</font></tt>
<br><tt><font size=2>...</font></tt>
<br><tt><font size=2><lrm_rsc_op id="lnx0106a_last_failure_0"
operation_key="lnx0106a_migrate_to_0" operation="migrate_to"
crm-debug-origin="do_update_resource" crm_feature_set="3.0.9"
transition-key="112:8364:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"
transition-magic="0:1;112:8364:0:f57c21e4-fd47-4fef-9d73-c7d8b204c9bc"
on_node="lnx0129a" call-id="444" rc-code="1"
op-status="0" interval="0" last-run="1427973596"
last-rc-change="1427973596" exec-time="503" queue-time="0"
op-digest="b963c7f1b26e14b411d990a5c51d86c0" exit-reason="lnx0106a:
live migration to lnx0083a failed: 1" migrate_source="lnx0129a"
migrate_target="lnx0083a"/></font></tt>
<br><tt><font size=2>....</font></tt>
<br><tt><font size=2><rsc_location id="cli-ban-lnx0106a-on-lnx0129a"
node="lnx0129a" role="Started" rsc="lnx0106a"
score="-INFINITY"/></font></tt>
<br><tt><font size=2>...</font></tt>
<br>
<br><tt><font size=2>after cleanup of VM Resource lnx0106a the host lnx0083a
starts successful</font></tt>
<br><tt><font size=2>thank you!</font></tt>
<br><tt><font size=2><br>
>Mit freundlichen Grüßen,<br>
<br>
>Michael Schwartzkopff<br>
<br>
-- <br>
[*] sys4 AG<br>
<br>
</font></tt><a href=http://sys4.de/><tt><font size=2>http://sys4.de</font></tt></a><tt><font size=2>,
+49 (89) 30 90 46 64, +49 (162) 165 0044<br>
Franziskanerstraße 15, 81669 München<br>
<br>
Sitz der Gesellschaft: München, Amtsgericht München: HRB 199263<br>
Vorstand: Patrick Ben Koetter, Marc Schiffbauer<br>
Aufsichtsratsvorsitzender: Florian Kirstein[Anhang "signature.asc"
gelöscht von Philipp Achmüller/ARZ/AT] _______________________________________________<br>
Pacemaker mailing list: Pacemaker@oss.clusterlabs.org<br>
</font></tt><a href=http://oss.clusterlabs.org/mailman/listinfo/pacemaker><tt><font size=2>http://oss.clusterlabs.org/mailman/listinfo/pacemaker</font></tt></a><tt><font size=2><br>
<br>
Project Home: </font></tt><a href=http://www.clusterlabs.org/><tt><font size=2>http://www.clusterlabs.org</font></tt></a><tt><font size=2><br>
Getting started: </font></tt><a href=http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf><tt><font size=2>http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</font></tt></a><tt><font size=2><br>
Bugs: </font></tt><a href=http://bugs.clusterlabs.org/><tt><font size=2>http://bugs.clusterlabs.org</font></tt></a><tt><font size=2><br>
</font></tt>
<br>
<br><font size=2 face="sans-serif"><br>
</font>