<div dir="ltr"><div>hi,<br><br></div>the kvm guest are different kvm host.<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">2014-03-24 0:30 GMT+01:00 Andrew Beekhof <span dir="ltr"><<a href="mailto:andrew@beekhof.net" target="_blank">andrew@beekhof.net</a>></span>:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class=""><br>
On 21 Mar 2014, at 11:11 pm, Beo Banks <<a href="mailto:beo.banks@googlemail.com">beo.banks@googlemail.com</a>> wrote:<br>
<br>
> yap and thatīs my issue.<br>
><br>
> stonith is very powerfull but how can the cluster handle hardware failure?<br>
<br>
</div>by connecting to the switch that supplies power to said hardware<br>
exactly the reason devices like fence_virsh and external/ssh are not considered reliable.<br>
<br>
are both these VMs running on the same physical hardware?<br>
<div class=""><br>
><br>
> primitive stonith-linux01 stonith:fence_virsh \<br>
>         params pcmk_host_list="linux01" pcmk_host_check="dynamic-list" pcmk_host_map="linux01:linux01" action="reboot" ipaddr="XXXXXX" secure="true" login="root" identity_file="/root/.ssh/id_rsa" debug="/var/log/stonith.log" verbose="false" \<br>

<br>
</div>you dont need the host map if the name and value (name:value) are the same<br>
<div class="HOEnZb"><div class="h5"><br>
>         op monitor interval="300s" \<br>
>         op start interval="0" timeout="60s" \<br>
>         meta failure-timeout="180s"<br>
> primitive stonith-linux02 stonith:fence_virsh \<br>
>         params pcmk_host_list="linux02" pcmk_host_check="dynamic-list" pcmk_host_map="linux02:linux02" action="reboot" ipaddr="XXXXX" secure="true" login="root" identity_file="/root/.ssh/id_rsa" delay="5" debug="/var/log/stonith.log" verbose="false" \<br>

>         op monitor interval="60s" \<br>
>         op start interval="0" timeout="60s" \<br>
>         meta failure-timeout="180s"<br>
><br>
><br>
><br>
><br>
> 2014-03-18 13:54 GMT+01:00 emmanuel segura <<a href="mailto:emi2fast@gmail.com">emi2fast@gmail.com</a>>:<br>
> do you have stonith configured?<br>
><br>
><br>
> 2014-03-18 13:07 GMT+01:00 Alex Samad - Yieldbroker <<a href="mailto:Alex.Samad@yieldbroker.com">Alex.Samad@yieldbroker.com</a>>:<br>
> Im not expert but<br>
><br>
><br>
><br>
> Current DC: linux02 - partition WITHOUT quorum<br>
> Version: 1.1.10-14.el6_5.2-368c726<br>
> 2 Nodes configured, 2 expected votes<br>
><br>
><br>
><br>
><br>
> I think your 2nd node can’t make quorum, there is some special config for 2 node cluster to allow nodes to make quorum with 1 vote..<br>
><br>
><br>
><br>
> A<br>
><br>
><br>
><br>
> From: Beo Banks [mailto:<a href="mailto:beo.banks@googlemail.com">beo.banks@googlemail.com</a>]<br>
> Sent: Tuesday, 18 March 2014 10:06 PM<br>
> To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
> Subject: [Pacemaker] crm resource doesnīt move after hardware crash<br>
><br>
><br>
><br>
> hi,<br>
><br>
> i have a hardware crash in a two-node drbd cluster.<br>
><br>
> the active node has a hardware failure is actual down.<br>
><br>
> i am wondering that my 2nd doesnīt migrate/move the resource.<br>
><br>
> the 2nd node wantīs to fence the device but thatīs not possible (itīs down)<br>
><br>
><br>
> how can i enable the services on the last "good" node?<br>
><br>
> and how can i optimize my config to handle that kind of error?<br>
><br>
> crm status<br>
><br>
> Last updated: Tue Mar 18 12:01:07 2014<br>
> Last change: Tue Mar 18 11:28:22 2014 via crmd on linux02<br>
> Stack: classic openais (with plugin)<br>
> Current DC: linux02 - partition WITHOUT quorum<br>
> Version: 1.1.10-14.el6_5.2-368c726<br>
> 2 Nodes configured, 2 expected votes<br>
> 21 Resources configured<br>
><br>
><br>
> Node linux01: UNCLEAN (offline)<br>
> Online: [ linux02 ]<br>
><br>
>  Resource Group: mysql<br>
>      mysql_fs   (ocf::heartbeat:Filesystem):    Started linux01<br>
>      mysql_ip   (ocf::heartbeat:IPaddr2):       Started linux01<br>
><br>
> .... and so on<br>
><br>
><br>
><br>
> cluster.log<br>
><br>
><br>
> Mar 18 11:54:43 [2234] linux02       crmd:   notice: tengine_stonith_callback:      Stonith operation 17 for linux01 failed (Timer expired): aborting transition.<br>
> Mar 18 11:54:43 [2234] linux02       crmd:     info: abort_transition_graph:        tengine_stonith_callback:463 - Triggered transition abort (complete=0) : Stonith failed<br>
> Mar 18 11:54:43 [2234] linux02       crmd:   notice: run_graph:     Transition 15 (Complete=9, Pending=0, Fired=0, Skipped=36, Incomplete=19, Source=/var/lib/pacemaker/pengine/pe-warn-63.bz2): Stopped<br>
> Mar 18 11:54:43 [2234] linux02       crmd:   notice: too_many_st_failures:  Too many failures to fence linux01 (16), giving up<br>
> Mar 18 11:54:43 [2234] linux02       crmd:     info: do_log:        FSA: Input I_TE_SUCCESS from notify_crmd() received in state S_TRANSITION_ENGINE<br>
> Mar 18 11:54:43 [2234] linux02       crmd:   notice: do_state_transition:   State transition S_TRANSITION_ENGINE -> S_IDLE [ input=I_TE_SUCCESS cause=C_FSA_INTERNAL origin=notify_crmd ]<br>
> Mar 18 11:54:43 [2230] linux02 stonith-ng:     info: stonith_command:       Processed st_notify reply from linux02: OK (0)<br>
> Mar 18 11:54:43 [2234] linux02       crmd:   notice: tengine_stonith_notify:        Peer linux01 was not terminated (reboot) by linux02 for linux02: Timer expired (ref=7939b264-699c-4d00-a89c-07e7e0193a80) by client crmd.2234<br>

> Mar 18 11:54:44 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x155ac00 for uid=0 gid=0 pid=23360 id=b88b2690-0c3f-48ac-b8b4-3a47b7f9114a<br>
> Mar 18 11:54:44 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section 'all': OK (rc=0, origin=local/crm_mon/2, version=0.125.2)<br>
> Mar 18 11:54:44 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x155ac00 for uid=0 gid=0 pid=23415 id=62e7a9d8-588e-427f-8178-85febce00151<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x1585de0 for uid=0 gid=0 pid=23416 id=79795042-699b-4347-abcb-4c7c96ed2291<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section nodes: OK (rc=0, origin=local/crm_attribute/2, version=0.125.2)<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section nodes: OK (rc=0, origin=local/crm_attribute/2, version=0.125.2)<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
> Mar 18 11:55:03 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
> Mar 18 11:55:43 [2230] linux02 stonith-ng:    error: remote_op_done:        Already sent notifications for 'reboot of linux01 by linux02' (for=crmd.2234@linux02.7939b264, state=4): Timer expired<br>
> Mar 18 11:55:59 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x155ac00 for uid=0 gid=0 pid=23468 id=8dea3cab-9103-42fc-9747-76018c4a0500<br>
> Mar 18 11:55:59 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section 'all': OK (rc=0, origin=local/crm_mon/2, version=0.125.2)<br>
> Mar 18 11:55:59 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x155ac00 for uid=0 gid=0 pid=23523 id=b681390a-51a3-4d68-abf1-514ee8ab9351<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: crm_client_new:        Connecting 0x1585de0 for uid=0 gid=0 pid=23524 id=005421e4-b079-4a16-b4cc-0fc2c8c73246<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section nodes: OK (rc=0, origin=local/crm_attribute/2, version=0.125.2)<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: cib_process_request:   Completed cib_query operation for section nodes: OK (rc=0, origin=local/crm_attribute/2, version=0.125.2)<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
> Mar 18 11:56:03 [2229] linux02        cib:     info: crm_client_destroy:    Destroying 0 events<br>
><br>
> thanks<br>
><br>
> beo<br>
><br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
><br>
><br>
><br>
> --<br>
> esta es mi vida e me la vivo hasta que dios quiera<br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
><br>
><br>
> _______________________________________________<br>
> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
><br>
> Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
> Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br>
</div></div><br>_______________________________________________<br>
Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
Project Home: <a href="http://www.clusterlabs.org" target="_blank">http://www.clusterlabs.org</a><br>
Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>
Bugs: <a href="http://bugs.clusterlabs.org" target="_blank">http://bugs.clusterlabs.org</a><br>
<br></blockquote></div><br></div>