<div>Hello all,</div>
<div> </div>
<div>Likewise one of my project is also in stand still because I am not able to find packages for gfs2 and ocfs2 for my RHEL 5.3. Particularly the gfs-pcmk, dlm-pcmk, clusterlib and also for the ocfs2 dlm packages. These are not in the cluster labs and epel repos of RHEL 5.3. </div>


<div> </div>
<div>Where could I find the packages for my RHEL 5.3 boxes. I cant ask my boss for RHEL subscription for my test machines though!!</div>
<div> </div>
<div>-- <br>Regards,<br><br>Jayakrishnan. L<br><br>Visit: <br><a href="http://www.foralllinux.blogspot.com/">www.foralllinux.blogspot.com</a></div>
<div><a href="http://www.jayakrishnan.bravehost.com/">www.jayakrishnan.bravehost.com</a></div>
<div> </div>
<div> </div>
<div>How could I install gfs2 or ocfs2 in my RKEL 5.3 box. I need to create an active/active pacemaker cluster. I am following the "Cluster From the Scratch for fedora 12 V2"<br><br></div>
<div class="gmail_quote">On Tue, Apr 20, 2010 at 8:36 PM, Stefan Kelemen <span dir="ltr"><<a href="mailto:Stefan.Kelemen@gmx.de">Stefan.Kelemen@gmx.de</a>></span> wrote:<br>
<blockquote style="BORDER-LEFT: #ccc 1px solid; MARGIN: 0px 0px 0px 0.8ex; PADDING-LEFT: 1ex" class="gmail_quote">More simple yes, i see no error Ping request, but it does no failover., not with group not with ms_drbd not with ....<br>

<br>Config with ping instead of pingd<br><br>--------------------<br><br>primitive pri_pingsys ocf:pacemaker:ping \<br>       params host_list="192.168.1.1 / 192.168.4.10" multiplier="100" dampen="5" \<br>

       op monitor interval="15"<br>group group_t3 pri_FS_drbd_t3 pri_IP_Cluster pri_apache_Dienst<br>ms ms_drbd_service pri_drbd_Dienst \<br>       meta notify="true" target-role="Started"<br>

clone clo_ping pri_pingsys \<br>       meta globally_unique="false" interleave="true" target-role="Started"<br>location loc_drbd_on_connected_node ms_drbd_service \<br>       rule $id="loc_group_t3_on_connected_node-rule" ping: defined ping<br>

colocation col_apache_after_drbd inf: group_t3 ms_drbd_service:Master<br>order ord_apache_after_drbd inf: ms_drbd_service:promote group_t3:start<br><br><br><br>-------- Original-Nachricht --------<br>> Datum: Mon, 19 Apr 2010 17:28:48 +0200<br>

> Von: Andrew Beekhof <<a href="mailto:andrew@beekhof.net">andrew@beekhof.net</a>><br>> An: The Pacemaker cluster resource manager <<a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a>><br>

> Betreff: Re: [Pacemaker] Failover after fail on Ethernet Fails (unSolved      again)<br><br>> I would seriously consider giving the ping agent a go instead of pingd.<br>> It uses the ping utility that comes with your system and so is far<br>

> simpler.<br>><br>> On Mon, Apr 19, 2010 at 4:38 PM, Stefan Kelemen <<a href="mailto:Stefan.Kelemen@gmx.de">Stefan.Kelemen@gmx.de</a>><br>> wrote:<br>> > That are Testservers, the Hostname of this machines are only in<br>

> /etc/hosts<br>> ><br>> > -------- Original-Nachricht --------<br>> >> Datum: Mon, 19 Apr 2010 15:00:33 +0200<br>> >> Von: Andrew Beekhof <<a href="mailto:andrew@beekhof.net">andrew@beekhof.net</a>><br>

> >> An: The Pacemaker cluster resource manager<br>> <<a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a>><br>> >> Betreff: Re: [Pacemaker] Failover after fail on Ethernet Fails<br>

> (unSolved      again)<br>> ><br>> >> On Mon, Apr 19, 2010 at 2:27 PM, Stefan Kelemen <<a href="mailto:Stefan.Kelemen@gmx.de">Stefan.Kelemen@gmx.de</a>><br>> >> wrote:<br>> >> > In the Moment i would collect the Logs for the states i found that<br>

> the<br>> >> Failover works, but...<br>> >> > When i reconnecting the ethernet Cable the Resources going off<br>> >> > All Resources are Stopped, and cleanup dont works.<br>> >> > After Reboot all is normal<br>

> >> ><br>> >> > hm.. i see much errors from the pingd, what is that???<br>> >><br>> >> Well, they're warnings not errors, but basically they're saying that<br>> >> it can't lookup the hostname it was given.<br>

> >> Presumably because the link to the DNS server is also down.<br>> >><br>> >> ><br>> >> > ---------------<br>> >> ><br>> >> > /var/log/messages  from deconnect to reconnect<br>

> >> ><br>> >> > Apr 19 14:15:11 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:12 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:13 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:14 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:15 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:16 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:17 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:18 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:19 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:20 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:21 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:22 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:23 server1 kernel: [  440.288130] eth1: link down<br>> >> > Apr 19 14:15:25 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.1.1 is unreachable (read)<br>

> >> > Apr 19 14:15:27 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: pingd (200)<br>> >> > Apr 19 14:15:27 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:15:27 server1 attrd: [2646]: info: attrd_perform_update:<br>> Sent<br>> >> update 24: pingd=200<br>> >> > Apr 19 14:15:28 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:15:33 server1 heartbeat: [2586]: WARN: node server2: is<br>> dead<br>> >> > Apr 19 14:15:33 server1 heartbeat: [2586]: info: Link server2:eth1<br>

> dead.<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: notice:<br>> crmd_ha_status_callback:<br>> >> Status update: Node server2 now has status [dead] (DC=false)<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: crm_update_peer_proc:<br>

> >> server2.ais is now offline<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event: Got an<br>> >> event OC_EV_MS_NOT_PRIMARY from ccm<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event: Got an<br>

> >> event OC_EV_MS_NOT_PRIMARY from ccm<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event:<br>> >> instance=2, nodes=2, new=2, lost=0, n_idx=0, new_idx=0, old_idx=4<br>
> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event:<br>
> instance=2,<br>> >> nodes=2, new=2, lost=0, n_idx=0, new_idx=0, old_idx=4<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: crmd_ccm_msg_callback:<br>> >> Quorum lost after event=NOT PRIMARY (id=2)<br>

> >> > Apr 19 14:15:33 server1 cib: [2643]: info: cib_ccm_msg_callback:<br>> >> Processing CCM event=NOT PRIMARY (id=2)<br>> >> > Apr 19 14:15:33 server1 ccm: [2642]: info: ccm_state_sent_memlistreq:<br>

> >> directly callccm_compute_and_send_final_memlist()<br>> >> > Apr 19 14:15:33 server1 ccm: [2642]: info: Break tie for 2 nodes<br>> cluster<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event: Got an<br>

> >> event OC_EV_MS_INVALID from ccm<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event: no<br>> >> mbr_track info<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event: Got an<br>

> >> event OC_EV_MS_NEW_MEMBERSHIP from ccm<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: mem_handle_event:<br>> instance=3,<br>> >> nodes=1, new=0, lost=1, n_idx=0, new_idx=1, old_idx=3<br>

> >> > Apr 19 14:15:33 server1 cib: [2643]: info: cib_ccm_msg_callback:<br>> >> Processing CCM event=NEW MEMBERSHIP (id=3)<br>> >> > Apr 19 14:15:33 server1 cib: [2643]: info: crm_update_peer: Node<br>

> >> server2: id=1 state=lost (new) addr=(null) votes=-1 born=1 seen=2<br>> >> proc=00000000000000000000000000000302<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event: Got an<br>

> >> event OC_EV_MS_INVALID from ccm<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event: no<br>> >> mbr_track info<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event: Got an<br>

> >> event OC_EV_MS_NEW_MEMBERSHIP from ccm<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: mem_handle_event:<br>> >> instance=3, nodes=1, new=0, lost=1, n_idx=0, new_idx=1, old_idx=3<br>

> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: crmd_ccm_msg_callback:<br>> >> Quorum (re)attained after event=NEW MEMBERSHIP (id=3)<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: ccm_event_detail: NEW<br>

> >> MEMBERSHIP: trans=3, nodes=1, new=0, lost=1 n_idx=0, new_idx=1,<br>> old_idx=3<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: ccm_event_detail:<br>> >> #011CURRENT: server1 [nodeid=0, born=3]<br>

> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: ccm_event_detail:<br>> #011LOST:<br>> >>    server2 [nodeid=1, born=1]<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: crm_update_peer: Node<br>

> >> server2: id=1 state=lost (new) addr=(null) votes=-1 born=1 seen=2<br>> >> proc=00000000000000000000000000000200<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: WARN: check_dead_member: Our DC<br>

> >> node (server2) left the cluster<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_NOT_DC -> S_ELECTION [ input=I_ELECTION<br>

> cause=C_FSA_INTERNAL<br>> >> origin=check_dead_member ]<br>> >> > Apr 19 14:15:33 server1 crmd: [2647]: info: update_dc: Unset DC<br>> server2<br>> >> > Apr 19 14:15:33 server1 ccm: [2642]: info: Break tie for 2 nodes<br>

> cluster<br>> >> > Apr 19 14:15:34 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_ELECTION -> S_INTEGRATION [ input=I_ELECTION_DC<br>> >> cause=C_FSA_INTERNAL origin=do_election_check ]<br>

> >> > Apr 19 14:15:34 server1 crmd: [2647]: info: do_te_control:<br>> Registering<br>> >> TE UUID: d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> >> > Apr 19 14:15:34 server1 crmd: [2647]: WARN:<br>

> >> cib_client_add_notify_callback: Callback already present<br>> >> > Apr 19 14:15:34 server1 crmd: [2647]: info: set_graph_functions:<br>> Setting<br>> >> custom graph functions<br>> >> > Apr 19 14:15:34 server1 crmd: [2647]: info: unpack_graph: Unpacked<br>

> >> transition -1: 0 actions in 0 synapses<br>> >> > Apr 19 14:15:34 server1 crmd: [2647]: info: start_subsystem: Starting<br>> >> sub-system "pengine"<br>> >> > Apr 19 14:15:34 server1 pengine: [8287]: info: Invoked:<br>

> >> /usr/lib/heartbeat/pengine<br>> >> > Apr 19 14:15:34 server1 pengine: [8287]: info: main: Starting pengine<br>> >> > Apr 19 14:15:37 server1 crmd: [2647]: info: do_dc_takeover: Taking<br>

> over<br>> >> DC status for this partition<br>> >> > Apr 19 14:15:37 server1 cib: [2643]: info: cib_process_readwrite: We<br>> are<br>> >> now in R/W mode<br>> >> > Apr 19 14:15:37 server1 cib: [2643]: info: cib_process_request:<br>

> >> Operation complete: op cib_master for section 'all'<br>> (origin=local/crmd/27,<br>> >> version=0.643.36): ok (rc=0)<br>> >> > Apr 19 14:15:37 server1 cib: [2643]: info: cib_process_request:<br>

> >> Operation complete: op cib_modify for section cib<br>> (origin=local/crmd/28,<br>> >> version=0.643.36): ok (rc=0)<br>> >> > Apr 19 14:15:37 server1 cib: [2643]: info: cib_process_request:<br>

> >> Operation complete: op cib_modify for section crm_config<br>> (origin=local/crmd/30,<br>> >> version=0.643.36): ok (rc=0)<br>> >> > Apr 19 14:15:37 server1 crmd: [2647]: info: join_make_offer: Making<br>

> join<br>> >> offers based on membership 3<br>> >> > Apr 19 14:15:37 server1 crmd: [2647]: info: do_dc_join_offer_all:<br>> >> join-1: Waiting on 1 outstanding join acks<br>> >> > Apr 19 14:15:37 server1 crmd: [2647]: info: te_connect_stonith:<br>

> >> Attempting connection to fencing daemon...<br>> >> > Apr 19 14:15:37 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_modify for section crm_config<br>
> (origin=local/crmd/32,<br>
> >> version=0.643.36): ok (rc=0)<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: te_connect_stonith:<br>> >> Connected<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: config_query_callback:<br>

> >> Checking for expired actions every 900000ms<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: update_dc: Set DC to<br>> server1<br>> >> (3.0.1)<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: do_state_transition:<br>

> State<br>> >> transition S_INTEGRATION -> S_FINALIZE_JOIN [ input=I_INTEGRATED<br>> >> cause=C_FSA_INTERNAL origin=check_join_state ]<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: do_state_transition: All<br>

> 1<br>> >> cluster nodes responded to the join offer.<br>> >> > Apr 19 14:15:38 server1 crmd: [2647]: info: do_dc_join_finalize:<br>> join-1:<br>> >> Syncing the CIB from server1 to the rest of the cluster<br>

> >> > Apr 19 14:15:38 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_sync for section 'all'<br>> (origin=local/crmd/35,<br>> >> version=0.643.36): ok (rc=0)<br>

> >> > Apr 19 14:15:38 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_modify for section nodes<br>> (origin=local/crmd/36,<br>> >> version=0.643.36): ok (rc=0)<br>

> >> > Apr 19 14:15:39 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:15:39 server1 crmd: [2647]: info: do_dc_join_ack: join-1:<br>

> >> Updating node state to member for server1<br>> >> > Apr 19 14:15:39 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_delete for section<br>> //node_state[@uname='server1']/lrm<br>

> >> (origin=local/crmd/37, version=0.643.37): ok (rc=0)<br>> >> > Apr 19 14:15:39 server1 crmd: [2647]: info: erase_xpath_callback:<br>> >> Deletion of "//node_state[@uname='server1']/lrm": ok (rc=0)<br>

> >> > Apr 19 14:15:39 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_FINALIZE_JOIN -> S_POLICY_ENGINE [ input=I_FINALIZED<br>> >> cause=C_FSA_INTERNAL origin=check_join_state ]<br>

> >> > Apr 19 14:15:39 server1 crmd: [2647]: info: populate_cib_nodes_ha:<br>> >> Requesting the list of configured nodes<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition: All<br>

> 1<br>> >> cluster nodes are eligible to run resources.<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_dc_join_final:<br>> Ensuring<br>> >> DC, quorum and node attributes are up-to-date<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: crm_update_quorum:<br>> Updating<br>> >> quorum status to true (call=41)<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: abort_transition_graph:<br>

> >> do_te_invoke:191 - Triggered transition abort (complete=1) : Peer<br>> Cancelled<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke: Query 42:<br>> >> Requesting the current CIB: S_POLICY_ENGINE<br>

> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_local_callback:<br>> >> Sending full refresh (origin=crmd)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: master-pri_drbd_Dienst:0 (10000)<br>> >> > Apr 19 14:15:40 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_modify for section nodes<br>

> (origin=local/crmd/39,<br>> >> version=0.643.38): ok (rc=0)<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: WARN: match_down_event: No<br>> match<br>> >> for shutdown action on 5262f929-1082-4a85-aa05-7bd1992f15be<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_update_diff:<br>> >> Stonith/shutdown of 5262f929-1082-4a85-aa05-7bd1992f15be not matched<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: abort_transition_graph:<br>

> >> te_update_diff:191 - Triggered transition abort (complete=1,<br>> tag=node_state,<br>> >> id=5262f929-1082-4a85-aa05-7bd1992f15be, magic=NA, cib=0.643.39) : Node<br>> >> failure<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke: Query 43:<br>

> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: abort_transition_graph:<br>> >> need_abort:59 - Triggered transition abort (complete=1) : Non-status<br>

> change<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: need_abort: Aborting on<br>> >> change to admin_epoch<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke: Query 44:<br>

> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:15:40 server1 cib: [2643]: info: log_data_element:<br>> cib:diff: -<br>> >> <cib dc-uuid="5262f929-1082-4a85-aa05-7bd1992f15be" admin_epoch="0"<br>

> >> epoch="643" num_updates="39" /><br>> >> > Apr 19 14:15:40 server1 cib: [2643]: info: log_data_element:<br>> cib:diff: +<br>> >> <cib dc-uuid="3e20966a-ed64-4972-8f5a-88be0977f759" admin_epoch="0"<br>

> >> epoch="644" num_updates="1" /><br>> >> > Apr 19 14:15:40 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_modify for section cib<br>

> (origin=local/crmd/41,<br>> >> version=0.644.1): ok (rc=0)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: probe_complete (true)<br>

> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: terminate (<null>)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: master-pri_drbd_Dienst:1 (<null>)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: unpack_config: On<br>> loss<br>> >> of CCM Quorum: Ignore<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: unpack_config: Node<br>> >> scores: 'red' = -INFINITY, 'yellow' = 0, 'green' = 0<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: unpack_nodes: Blind<br>

> >> faith: not fencing unseen nodes<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info:<br>> determine_online_status:<br>> >> Node server1 is online<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: clone_print:<br>

> >>  Master/Slave Set: ms_drbd_service<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>> >>  Masters: [ server1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_drbd_Dienst:1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: group_print:<br>>  Resource<br>> >> Group: group_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>

> >>  pri_FS_drbd_t3#011(ocf::heartbeat:Filesystem):#011Started server1<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_IP_Cluster#011(ocf::heartbeat:IPaddr2):#011Started server1<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_apache_Dienst#011(ocf::heartbeat:apache):#011Started server1<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: clone_print:  Clone<br>

> >> Set: clo_pingd<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>> >>  Started: [ server1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_pingd:1 ]<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke_callback:<br>> >> Invoking the PE: query=44, ref=pe_calc-dc-1271679340-11, seq=3,<br>> quorate=1<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> ms_drbd_service: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_drbd_Dienst:1 cannot run anywhere<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> ms_drbd_service: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>> Promoting<br>> >> pri_drbd_Dienst:0 (Master server1)<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 1 instances of a possible 1 to master<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>

> Promoting<br>> >> pri_drbd_Dienst:0 (Master server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 1 instances of a possible 1 to master<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>> >> pri_FS_drbd_t3: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_pingd:1 cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_drbd_Dienst:0#011(Master server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_drbd_Dienst:1#011(Stopped)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_FS_drbd_t3#011(Started server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_IP_Cluster#011(Started server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_apache_Dienst#011(Started server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_pingd:0#011(Started server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_pingd:1#011(Stopped)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: shutdown (<null>)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: pingd (200)<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_POLICY_ENGINE -> S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>> >> cause=C_IPC_MESSAGE origin=handle_response ]<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: unpack_graph: Unpacked<br>> >> transition 0: 0 actions in 0 synapses<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_te_invoke: Processing<br>

> >> graph 0 (ref=pe_calc-dc-1271679340-11) derived from<br>> >> /var/lib/pengine/pe-warn-489.bz2<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: run_graph:<br>> >> ====================================================<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: notice: run_graph: Transition 0<br>> >> (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>> >> Source=/var/lib/pengine/pe-warn-489.bz2): Complete<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_graph_trigger:<br>> Transition<br>> >> 0 is now complete<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: notify_crmd: Transition 0<br>

> >> status: done - <null><br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_TRANSITION_ENGINE -> S_IDLE [ input=I_TE_SUCCESS<br>

> >> cause=C_FSA_INTERNAL origin=notify_crmd ]<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition:<br>> >> Starting PEngine Recheck Timer<br>> >> > Apr 19 14:15:40 server1 cib: [8437]: info: write_cib_contents:<br>

> Archived<br>> >> previous version as /var/lib/heartbeat/crm/cib-63.raw<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: process_pe_message:<br>> >> Transition 0: WARNINGs found during PE processing. PEngine Input stored<br>

> in:<br>> >> /var/lib/pengine/pe-warn-489.bz2<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: process_pe_message:<br>> >> Configuration WARNINGs found during PE processing.  Please run<br>

> "crm_verify -L"<br>> >> to identify issues.<br>> >> > Apr 19 14:15:40 server1 cib: [8437]: info: write_cib_contents: Wrote<br>> >> version 0.644.0 of the CIB to disk (digest:<br>

> 762bf4c3d783ca09d0d61dbdece13737)<br>> >> > Apr 19 14:15:40 server1 cib: [8437]: info: retrieveCib: Reading<br>> cluster<br>> >> configuration from: /var/lib/heartbeat/crm/cib.3T4HBe (digest:<br>

> >> /var/lib/heartbeat/crm/cib.TXzgWB)<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server1<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server1<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:15:40 server1 attrd: [2646]: info: attrd_perform_update:<br>> Sent<br>> >> update 37: pingd=200<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: abort_transition_graph:<br>

> >> te_update_diff:146 - Triggered transition abort (complete=1,<br>> >> tag=transient_attributes, id=3e20966a-ed64-4972-8f5a-88be0977f759,<br>> magic=NA, cib=0.644.2) :<br>> >> Transient attribute: update<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_IDLE -> S_POLICY_ENGINE [ input=I_PE_CALC<br>> cause=C_FSA_INTERNAL<br>> >> origin=abort_transition_graph ]<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition: All<br>> 1<br>> >> cluster nodes are eligible to run resources.<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke: Query 45:<br>

> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: unpack_config: On<br>> loss<br>> >> of CCM Quorum: Ignore<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: unpack_config: Node<br>

> >> scores: 'red' = -INFINITY, 'yellow' = 0, 'green' = 0<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: unpack_nodes: Blind<br>> >> faith: not fencing unseen nodes<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info:<br>> determine_online_status:<br>> >> Node server1 is online<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: clone_print:<br>

> >>  Master/Slave Set: ms_drbd_service<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>> >>  Masters: [ server1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_drbd_Dienst:1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: group_print:<br>>  Resource<br>> >> Group: group_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>

> >>  pri_FS_drbd_t3#011(ocf::heartbeat:Filesystem):#011Started server1<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_IP_Cluster#011(ocf::heartbeat:IPaddr2):#011Started server1<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_apache_Dienst#011(ocf::heartbeat:apache):#011Started server1<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: clone_print:  Clone<br>

> >> Set: clo_pingd<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>> >>  Started: [ server1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_pingd:1 ]<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_drbd_Dienst:1 cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_drbd_Dienst:0 cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> pri_FS_drbd_t3: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_FS_drbd_t3 cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> pri_IP_Cluster: Rolling back scores from pri_apache_Dienst<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_IP_Cluster cannot run anywhere<br>
> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>
> >> pri_apache_Dienst cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_pingd:1 cannot run anywhere<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Demote<br>

> >> pri_drbd_Dienst:0#011(Master -> Stopped server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Stop<br>> >> resource pri_drbd_Dienst:0#011(server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_drbd_Dienst:1#011(Stopped)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Stop<br>> >> resource pri_FS_drbd_t3#011(server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Stop<br>

> >> resource pri_IP_Cluster#011(server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Stop<br>> >> resource pri_apache_Dienst#011(server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_pingd:0#011(Started server1)<br>> >> > Apr 19 14:15:40 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_pingd:1#011(Stopped)<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_pe_invoke_callback:<br>

> >> Invoking the PE: query=45, ref=pe_calc-dc-1271679340-12, seq=3,<br>> quorate=1<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_POLICY_ENGINE -> S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>

> >> cause=C_IPC_MESSAGE origin=handle_response ]<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: unpack_graph: Unpacked<br>> >> transition 1: 23 actions in 23 synapses<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_te_invoke: Processing<br>

> >> graph 1 (ref=pe_calc-dc-1271679340-12) derived from<br>> >> /var/lib/pengine/pe-warn-490.bz2<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 29 fired and confirmed<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 38 fired and confirmed<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_rsc_command:<br>
> Initiating<br>
> >> action 35: stop pri_apache_Dienst_stop_0 on server1 (local)<br>> >> > Apr 19 14:15:40 server1 lrmd: [2644]: info: cancel_op: operation<br>> >> monitor[18] on ocf::apache::pri_apache_Dienst for client 2647, its<br>

> parameters:<br>> >> CRM_meta_interval=[15000] CRM_meta_timeout=[120000]<br>> crm_feature_set=[3.0.1]<br>> >> port=[80] CRM_meta_name=[monitor]<br>> configfile=[/etc/apache2/apache2.conf]<br>> >> httpd=[/usr/sbin/apache2]  cancelled<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=35:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> op=pri_apache_Dienst_stop_0 )<br>> >> > Apr 19 14:15:40 server1 lrmd: [2644]: info: rsc:pri_apache_Dienst:19:<br>

> >> stop<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: process_lrm_event: LRM<br>> >> operation pri_apache_Dienst_monitor_15000 (call=18, status=1,<br>> cib-update=0,<br>> >> confirmed=true) Cancelled<br>

> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: te_rsc_command:<br>> Initiating<br>> >> action 60: notify pri_drbd_Dienst:0_pre_notify_demote_0 on server1<br>> (local)<br>> >> > Apr 19 14:15:40 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>

> >> key=60:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> op=pri_drbd_Dienst:0_notify_0<br>> >> )<br>> >> > Apr 19 14:15:40 server1 lrmd: [2644]: info: rsc:pri_drbd_Dienst:0:20:<br>> >> notify<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: WARN: process_pe_message:<br>> >> Transition 1: WARNINGs found during PE processing. PEngine Input stored<br>> in:<br>> >> /var/lib/pengine/pe-warn-490.bz2<br>

> >> > Apr 19 14:15:40 server1 pengine: [8287]: info: process_pe_message:<br>> >> Configuration WARNINGs found during PE processing.  Please run<br>> "crm_verify -L"<br>> >> to identify issues.<br>

> >> > Apr 19 14:15:41 server1 crmd: [2647]: info: process_lrm_event: LRM<br>> >> operation pri_drbd_Dienst:0_notify_0 (call=20, rc=0, cib-update=46,<br>> >> confirmed=true) ok<br>> >> > Apr 19 14:15:41 server1 crmd: [2647]: info: match_graph_event: Action<br>

> >> pri_drbd_Dienst:0_pre_notify_demote_0 (60) confirmed on server1 (rc=0)<br>> >> > Apr 19 14:15:41 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 30 fired and confirmed<br>

> >> > Apr 19 14:15:41 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:15:42 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: RA output:<br>> >> (pri_apache_Dienst:stop:stderr)<br>> /usr/lib/ocf/resource.d//heartbeat/apache: line 437: kill:<br>

> >> (3247) - No such process<br>> >> > Apr 19 14:15:42 server1 apache[8438]: INFO: Killing apache PID 3247<br>> >> > Apr 19 14:15:42 server1 apache[8438]: INFO: apache stopped.<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>

> >> operation pri_apache_Dienst_stop_0 (call=19, rc=0, cib-update=47,<br>> >> confirmed=true) ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_apache_Dienst_stop_0 (35) confirmed on server1 (rc=0)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>> Initiating<br>> >> action 34: stop pri_IP_Cluster_stop_0 on server1 (local)<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: cancel_op: operation<br>

> >> monitor[16] on ocf::IPaddr2::pri_IP_Cluster for client 2647, its<br>> parameters:<br>> >> CRM_meta_interval=[3000] ip=[192.168.1.253] cidr_netmask=[24]<br>> >> CRM_meta_timeout=[120000] crm_feature_set=[3.0.1]<br>

> CRM_meta_name=[monitor] nic=[eth1]<br>> >>  cancelled<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=34:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>

> op=pri_IP_Cluster_stop_0 )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_IP_Cluster:21:<br>> stop<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>

> >> operation pri_IP_Cluster_monitor_3000 (call=16, status=1, cib-update=0,<br>> >> confirmed=true) Cancelled<br>> >> > Apr 19 14:15:42 server1 IPaddr2[8533]: INFO: IP status = ok, IP_CIP=<br>

> >> > Apr 19 14:15:42 server1 IPaddr2[8533]: INFO: ip -f inet addr delete<br>> >> <a href="http://192.168.1.253/24" target="_blank">192.168.1.253/24</a> dev eth1<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>

> >> operation pri_IP_Cluster_stop_0 (call=21, rc=0, cib-update=48,<br>> confirmed=true)<br>> >> ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_IP_Cluster_stop_0 (34) confirmed on server1 (rc=0)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>> Initiating<br>> >> action 33: stop pri_FS_drbd_t3_stop_0 on server1 (local)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>

> >> key=33:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> op=pri_FS_drbd_t3_stop_0 )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_FS_drbd_t3:22:<br>> stop<br>> >> > Apr 19 14:15:42 server1 Filesystem[8577]: INFO: Running stop for<br>

> >> /dev/drbd0 on /mnt/drbd_daten<br>> >> > Apr 19 14:15:42 server1 Filesystem[8577]: INFO: Trying to unmount<br>> >> /mnt/drbd_daten<br>> >> > Apr 19 14:15:42 server1 Filesystem[8577]: INFO: unmounted<br>

> >> /mnt/drbd_daten successfully<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>> >> operation pri_FS_drbd_t3_stop_0 (call=22, rc=0, cib-update=49,<br>> confirmed=true)<br>

> >> ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_FS_drbd_t3_stop_0 (33) confirmed on server1 (rc=0)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>

> >> action 39 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 27 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>

> Initiating<br>> >> action 7: demote pri_drbd_Dienst:0_demote_0 on server1 (local)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=7:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>

> op=pri_drbd_Dienst:0_demote_0<br>> >> )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_drbd_Dienst:0:23:<br>> >> demote<br>> >> > Apr 19 14:15:42 server1 kernel: [  459.806546] block drbd0: role(<br>

> >> Primary -> Secondary )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: RA output:<br>> >> (pri_drbd_Dienst:0:demote:stdout)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>

> >> operation pri_drbd_Dienst:0_demote_0 (call=23, rc=0, cib-update=50,<br>> >> confirmed=true) ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_drbd_Dienst:0_demote_0 (7) confirmed on server1 (rc=0)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 28 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>

> >> action 31 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>> Initiating<br>> >> action 61: notify pri_drbd_Dienst:0_post_notify_demote_0 on server1<br>

> (local)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=61:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> op=pri_drbd_Dienst:0_notify_0<br>> >> )<br>

> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_drbd_Dienst:0:24:<br>> >> notify<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: RA output:<br>> >> (pri_drbd_Dienst:0:notify:stdout)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>> >> operation pri_drbd_Dienst:0_notify_0 (call=24, rc=0, cib-update=51,<br>> >> confirmed=true) ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>

> >> pri_drbd_Dienst:0_post_notify_demote_0 (61) confirmed on server1 (rc=0)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 32 fired and confirmed<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 17 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>
> Initiating<br>
> >> action 59: notify pri_drbd_Dienst:0_pre_notify_stop_0 on server1<br>> (local)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=59:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>

> op=pri_drbd_Dienst:0_notify_0<br>> >> )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_drbd_Dienst:0:25:<br>> >> notify<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>

> >> operation pri_drbd_Dienst:0_notify_0 (call=25, rc=0, cib-update=52,<br>> >> confirmed=true) ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_drbd_Dienst:0_pre_notify_stop_0 (59) confirmed on server1 (rc=0)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 18 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>

> >> action 15 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_rsc_command:<br>> Initiating<br>> >> action 8: stop pri_drbd_Dienst:0_stop_0 on server1 (local)<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_lrm_rsc_op: Performing<br>> >> key=8:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c<br>> op=pri_drbd_Dienst:0_stop_0 )<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: rsc:pri_drbd_Dienst:0:26:<br>

> >> stop<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.066902] block drbd0: peer(<br>> >> Secondary -> Unknown ) conn( Connected -> Disconnecting ) pdsk(<br>> UpToDate -><br>
> >> DUnknown )<br>
> >> > Apr 19 14:15:42 server1 kernel: [  460.067035] block drbd0: asender<br>> >> terminated<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.067039] block drbd0:<br>> Terminating<br>
> >> asender thread<br>
> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: RA output:<br>> >> (pri_drbd_Dienst:0:stop:stdout)<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076574] block drbd0:<br>> Connection<br>

> >> closed<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076589] block drbd0: conn(<br>> >> Disconnecting -> StandAlone )<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076605] block drbd0: receiver<br>

> >> terminated<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076608] block drbd0:<br>> Terminating<br>> >> receiver thread<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076689] block drbd0: disk(<br>

> >> UpToDate -> Diskless )<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076722] block drbd0:<br>> >> drbd_bm_resize called with capacity == 0<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076787] block drbd0: worker<br>

> >> terminated<br>> >> > Apr 19 14:15:42 server1 kernel: [  460.076789] block drbd0:<br>> Terminating<br>> >> worker thread<br>> >> > Apr 19 14:15:42 server1 crm_attribute: [8761]: info: Invoked:<br>

> >> crm_attribute -N server1 -n master-pri_drbd_Dienst:0 -l reboot -D<br>> >> > Apr 19 14:15:42 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: master-pri_drbd_Dienst:0 (<null>)<br>

> >> > Apr 19 14:15:42 server1 attrd: [2646]: info: attrd_perform_update:<br>> Sent<br>> >> delete 39: node=3e20966a-ed64-4972-8f5a-88be0977f759,<br>> >> attr=master-pri_drbd_Dienst:0, id=<n/a>, set=(null), section=status<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: abort_transition_graph:<br>> >> te_update_diff:157 - Triggered transition abort (complete=0,<br>> >> tag=transient_attributes, id=3e20966a-ed64-4972-8f5a-88be0977f759,<br>

> magic=NA, cib=0.644.10) :<br>> >> Transient attribute: removal<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: update_abort_priority:<br>> Abort<br>> >> priority upgraded from 0 to 1000000<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: update_abort_priority:<br>> Abort<br>> >> action done superceeded by restart<br>> >> > Apr 19 14:15:42 server1 lrmd: [2644]: info: RA output:<br>

> >> (pri_drbd_Dienst:0:stop:stdout)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: process_lrm_event: LRM<br>> >> operation pri_drbd_Dienst:0_stop_0 (call=26, rc=0, cib-update=53,<br>

> >> confirmed=true) ok<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: match_graph_event: Action<br>> >> pri_drbd_Dienst:0_stop_0 (8) confirmed on server1 (rc=0)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>

> >> action 16 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>> >> action 19 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_pseudo_action: Pseudo<br>

> >> action 20 fired and confirmed<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: run_graph:<br>> >> ====================================================<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: notice: run_graph: Transition 1<br>

> >> (Complete=22, Pending=0, Fired=0, Skipped=1, Incomplete=0,<br>> >> Source=/var/lib/pengine/pe-warn-490.bz2): Stopped<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_graph_trigger:<br>

> Transition<br>> >> 1 is now complete<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_TRANSITION_ENGINE -> S_POLICY_ENGINE [ input=I_PE_CALC<br>

> >> cause=C_FSA_INTERNAL origin=notify_crmd ]<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_state_transition: All<br>> 1<br>> >> cluster nodes are eligible to run resources.<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_pe_invoke: Query 54:<br>> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:15:42 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: unpack_config: On<br>> loss<br>> >> of CCM Quorum: Ignore<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: unpack_config: Node<br>

> >> scores: 'red' = -INFINITY, 'yellow' = 0, 'green' = 0<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: unpack_nodes: Blind<br>> >> faith: not fencing unseen nodes<br>

> >> > Apr 19 14:15:42 server1 pengine: [8287]: info:<br>> determine_online_status:<br>> >> Node server1 is online<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: clone_print:<br>

> >>  Master/Slave Set: ms_drbd_service<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: short_print:<br>> >>  Stopped: [ pri_drbd_Dienst:0 pri_drbd_Dienst:1 ]<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: group_print:<br>

>  Resource<br>> >> Group: group_t3<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_FS_drbd_t3#011(ocf::heartbeat:Filesystem):#011Stopped<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: native_print:<br>

> >>  pri_IP_Cluster#011(ocf::heartbeat:IPaddr2):#011Stopped<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_apache_Dienst#011(ocf::heartbeat:apache):#011Stopped<br>

> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: clone_print:  Clone<br>> >> Set: clo_pingd<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: short_print:<br>> >>  Started: [ server1 ]<br>

> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: short_print:<br>> >>  Stopped: [ pri_pingd:1 ]<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>

> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_drbd_Dienst:0 cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_drbd_Dienst:1 cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>
> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: master_color:<br>
> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>

> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: native_merge_weights:<br>> >> pri_FS_drbd_t3: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_FS_drbd_t3 cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: native_merge_weights:<br>> >> pri_IP_Cluster: Rolling back scores from pri_apache_Dienst<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_IP_Cluster cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_apache_Dienst cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_pingd:1 cannot run anywhere<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_drbd_Dienst:0#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_drbd_Dienst:1#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_FS_drbd_t3#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_IP_Cluster#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_apache_Dienst#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_pingd:0#011(Started server1)<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_pingd:1#011(Stopped)<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_pe_invoke_callback:<br>

> >> Invoking the PE: query=54, ref=pe_calc-dc-1271679342-21, seq=3,<br>> quorate=1<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_POLICY_ENGINE -> S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>

> >> cause=C_IPC_MESSAGE origin=handle_response ]<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: unpack_graph: Unpacked<br>> >> transition 2: 0 actions in 0 synapses<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_te_invoke: Processing<br>

> >> graph 2 (ref=pe_calc-dc-1271679342-21) derived from<br>> >> /var/lib/pengine/pe-warn-491.bz2<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: run_graph:<br>> >> ====================================================<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: notice: run_graph: Transition 2<br>> >> (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>> >> Source=/var/lib/pengine/pe-warn-491.bz2): Complete<br>

> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: te_graph_trigger:<br>> Transition<br>> >> 2 is now complete<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: notify_crmd: Transition 2<br>

> >> status: done - <null><br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_TRANSITION_ENGINE -> S_IDLE [ input=I_TE_SUCCESS<br>

> >> cause=C_FSA_INTERNAL origin=notify_crmd ]<br>> >> > Apr 19 14:15:42 server1 crmd: [2647]: info: do_state_transition:<br>> >> Starting PEngine Recheck Timer<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: WARN: process_pe_message:<br>

> >> Transition 2: WARNINGs found during PE processing. PEngine Input stored<br>> in:<br>> >> /var/lib/pengine/pe-warn-491.bz2<br>> >> > Apr 19 14:15:42 server1 pengine: [8287]: info: process_pe_message:<br>

> >> Configuration WARNINGs found during PE processing.  Please run<br>> "crm_verify -L"<br>> >> to identify issues.<br>> >> > Apr 19 14:15:45 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:15:46 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:15:48 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: pingd (0)<br>> >> > Apr 19 14:15:48 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server1<br>> >> > Apr 19 14:15:48 server1 attrd: [2646]: info: attrd_perform_update:<br>

> Sent<br>> >> update 42: pingd=0<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: abort_transition_graph:<br>> >> te_update_diff:146 - Triggered transition abort (complete=1,<br>> >> tag=transient_attributes, id=3e20966a-ed64-4972-8f5a-88be0977f759,<br>

> magic=NA, cib=0.644.12) :<br>> >> Transient attribute: update<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_IDLE -> S_POLICY_ENGINE [ input=I_PE_CALC<br>

> cause=C_FSA_INTERNAL<br>> >> origin=abort_transition_graph ]<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_state_transition: All<br>> 1<br>> >> cluster nodes are eligible to run resources.<br>

> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_pe_invoke: Query 55:<br>> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: unpack_config: On<br>

> loss<br>> >> of CCM Quorum: Ignore<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: unpack_config: Node<br>> >> scores: 'red' = -INFINITY, 'yellow' = 0, 'green' = 0<br>

> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: unpack_nodes: Blind<br>> >> faith: not fencing unseen nodes<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info:<br>> determine_online_status:<br>

> >> Node server1 is online<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: clone_print:<br>> >>  Master/Slave Set: ms_drbd_service<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_drbd_Dienst:0 pri_drbd_Dienst:1 ]<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: group_print:<br>>  Resource<br>> >> Group: group_t3<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: native_print:<br>

> >>  pri_FS_drbd_t3#011(ocf::heartbeat:Filesystem):#011Stopped<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_IP_Cluster#011(ocf::heartbeat:IPaddr2):#011Stopped<br>

> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: native_print:<br>> >>  pri_apache_Dienst#011(ocf::heartbeat:apache):#011Stopped<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: clone_print:  Clone<br>

> >> Set: clo_pingd<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: short_print:<br>> >>  Started: [ server1 ]<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: short_print:<br>

> >>  Stopped: [ pri_pingd:1 ]<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: native_merge_weights:<br>> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>

> >> pri_drbd_Dienst:0 cannot run anywhere<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_drbd_Dienst:1 cannot run anywhere<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> ms_drbd_service: Rolling back scores from pri_FS_drbd_t3<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>

> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: master_color:<br>> >> ms_drbd_service: Promoted 0 instances of a possible 1 to master<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> pri_FS_drbd_t3: Rolling back scores from pri_IP_Cluster<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_FS_drbd_t3 cannot run anywhere<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: native_merge_weights:<br>

> >> pri_IP_Cluster: Rolling back scores from pri_apache_Dienst<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_IP_Cluster cannot run anywhere<br>
> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>
> >> pri_apache_Dienst cannot run anywhere<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: native_color: Resource<br>> >> pri_pingd:1 cannot run anywhere<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_drbd_Dienst:0#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_drbd_Dienst:1#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_FS_drbd_t3#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_IP_Cluster#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_apache_Dienst#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>> >> resource pri_pingd:0#011(Started server1)<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: notice: LogActions: Leave<br>

> >> resource pri_pingd:1#011(Stopped)<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_pe_invoke_callback:<br>> >> Invoking the PE: query=55, ref=pe_calc-dc-1271679348-22, seq=3,<br>

> quorate=1<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_POLICY_ENGINE -> S_TRANSITION_ENGINE [ input=I_PE_SUCCESS<br>> >> cause=C_IPC_MESSAGE origin=handle_response ]<br>

> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: unpack_graph: Unpacked<br>> >> transition 3: 0 actions in 0 synapses<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_te_invoke: Processing<br>

> >> graph 3 (ref=pe_calc-dc-1271679348-22) derived from<br>> >> /var/lib/pengine/pe-warn-492.bz2<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: run_graph:<br>> >> ====================================================<br>

> >> > Apr 19 14:15:48 server1 crmd: [2647]: notice: run_graph: Transition 3<br>> >> (Complete=0, Pending=0, Fired=0, Skipped=0, Incomplete=0,<br>> >> Source=/var/lib/pengine/pe-warn-492.bz2): Complete<br>

> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: te_graph_trigger:<br>> Transition<br>> >> 3 is now complete<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: notify_crmd: Transition 3<br>

> >> status: done - <null><br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_TRANSITION_ENGINE -> S_IDLE [ input=I_TE_SUCCESS<br>

> >> cause=C_FSA_INTERNAL origin=notify_crmd ]<br>> >> > Apr 19 14:15:48 server1 crmd: [2647]: info: do_state_transition:<br>> >> Starting PEngine Recheck Timer<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: WARN: process_pe_message:<br>

> >> Transition 3: WARNINGs found during PE processing. PEngine Input stored<br>> in:<br>> >> /var/lib/pengine/pe-warn-492.bz2<br>> >> > Apr 19 14:15:48 server1 pengine: [8287]: info: process_pe_message:<br>

> >> Configuration WARNINGs found during PE processing.  Please run<br>> "crm_verify -L"<br>> >> to identify issues.<br>> >> > Apr 19 14:15:57 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:15:59 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:16:00 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:16:03 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:16:04 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:16:15 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:17 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:16:18 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.4.10 is unreachable (read)<br>> >> > Apr 19 14:16:21 server1 pingd: [2837]: info: stand_alone_ping: Node<br>

> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:16:22 server1 pingd: [2837]: info: stand_alone_ping: Node<br>> >> 192.168.1.1 is unreachable (read)<br>> >> > Apr 19 14:16:29 server1 kernel: [  507.095214] eth1: link up,<br>

> 100Mbps,<br>> >> full-duplex, lpa 0xC1E1<br>> >> > Apr 19 14:16:30 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:30 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: info: For information on<br>> >> cluster partitions, See URL: <a href="http://linux-ha.org/wiki/Split_Brain" target="_blank">http://linux-ha.org/wiki/Split_Brain</a><br>

> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: WARN: Deadtime value may<br>> be<br>> >> too small.<br>> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: info: See FAQ for<br>> information<br>

> >> on tuning deadtime.<br>> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: info: URL:<br>> >> <a href="http://linux-ha.org/wiki/FAQ#Heavy_Load" target="_blank">http://linux-ha.org/wiki/FAQ#Heavy_Load</a><br>

> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: info: Link server2:eth1<br>> up.<br>> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: WARN: Late heartbeat: Node<br>> >> server2: interval 68040 ms<br>

> >> > Apr 19 14:16:30 server1 heartbeat: [2586]: info: Status update for<br>> node<br>> >> server2: status active<br>> >> > Apr 19 14:16:30 server1 crmd: [2647]: notice:<br>> crmd_ha_status_callback:<br>

> >> Status update: Node server2 now has status [active] (DC=true)<br>> >> > Apr 19 14:16:30 server1 crmd: [2647]: info: crm_update_peer_proc:<br>> >> server2.ais is now online<br>> >> > Apr 19 14:16:30 server1 cib: [2643]: WARN: cib_peer_callback:<br>

> Discarding<br>> >> cib_apply_diff message (27f) from server2: not in our membership<br>> >> > Apr 19 14:16:31 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>

> >> > Apr 19 14:16:32 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: WARN: crmd_ha_msg_callback:<br>

> >> Ignoring HA message (op=noop) from server2: not in our membership list<br>> (size=1)<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: mem_handle_event: Got an<br>> >> event OC_EV_MS_INVALID from ccm<br>

> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: mem_handle_event: no<br>> >> mbr_track info<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: mem_handle_event: Got an<br>> >> event OC_EV_MS_NEW_MEMBERSHIP from ccm<br>

> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: mem_handle_event:<br>> >> instance=5, nodes=2, new=1, lost=0, n_idx=0, new_idx=2, old_idx=4<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: crmd_ccm_msg_callback:<br>

> >> Quorum (re)attained after event=NEW MEMBERSHIP (id=5)<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: ccm_event_detail: NEW<br>> >> MEMBERSHIP: trans=5, nodes=2, new=1, lost=0 n_idx=0, new_idx=2,<br>

> old_idx=4<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: ccm_event_detail:<br>> >> #011CURRENT: server2 [nodeid=1, born=1]<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: ccm_event_detail:<br>

> >> #011CURRENT: server1 [nodeid=0, born=5]<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: ccm_event_detail:<br>> #011NEW:<br>> >>     server2 [nodeid=1, born=1]<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: ais_status_callback:<br>

> status:<br>> >> server2 is now member (was lost)<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: crm_update_peer: Node<br>> >> server2: id=1 state=member (new) addr=(null) votes=-1 born=1 seen=5<br>

> >> proc=00000000000000000000000000000202<br>> >> > Apr 19 14:16:32 server1 crmd: [2647]: info: populate_cib_nodes_ha:<br>> >> Requesting the list of configured nodes<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: WARN: cib_peer_callback:<br>

> Discarding<br>> >> cib_apply_diff message (287) from server2: not in our membership<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: WARN: cib_peer_callback:<br>> Discarding<br>> >> cib_apply_diff message (289) from server2: not in our membership<br>

> >> > Apr 19 14:16:32 server1 cib: [2643]: info: mem_handle_event: Got an<br>> >> event OC_EV_MS_INVALID from ccm<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: info: mem_handle_event: no<br>

> >> mbr_track info<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: info: mem_handle_event: Got an<br>> >> event OC_EV_MS_NEW_MEMBERSHIP from ccm<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: info: mem_handle_event:<br>

> instance=5,<br>> >> nodes=2, new=1, lost=0, n_idx=0, new_idx=2, old_idx=4<br>> >> > Apr 19 14:16:32 server1 cib: [2643]: info: cib_ccm_msg_callback:<br>> >> Processing CCM event=NEW MEMBERSHIP (id=5)<br>

> >> > Apr 19 14:16:32 server1 cib: [2643]: info: crm_update_peer: Node<br>> >> server2: id=1 state=member (new) addr=(null) votes=-1 born=1 seen=5<br>> >> proc=00000000000000000000000000000302<br>

> >> > Apr 19 14:16:32 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_delete for section<br>> //node_state[@uname='server2']/lrm<br>> >> (origin=local/crmd/57, version=0.644.14): ok (rc=0)<br>

> >> > Apr 19 14:16:32 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_delete for section<br>> >> //node_state[@uname='server2']/transient_attributes<br>

> (origin=local/crmd/58, version=0.644.15): ok (rc=0)<br>> >> > Apr 19 14:16:33 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: abort_transition_graph:<br>

> >> te_update_diff:267 - Triggered transition abort (complete=1,<br>> tag=lrm_rsc_op,<br>> >> id=pri_FS_drbd_t3_monitor_0,<br>> >> magic=0:7;11:0:7:6090ba02-c064-4d80-9222-bf77b7011e17, cib=0.644.14) :<br>

> Resource op removal<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: erase_xpath_callback:<br>> >> Deletion of "//node_state[@uname='server2']/lrm": ok (rc=0)<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: abort_transition_graph:<br>

> >> te_update_diff:157 - Triggered transition abort (complete=1,<br>> >> tag=transient_attributes, id=5262f929-1082-4a85-aa05-7bd1992f15be,<br>> magic=NA, cib=0.644.15) :<br>> >> Transient attribute: removal<br>

> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: erase_xpath_callback:<br>> >> Deletion of "//node_state[@uname='server2']/transient_attributes": ok<br>> (rc=0)<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_state_transition:<br>

> State<br>> >> transition S_IDLE -> S_POLICY_ENGINE [ input=I_PE_CALC<br>> cause=C_FSA_INTERNAL<br>> >> origin=abort_transition_graph ]<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_state_transition:<br>

> >> Membership changed: 3 -> 5 - join restart<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_pe_invoke: Query 61:<br>> >> Requesting the current CIB: S_POLICY_ENGINE<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_state_transition:<br>

> State<br>> >> transition S_POLICY_ENGINE -> S_INTEGRATION [ input=I_NODE_JOIN<br>> >> cause=C_FSA_INTERNAL origin=do_state_transition ]<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: update_dc: Unset DC<br>

> server1<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: join_make_offer: Making<br>> join<br>> >> offers based on membership 5<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_dc_join_offer_all:<br>

> >> join-2: Waiting on 2 outstanding join acks<br>> >> > Apr 19 14:16:33 server1 cib: [2643]: info: cib_process_request:<br>> >> Operation complete: op cib_modify for section nodes<br>> (origin=local/crmd/59,<br>

> >> version=0.644.15): ok (rc=0)<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_INTEGRATION -> S_ELECTION [ input=I_ELECTION<br>

> >> cause=C_FSA_INTERNAL origin=crmd_ha_msg_filter ]<br>> >> > Apr 19 14:16:33 server1 crmd: [2647]: WARN: do_log: FSA: Input<br>> >> I_JOIN_OFFER from route_message() received in state S_ELECTION<br>

> >> > Apr 19 14:16:33 server1 cib: [2643]: WARN: cib_process_diff: Diff<br>> >> 0.643.50 -> 0.643.51 not applied to 0.644.16: current "epoch" is<br>> greater than<br>> >> required<br>

> >> > Apr 19 14:16:34 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_state_transition:<br>

> State<br>> >> transition S_ELECTION -> S_RELEASE_DC [ input=I_RELEASE_DC<br>> >> cause=C_FSA_INTERNAL origin=do_election_count_vote ]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_dc_release: DC role<br>

> >> released<br>> >> > Apr 19 14:16:34 server1 pengine: [8287]: info: crm_signal_dispatch:<br>> >> Invoking handler for signal 15: Terminated<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: stop_subsystem: Sent<br>

> -TERM<br>> >> to pengine: [8287]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>> Transitioner<br>> >> is now inactive<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>

> Disconnecting<br>> >> STONITH...<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info:<br>> >> tengine_stonith_connection_destroy: Fencing daemon disconnected<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: notice: Not currently<br>

> connected.<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: WARN: do_log: FSA: Input<br>> >> I_RELEASE_DC from do_election_count_vote() received in state<br>> S_RELEASE_DC<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_dc_release: DC role<br>

> >> released<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: stop_subsystem: Sent<br>> -TERM<br>> >> to pengine: [8287]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>

> Transitioner<br>> >> is now inactive<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: WARN: do_log: FSA: Input<br>> >> I_RELEASE_DC from do_election_count_vote() received in state<br>> S_RELEASE_DC<br>

> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_dc_release: DC role<br>> >> released<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: stop_subsystem: Sent<br>> -TERM<br>> >> to pengine: [8287]<br>

> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>> Transitioner<br>> >> is now inactive<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: WARN: do_log: FSA: Input<br>
> >> I_RELEASE_DC from do_election_count_vote() received in state<br>
> S_RELEASE_DC<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_dc_release: DC role<br>> >> released<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: stop_subsystem: Sent<br>

> -TERM<br>> >> to pengine: [8287]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>> Transitioner<br>> >> is now inactive<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: WARN: do_log: FSA: Input<br>

> >> I_RELEASE_DC from do_election_count_vote() received in state<br>> S_RELEASE_DC<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_dc_release: DC role<br>> >> released<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: stop_subsystem: Sent<br>

> -TERM<br>> >> to pengine: [8287]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_te_control:<br>> Transitioner<br>> >> is now inactive<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: do_state_transition:<br>

> State<br>> >> transition S_RELEASE_DC -> S_PENDING [ input=I_RELEASE_SUCCESS<br>> >> cause=C_FSA_INTERNAL origin=do_dc_release ]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: crmdManagedChildDied:<br>

> >> Process pengine:[8287] exited (signal=0, exitcode=0)<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: pe_msg_dispatch: Received<br>> >> HUP from pengine:[8287]<br>> >> > Apr 19 14:16:34 server1 crmd: [2647]: info: pe_connection_destroy:<br>

> >> Connection to the Policy Engine released<br>> >> > Apr 19 14:16:34 server1 cib: [2643]: info: cib_process_readwrite: We<br>> are<br>> >> now in R/O mode<br>> >> > Apr 19 14:16:35 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:36 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:37 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:38 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:38 server1 crmd: [2647]: info: update_dc: Set DC to<br>

> server2<br>> >> (3.0.1)<br>> >> > Apr 19 14:16:39 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:39 server1 cib: [2643]: info: cib_process_request:<br>

> >> Operation complete: op cib_sync for section 'all'<br>> (origin=server2/crmd/74,<br>> >> version=0.644.16): ok (rc=0)<br>> >> > Apr 19 14:16:40 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:41 server1 crmd: [2647]: info: do_state_transition:<br>> State<br>> >> transition S_PENDING -> S_NOT_DC [ input=I_NOT_DC cause=C_HA_MESSAGE<br>

> >> origin=do_cl_join_finalize_respond ]<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_local_callback:<br>> >> Sending full refresh (origin=crmd)<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: master-pri_drbd_Dienst:0 (<null>)<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: probe_complete (true)<br>

> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: terminate (<null>)<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>

> >> Sending flush op to all hosts for: master-pri_drbd_Dienst:1 (<null>)<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: shutdown (<null>)<br>

> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_trigger_update:<br>> >> Sending flush op to all hosts for: pingd (200)<br>> >> > Apr 19 14:16:41 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_perform_update:<br>> Sent<br>> >> update 56: pingd=200<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server1<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server1<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server1<br>> >> > Apr 19 14:16:41 server1 attrd: [2646]: info: attrd_perform_update:<br>> Sent<br>> >> update 62: pingd=200<br>> >> > Apr 19 14:16:42 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>

> >> Name or service not known<br>> >> > Apr 19 14:16:43 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:43 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>> >> message from server2<br>> >> > Apr 19 14:16:43 server1 cib: [8805]: info: write_cib_contents:<br>

> Archived<br>> >> previous version as /var/lib/heartbeat/crm/cib-64.raw<br>> >> > Apr 19 14:16:43 server1 cib: [8805]: info: write_cib_contents: Wrote<br>> >> version 0.645.0 of the CIB to disk (digest:<br>

> a9f8f622cb29207ef4bbcc7c0e1cab21)<br>> >> > Apr 19 14:16:43 server1 cib: [8805]: info: retrieveCib: Reading<br>> cluster<br>> >> configuration from: /var/lib/heartbeat/crm/cib.1YTxsI (digest:<br>

> >> /var/lib/heartbeat/crm/cib.ULo5OR)<br>> >> > Apr 19 14:16:44 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:44 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:45 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> > Apr 19 14:16:45 server1 attrd: [2646]: info: attrd_ha_callback: flush<br>

> >> message from server2<br>> >> > Apr 19 14:16:46 server1 pingd: [2837]: WARN: ping_open: getaddrinfo:<br>> >> Name or service not known<br>> >> ><br>> >> > ---------------<br>

> >> > cibadmin -Q<br>> >> ><br>> >> ><br>> >> > <cib validate-with="pacemaker-1.0" crm_feature_set="3.0.1"<br>> >> have-quorum="1" dc-uuid="5262f929-1082-4a85-aa05-7bd1992f15be"<br>

> admin_epoch="0"<br>> >> epoch="645" num_updates="11"><br>> >> >  <configuration><br>> >> >    <crm_config><br>> >> >      <cluster_property_set id="cib-bootstrap-options"><br>

> >> >        <nvpair id="cib-bootstrap-options-dc-version"<br>> >> name="dc-version"<br>> value="1.0.8-2c98138c2f070fcb6ddeab1084154cffbf44ba75"/><br>> >> >        <nvpair id="cib-bootstrap-options-cluster-infrastructure"<br>

> >> name="cluster-infrastructure" value="Heartbeat"/><br>> >> >        <nvpair id="cib-bootstrap-options-no-quorum-policy"<br>> >> name="no-quorum-policy" value="ignore"/><br>

> >> >        <nvpair name="default-resource-stickiness"<br>> >> id="cib-bootstrap-options-default-resource-stickiness" value="100"/><br>> >> >        <nvpair name="last-lrm-refresh"<br>

> >> id="cib-bootstrap-options-last-lrm-refresh" value="1271678801"/><br>> >> >        <nvpair id="cib-bootstrap-options-startup-fencing"<br>> >> name="startup-fencing" value="false"/><br>

> >> >        <nvpair id="cib-bootstrap-options-stonith-enabled"<br>> >> name="stonith-enabled" value="false"/><br>> >> >        <nvpair id="cib-bootstrap-options-default-action-timeout"<br>

> >> name="default-action-timeout" value="120s"/><br>> >> >      </cluster_property_set><br>> >> >    </crm_config><br>> >> >    <nodes><br>

> >> >      <node type="normal" uname="server1"<br>> >> id="3e20966a-ed64-4972-8f5a-88be0977f759"><br>> >> >        <instance_attributes<br>> >> id="nodes-3e20966a-ed64-4972-8f5a-88be0977f759"><br>

> >> >          <nvpair name="standby"<br>> >> id="nodes-3e20966a-ed64-4972-8f5a-88be0977f759-standby" value="off"/><br>> >> >        </instance_attributes><br>

> >> >      </node><br>> >> >      <node type="normal" uname="server2"<br>> >> id="5262f929-1082-4a85-aa05-7bd1992f15be"><br>> >> >        <instance_attributes<br>

> >> id="nodes-5262f929-1082-4a85-aa05-7bd1992f15be"><br>> >> >          <nvpair name="standby"<br>> >> id="nodes-5262f929-1082-4a85-aa05-7bd1992f15be-standby" value="off"/><br>

> >> >        </instance_attributes><br>> >> >      </node><br>> >> >    </nodes><br>> >> >    <resources><br>> >> >      <master id="ms_drbd_service"><br>

> >> >        <meta_attributes id="ms_drbd_service-meta_attributes"><br>> >> >          <nvpair id="ms_drbd_service-meta_attributes-notify"<br>> >> name="notify" value="true"/><br>

> >> >          <nvpair<br>> id="ms_drbd_service-meta_attributes-target-role"<br>> >> name="target-role" value="Started"/><br>> >> >        </meta_attributes><br>

> >> >        <primitive class="ocf" id="pri_drbd_Dienst"<br>> provider="linbit"<br>> >> type="drbd"><br>> >> >          <instance_attributes<br>

> >> id="pri_drbd_Dienst-instance_attributes"><br>> >> >            <nvpair<br>> >> id="pri_drbd_Dienst-instance_attributes-drbd_resource"<br>> name="drbd_resource" value="t3"/><br>

> >> >          </instance_attributes><br>> >> >          <operations><br>> >> >            <op id="pri_drbd_Dienst-monitor-15" interval="15"<br>> >> name="monitor"/><br>

> >> >            <op id="pri_drbd_Dienst-start-0" interval="0"<br>> >> name="start" timeout="240"/><br>> >> >            <op id="pri_drbd_Dienst-stop-0" interval="0"<br>

> >> name="stop" timeout="100"/><br>> >> >          </operations><br>> >> >        </primitive><br>> >> >      </master><br>> >> >      <group id="group_t3"><br>

> >> >        <primitive class="ocf" id="pri_FS_drbd_t3"<br>> >> provider="heartbeat" type="Filesystem"><br>> >> >          <instance_attributes<br>

> >> id="pri_FS_drbd_t3-instance_attributes"><br>> >> >            <nvpair<br>> id="pri_FS_drbd_t3-instance_attributes-device"<br>> >> name="device" value="/dev/drbd0"/><br>

> >> >            <nvpair<br>> >> id="pri_FS_drbd_t3-instance_attributes-directory" name="directory"<br>> value="/mnt/drbd_daten"/><br>> >> >            <nvpair<br>

> id="pri_FS_drbd_t3-instance_attributes-fstype"<br>> >> name="fstype" value="ext3"/><br>> >> >            <nvpair<br>> id="pri_FS_drbd_t3-instance_attributes-options"<br>

> >> name="options" value="noatime"/><br>> >> >          </instance_attributes><br>> >> >        </primitive><br>> >> >        <primitive class="ocf" id="pri_IP_Cluster"<br>

> >> provider="heartbeat" type="IPaddr2"><br>> >> >          <instance_attributes<br>> >> id="pri_IP_Cluster-instance_attributes"><br>> >> >            <nvpair id="pri_IP_Cluster-instance_attributes-ip"<br>

> >> name="ip" value="192.168.1.253"/><br>> >> >            <nvpair<br>> >> id="pri_IP_Cluster-instance_attributes-cidr_netmask"<br>> name="cidr_netmask" value="24"/><br>

> >> >            <nvpair id="pri_IP_Cluster-instance_attributes-nic"<br>> >> name="nic" value="eth1"/><br>> >> >          </instance_attributes><br>

> >> >          <operations><br>> >> >            <op id="pri_IP_Cluster-monitor-3" interval="3"<br>> >> name="monitor"/><br>> >> >          </operations><br>

> >> >        </primitive><br>> >> >        <primitive class="ocf" id="pri_apache_Dienst"<br>> >> provider="heartbeat" type="apache"><br>

> >> >          <operations><br>> >> >            <op id="pri_apache_Dienst-monitor-15" interval="15"<br>> >> name="monitor"/><br>> >> >          </operations><br>

> >> >          <instance_attributes<br>> >> id="pri_apache_Dienst-instance_attributes"><br>> >> >            <nvpair<br>> >> id="pri_apache_Dienst-instance_attributes-configfile" name="configfile"<br>

> value="/etc/apache2/apache2.conf"/><br>> >> >            <nvpair<br>> >> id="pri_apache_Dienst-instance_attributes-httpd" name="httpd"<br>> value="/usr/sbin/apache2"/><br>

> >> >            <nvpair<br>> id="pri_apache_Dienst-instance_attributes-port"<br>> >> name="port" value="80"/><br>> >> >          </instance_attributes><br>

> >> >        </primitive><br>> >> >      </group><br>> >> >      <clone id="clo_pingd"><br>> >> >        <meta_attributes id="clo_pingd-meta_attributes"><br>

> >> >          <nvpair id="clo_pingd-meta_attributes-globally-unique"<br>> >> name="globally-unique" value="false"/><br>> >> >        </meta_attributes><br>

> >> >        <primitive class="ocf" id="pri_pingd" provider="pacemaker"<br>> >> type="pingd"><br>> >> >          <instance_attributes<br>
> id="pri_pingd-instance_attributes"><br>
> >> >            <nvpair id="pri_pingd-instance_attributes-name"<br>> >> name="name" value="pingd"/><br>> >> >            <nvpair id="pri_pingd-instance_attributes-host_list"<br>

> >> name="host_list" value="192.168.1.1 \ 192.168.4.10"/><br>> >> >            <nvpair<br>> id="pri_pingd-instance_attributes-multiplier"<br>> >> name="multiplier" value="100"/><br>

> >> >            <nvpair id="pri_pingd-instance_attributes-dampen"<br>> >> name="dampen" value="5s"/><br>> >> >          </instance_attributes><br>

> >> >          <operations><br>> >> >            <op id="pri_pingd-monitor-15s" interval="15s"<br>> >> name="monitor" timeout="20s"/><br>

> >> >          </operations><br>> >> >        </primitive><br>> >> >      </clone><br>> >> >    </resources><br>> >> >    <constraints><br>

> >> >      <rsc_order first="ms_drbd_service" first-action="promote"<br>> >> id="ord_apache_after_drbd" score="INFINITY" then="group_t3"<br>> then-action="start"/><br>

> >> >      <rsc_colocation id="col_apache_after_drbd" rsc="group_t3"<br>> >> score="INFINITY" with-rsc="ms_drbd_service" with-rsc-role="Master"/><br>

> >> >      <rsc_location id="loc_drbd_on_conected_node"<br>> >> rsc="ms_drbd_service"><br>> >> >        <rule id="loc_drbd_on_conected_node-rule"<br>

> >> score-attribute="ping"><br>> >> >          <expression attribute="pingd"<br>> >> id="loc_drbd_on_conected_node-expression" operation="defined"/><br>

> >> >        </rule><br>> >> >      </rsc_location><br>> >> >    </constraints><br>> >> >    <rsc_defaults/><br>> >> >    <op_defaults/><br>

> >> >  </configuration><br>> >> >  <status><br>> >> >    <node_state uname="server2" ha="active" in_ccm="true"<br>> crmd="online"<br>

> >> join="member" expected="member" shutdown="0"<br>> >> id="5262f929-1082-4a85-aa05-7bd1992f15be"<br>> crm-debug-origin="do_update_resource"><br>

> >> >      <transient_attributes<br>> id="5262f929-1082-4a85-aa05-7bd1992f15be"><br>> >> >        <instance_attributes<br>> >> id="status-5262f929-1082-4a85-aa05-7bd1992f15be"><br>

> >> >          <nvpair<br>> >> id="status-5262f929-1082-4a85-aa05-7bd1992f15be-probe_complete"<br>> name="probe_complete" value="true"/><br>> >> >          <nvpair<br>

> >> id="status-5262f929-1082-4a85-aa05-7bd1992f15be-pingd" name="pingd"<br>> value="200"/><br>> >> >        </instance_attributes><br>> >> >      </transient_attributes><br>

> >> >      <lrm id="5262f929-1082-4a85-aa05-7bd1992f15be"><br>> >> >        <lrm_resources><br>> >> >          <lrm_resource id="pri_apache_Dienst" type="apache"<br>

> >> class="ocf" provider="heartbeat"><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="13:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;13:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="5" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="800" queue-time="0"<br>

> >> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="37:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;37:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="20" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679345"<br>> last-rc-change="1271679345"<br>> >> exec-time="1820" queue-time="0"<br>

> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_monitor_15000"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="38:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;38:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="21"<br>> >> rc-code="0" op-status="0" interval="15000" last-run="1271679391"<br>> >> last-rc-change="1271679346" exec-time="140" queue-time="0"<br>

> >> op-digest="80b94a8e74a4ac7d41102e0b2bec9129"/><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_stop_0"<br>> >> operation="stop" crm-debug-origin="do_update_resource"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="37:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;37:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="22" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679402"<br>> last-rc-change="1271679402"<br>> >> exec-time="1350" queue-time="0"<br>

> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_IP_Cluster" type="IPaddr2"<br>

> >> class="ocf" provider="heartbeat"><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="12:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;12:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="4" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="510" queue-time="0"<br>

> op-digest="ab9506a065e05252980696cd889aac20"/><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="35:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;35:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="18" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679344"<br>> last-rc-change="1271679344"<br>> >> exec-time="80" queue-time="0"<br>

> op-digest="ab9506a065e05252980696cd889aac20"/><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_monitor_3000"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="36:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;36:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="19" rc-code="0"<br>> >> op-status="0" interval="3000" last-run="1271679399"<br>> >> last-rc-change="1271679345" exec-time="50" queue-time="0"<br>

> >> op-digest="f3cc891049deae7705d949e4e254a7f1"/><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_stop_0"<br>> operation="stop"<br>> >> crm-debug-origin="do_update_resource" crm_feature_set="3.0.1"<br>

> >> transition-key="36:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;36:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="24" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271679403"<br>> last-rc-change="1271679403"<br>> >> exec-time="80" queue-time="0"<br>> op-digest="ab9506a065e05252980696cd889aac20"/><br>

> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_drbd_Dienst:1" type="drbd"<br>> >> class="ocf" provider="linbit"><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="10:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;10:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="2" rc-code="7"<br>

> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="670" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="7:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;7:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="8" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271678971"<br>> last-rc-change="1271678971"<br>> >> exec-time="300" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_promote_0"<br>> >> operation="promote" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="9:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;9:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="15" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271679332"<br>> last-rc-change="1271679332"<br>> >> exec-time="11230" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op<br>> >> id="pri_drbd_Dienst:1_post_notify_promote_0" operation="notify"<br>> crm-debug-origin="build_active_RAs"<br>> >> crm_feature_set="3.0.1"<br>

> transition-key="65:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;65:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="16"<br>> >> rc-code="0" op-status="0" interval="0" last-run="1271679344"<br>

> >> last-rc-change="1271679344" exec-time="70" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op<br>

> id="pri_drbd_Dienst:1_pre_notify_demote_0"<br>> >> operation="notify" crm-debug-origin="do_update_resource"<br>> >> crm_feature_set="3.0.1"<br>> transition-key="62:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;62:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="23"<br>> >> rc-code="0" op-status="0" interval="0" last-run="1271679401"<br>

> >> last-rc-change="1271679401" exec-time="160" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_demote_0"<br>

> >> operation="demote" crm-debug-origin="do_update_resource"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="9:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;9:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="26" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679403"<br>

> last-rc-change="1271679403"<br>> >> exec-time="100" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op<br>

> id="pri_drbd_Dienst:1_post_notify_demote_0"<br>> >> operation="notify" crm-debug-origin="do_update_resource"<br>> >> crm_feature_set="3.0.1"<br>> transition-key="63:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;63:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="27"<br>> >> rc-code="0" op-status="0" interval="0" last-run="1271679403"<br>

> >> last-rc-change="1271679403" exec-time="100" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_pre_notify_stop_0"<br>

> >> operation="notify" crm-debug-origin="do_update_resource"<br>> >> crm_feature_set="3.0.1"<br>> transition-key="59:6:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;59:6:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="28"<br>> >> rc-code="0" op-status="0" interval="0" last-run="1271679403"<br>

> >> last-rc-change="1271679403" exec-time="50" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op id="pri_drbd_Dienst:1_stop_0"<br>

> >> operation="stop" crm-debug-origin="do_update_resource"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="7:6:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;7:6:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="29" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679403"<br>

> last-rc-change="1271679403"<br>> >> exec-time="90" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >          </lrm_resource><br>

> >> >          <lrm_resource id="pri_pingd:1" type="pingd" class="ocf"<br>> >> provider="pacemaker"><br>> >> >            <lrm_rsc_op id="pri_pingd:1_monitor_0"<br>

> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="14:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:7;14:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="6" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>

> last-rc-change="1271678969"<br>> >> exec-time="30" queue-time="1000"<br>> op-digest="ab58a89887adc76008fe441640ea2c3e"/><br>> >> >            <lrm_rsc_op id="pri_pingd:1_start_0"<br>

> operation="start"<br>> >> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.1"<br>> >> transition-key="39:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;39:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="7" rc-code="0" op-status="0"<br>> >> interval="0" last-run="1271678971" last-rc-change="1271678971"<br>

> >> exec-time="60" queue-time="0"<br>> op-digest="ab58a89887adc76008fe441640ea2c3e"/><br>> >> >            <lrm_rsc_op id="pri_pingd:1_monitor_15000"<br>

> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="40:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;40:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="9" rc-code="0"<br>> >> op-status="0" interval="15000" last-run="1271679391"<br>

> last-rc-change="1271678971"<br>> >> exec-time="20" queue-time="0"<br>> >> op-digest="723c145d6f1d33caccebfa26c5fda578"/><br>> >> >          </lrm_resource><br>

> >> >          <lrm_resource id="pri_FS_drbd_t3" type="Filesystem"<br>> >> class="ocf" provider="heartbeat"><br>> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_monitor_0"<br>

> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="11:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:7;11:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="3" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>

> last-rc-change="1271678969"<br>> >> exec-time="350" queue-time="0"<br>> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_start_0"<br>

> >> operation="start" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="34:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;34:4:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="17" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679344"<br>

> last-rc-change="1271679344"<br>> >> exec-time="230" queue-time="0"<br>> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_stop_0"<br>

> operation="stop"<br>> >> crm-debug-origin="do_update_resource" crm_feature_set="3.0.1"<br>> >> transition-key="35:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;35:5:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="25" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679403"<br>

> last-rc-change="1271679403"<br>> >> exec-time="130" queue-time="0"<br>> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>> >> >          </lrm_resource><br>

> >> >        </lrm_resources><br>> >> >      </lrm><br>> >> >    </node_state><br>> >> >    <node_state uname="server1" ha="active" in_ccm="true"<br>

> crmd="online"<br>> >> join="member" expected="member" shutdown="0"<br>> >> id="3e20966a-ed64-4972-8f5a-88be0977f759"<br>> crm-debug-origin="do_state_transition"><br>

> >> >      <transient_attributes<br>> id="3e20966a-ed64-4972-8f5a-88be0977f759"><br>> >> >        <instance_attributes<br>> >> id="status-3e20966a-ed64-4972-8f5a-88be0977f759"><br>

> >> >          <nvpair<br>> >> id="status-3e20966a-ed64-4972-8f5a-88be0977f759-probe_complete"<br>> name="probe_complete" value="true"/><br>> >> >          <nvpair<br>

> >> id="status-3e20966a-ed64-4972-8f5a-88be0977f759-pingd" name="pingd"<br>> value="200"/><br>> >> >        </instance_attributes><br>> >> >      </transient_attributes><br>

> >> >      <lrm id="3e20966a-ed64-4972-8f5a-88be0977f759"><br>> >> >        <lrm_resources><br>> >> >          <lrm_resource id="pri_apache_Dienst" type="apache"<br>

> >> class="ocf" provider="heartbeat"><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="7:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;7:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="5" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="630" queue-time="10"<br>

> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="42:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;42:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="17" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271678982"<br>> last-rc-change="1271678982"<br>> >> exec-time="1840" queue-time="0"<br>

> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >            <lrm_rsc_op id="pri_apache_Dienst_stop_0"<br>> >> operation="stop" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="35:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> >> transition-magic="0:0;35:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>

> call-id="19" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679340"<br>> last-rc-change="1271679340"<br>> >> exec-time="1260" queue-time="0"<br>

> op-digest="592a5e45deff3022dc73ad2b8b690624"/><br>> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_IP_Cluster" type="IPaddr2"<br>

> >> class="ocf" provider="heartbeat"><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="6:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;6:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="4" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="350" queue-time="0"<br>

> op-digest="ab9506a065e05252980696cd889aac20"/><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="40:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;40:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="15" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271678980"<br>> last-rc-change="1271678980"<br>> >> exec-time="100" queue-time="0"<br>

> op-digest="ab9506a065e05252980696cd889aac20"/><br>> >> >            <lrm_rsc_op id="pri_IP_Cluster_stop_0"<br>> operation="stop"<br>> >> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.1"<br>

> >> transition-key="34:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> >> transition-magic="0:0;34:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> call-id="21" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271679341"<br>> last-rc-change="1271679341"<br>> >> exec-time="60" queue-time="0"<br>> op-digest="ab9506a065e05252980696cd889aac20"/><br>

> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_drbd_Dienst:0" type="drbd"<br>> >> class="ocf" provider="linbit"><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="4:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;4:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="2" rc-code="7"<br>

> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="450" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="5:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;5:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="8" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271678972"<br>> last-rc-change="1271678972"<br>> >> exec-time="370" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_promote_0"<br>> >> operation="promote" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="9:2:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;9:2:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="12" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271678976"<br>> last-rc-change="1271678976"<br>> >> exec-time="120" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_demote_0"<br>> >> operation="demote" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="7:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> >> transition-magic="0:0;7:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> call-id="23" rc-code="0"<br>

> >> op-status="0" interval="0" last-run="1271679341"<br>> last-rc-change="1271679341"<br>> >> exec-time="90" queue-time="0"<br>> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>

> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_pre_notify_stop_0"<br>> >> operation="notify" crm-debug-origin="build_active_RAs"<br>> >> crm_feature_set="3.0.1"<br>

> transition-key="59:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> >> transition-magic="0:0;59:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> call-id="25"<br>> >> rc-code="0" op-status="0" interval="0" last-run="1271679341"<br>

> >> last-rc-change="1271679341" exec-time="50" queue-time="0"<br>> >> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >            <lrm_rsc_op id="pri_drbd_Dienst:0_stop_0"<br>

> >> operation="stop" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="8:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>> >> transition-magic="0:0;8:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>

> call-id="26" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679341"<br>> last-rc-change="1271679341"<br>> >> exec-time="100" queue-time="0"<br>

> op-digest="da70ef5b9aed870d7c0944ce6ee989e2"/><br>> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_pingd:0" type="pingd" class="ocf"<br>

> >> provider="pacemaker"><br>> >> >            <lrm_rsc_op id="pri_pingd:0_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>

> crm_feature_set="3.0.1"<br>> >> transition-key="8:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;8:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> call-id="6" rc-code="7"<br>> >> op-status="0" interval="0" last-run="1271678970"<br>> last-rc-change="1271678970"<br>> >> exec-time="40" queue-time="1000"<br>

> op-digest="ab58a89887adc76008fe441640ea2c3e"/><br>> >> >            <lrm_rsc_op id="pri_pingd:0_start_0"<br>> operation="start"<br>> >> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.1"<br>

> >> transition-key="37:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;37:1:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="7" rc-code="0" op-status="0"<br>

> >> interval="0" last-run="1271678971" last-rc-change="1271678971"<br>> >> exec-time="70" queue-time="0"<br>> op-digest="ab58a89887adc76008fe441640ea2c3e"/><br>

> >> >            <lrm_rsc_op id="pri_pingd:0_monitor_15000"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="49:2:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:0;49:2:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="10" rc-code="0"<br>

> >> op-status="0" interval="15000" last-run="1271679395"<br>> >> last-rc-change="1271678975" exec-time="20" queue-time="0"<br>> >> op-digest="723c145d6f1d33caccebfa26c5fda578"/><br>

> >> >          </lrm_resource><br>> >> >          <lrm_resource id="pri_FS_drbd_t3" type="Filesystem"<br>> >> class="ocf" provider="heartbeat"><br>

> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_monitor_0"<br>> >> operation="monitor" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>

> >> transition-key="5:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> >> transition-magic="0:7;5:0:7:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="3" rc-code="7"<br>

> >> op-status="0" interval="0" last-run="1271678969"<br>> last-rc-change="1271678969"<br>> >> exec-time="380" queue-time="0"<br>> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>

> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_start_0"<br>> >> operation="start" crm-debug-origin="build_active_RAs"<br>> crm_feature_set="3.0.1"<br>> >> transition-key="39:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>

> >> transition-magic="0:0;39:3:0:6090ba02-c064-4d80-9222-bf77b7011e17"<br>> call-id="14" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271678979"<br>

> last-rc-change="1271678979"<br>> >> exec-time="330" queue-time="0"<br>> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>> >> >            <lrm_rsc_op id="pri_FS_drbd_t3_stop_0"<br>

> operation="stop"<br>> >> crm-debug-origin="build_active_RAs" crm_feature_set="3.0.1"<br>> >> transition-key="33:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>
> >> transition-magic="0:0;33:1:0:d6a0122e-5574-4d0c-b15b-1bd452b9062c"<br>
> call-id="22" rc-code="0"<br>> >> op-status="0" interval="0" last-run="1271679341"<br>> last-rc-change="1271679341"<br>> >> exec-time="140" queue-time="0"<br>

> op-digest="0948723f8c5b98b0d6330e30199bfe83"/><br>> >> >          </lrm_resource><br>> >> >        </lrm_resources><br>> >> >      </lrm><br>> >> >    </node_state><br>

> >> >  </status><br>> >> > </cib><br>> >> ><br>> >> ><br>> >> > --------------<br>> >> ><br>> >> > the clear config<br>> >> ><br>

> >> > crm(live)configure# show<br>> >> > node $id="3e20966a-ed64-4972-8f5a-88be0977f759" server1 \<br>> >> >        attributes standby="off"<br>> >> > node $id="5262f929-1082-4a85-aa05-7bd1992f15be" server2 \<br>

> >> >        attributes standby="off"<br>> >> > primitive pri_FS_drbd_t3 ocf:heartbeat:Filesystem \<br>> >> >        params device="/dev/drbd0" directory="/mnt/drbd_daten"<br>

> >> fstype="ext3" options="noatime"<br>> >> > primitive pri_IP_Cluster ocf:heartbeat:IPaddr2 \<br>> >> >        params ip="192.168.1.253" cidr_netmask="24" nic="eth1" \<br>

> >> >        op monitor interval="3"<br>> >> > primitive pri_apache_Dienst ocf:heartbeat:apache \<br>> >> >        op monitor interval="15" \<br>> >> >        params configfile="/etc/apache2/apache2.conf"<br>

> >> httpd="/usr/sbin/apache2" port="80"<br>> >> > primitive pri_drbd_Dienst ocf:linbit:drbd \<br>> >> >        params drbd_resource="t3" \<br>> >> >        op monitor interval="15" \<br>

> >> >        op start interval="0" timeout="240" \<br>> >> >        op stop interval="0" timeout="100"<br>> >> > primitive pri_pingd ocf:pacemaker:pingd \<br>

> >> >        params name="pingd" host_list="192.168.1.1 \ 192.168.4.10"<br>> >> multiplier="100" dampen="5s" \<br>> >> >        op monitor interval="15s" timeout="20s"<br>

> >> > group group_t3 pri_FS_drbd_t3 pri_IP_Cluster pri_apache_Dienst<br>> >> > ms ms_drbd_service pri_drbd_Dienst \<br>> >> >        meta notify="true" target-role="Started"<br>

> >> > clone clo_pingd pri_pingd \<br>> >> >        meta globally-unique="false"<br>> >> > location loc_drbd_on_conected_node ms_drbd_service \<br>> >> >        rule $id="loc_drbd_on_conected_node-rule" ping: defined<br>

> pingd<br>> >> > colocation col_apache_after_drbd inf: group_t3 ms_drbd_service:Master<br>> >> > order ord_apache_after_drbd inf: ms_drbd_service:promote<br>> group_t3:start<br>> >> > property $id="cib-bootstrap-options" \<br>

> >> >      <br>>  dc-version="1.0.8-2c98138c2f070fcb6ddeab1084154cffbf44ba75" \<br>> >> >        cluster-infrastructure="Heartbeat" \<br>> >> >        no-quorum-policy="ignore" \<br>

> >> >        default-resource-stickiness="100" \<br>> >> >        last-lrm-refresh="1271679788" \<br>> >> >        startup-fencing="false" \<br>> >> >        stonith-enabled="false" \<br>

> >> >        default-action-timeout="120s"<br>> >> ><br>> >> > --<br>> >> > GRATIS für alle GMX-Mitglieder: Die maxdome Movie-FLAT!<br>> >> > Jetzt freischalten unter <a href="http://portal.gmx.net/de/go/maxdome01" target="_blank">http://portal.gmx.net/de/go/maxdome01</a><br>

> >> ><br>> >> > _______________________________________________<br>> >> > Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>> >> > <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>

> >> ><br>> >> > Project Home: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org</a><br>> >> > Getting started:<br>> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>

> >> ><br>> >><br>> >> _______________________________________________<br>> >> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>

> >> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>> >><br>> >> Project Home: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org</a><br>

> >> Getting started:<br>> <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>> ><br>> > --<br>> > GRATIS für alle GMX-Mitglieder: Die maxdome Movie-FLAT!<br>

> > Jetzt freischalten unter <a href="http://portal.gmx.net/de/go/maxdome01" target="_blank">http://portal.gmx.net/de/go/maxdome01</a><br>> ><br>> > _______________________________________________<br>> > Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>

> > <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>> ><br>> > Project Home: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org</a><br>

> > Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>> ><br>><br>> _______________________________________________<br>

> Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>> <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>

><br>> Project Home: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org</a><br>> Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>

<br>--<br>GRATIS für alle GMX-Mitglieder: Die maxdome Movie-FLAT!<br>Jetzt freischalten unter <a href="http://portal.gmx.net/de/go/maxdome01" target="_blank">http://portal.gmx.net/de/go/maxdome01</a><br><br>_______________________________________________<br>

Pacemaker mailing list: <a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br><a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>

<br>Project Home: <a href="http://www.clusterlabs.org/" target="_blank">http://www.clusterlabs.org</a><br>Getting started: <a href="http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf" target="_blank">http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</a><br>

</blockquote></div><br><br clear="all"><br><br>