Hii,<br><br>          Is pacmaker also work on WAN, if yes then how????<br><br><br>Thank you<br><div class="gmail_quote">On Mon, Sep 3, 2012 at 3:30 PM,  <span dir="ltr"><<a href="mailto:pacemaker-request@oss.clusterlabs.org" target="_blank">pacemaker-request@oss.clusterlabs.org</a>></span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Send Pacemaker mailing list submissions to<br>
        <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
<br>
To subscribe or unsubscribe via the World Wide Web, visit<br>
        <a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
or, via email, send a message with subject or body 'help' to<br>
        <a href="mailto:pacemaker-request@oss.clusterlabs.org">pacemaker-request@oss.clusterlabs.org</a><br>
<br>
You can reach the person managing the list at<br>
        <a href="mailto:pacemaker-owner@oss.clusterlabs.org">pacemaker-owner@oss.clusterlabs.org</a><br>
<br>
When replying, please edit your Subject line so it is more specific<br>
than "Re: Contents of Pacemaker digest..."<br>
<br>
<br>
Today's Topics:<br>
<br>
   1.  Pacemaker 1.1.6 order possible bug ? (Tom?? Vav?i?ka)<br>
   2. Two c72f5ca stonithd coredumps (Vladislav Bogdanov)<br>
<br>
<br>
----------------------------------------------------------------------<br>
<br>
Message: 1<br>
Date: Mon, 03 Sep 2012 07:41:25 +0200<br>
From: Tom?? Vav?i?ka <<a href="mailto:vavricka@ttc.cz">vavricka@ttc.cz</a>><br>
To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
Subject: [Pacemaker]  Pacemaker 1.1.6 order possible bug ?<br>
Message-ID: <<a href="mailto:50444305.4090501@ttc.cz">50444305.4090501@ttc.cz</a>><br>
Content-Type: text/plain; charset=UTF-8; format=flowed<br>
<br>
Hello,<br>
<br>
Sorry If I send same question twice, but message did not appeared on<br>
mailing list.<br>
<br>
I have a problem with orders in pacemaker 1.1.6 and corosync 1.4.1.<br>
<br>
Order below is working for failover, but it is not working when one<br>
cluster node starts up (drbd stays in Slave state and ms_toponet is<br>
started before DRBD gets promoted).<br>
<br>
order o_start inf: ms_drbd_postgres:promote postgres:start<br>
ms_toponet:promote monitor_cluster:start<br>
<br>
Order below is not working for failover (it kills slave toponet app and<br>
start it again) but it is working correctly when cluster starts up.<br>
<br>
order o_start inf: ms_drbd_postgres:promote postgres:start<br>
ms_toponet:start ms_toponet:promote monitor_cluster:start<br>
<br>
I want to the pacemaker to act as in 1.0.12 version.<br>
* when toponet master app is killed, move postgres resource to other<br>
node and promote ms_toponet and ms_drbd_postgres to Master<br>
* when one node is starting promote DRBD to master is is UpToDate<br>
<br>
Am I doing something wrong?<br>
<br>
It looks to me pacemaker ignores some orders (pacemaker should wait for<br>
DRBD promotion when starting toponet app, but toponet app is started<br>
right after DRBD start (slave)). I tried to solve this by different<br>
orders with combination symmetrical=false, split orders, different<br>
orders for start and stop, but no success at all (seems to me like<br>
completely ignoring symmetrical=false directive).<br>
<br>
Pacemaker 1.1.7 is not working for me, because it has broken on-fail<br>
directive.<br>
<br>
crm_mon output:<br>
<br>
============<br>
Last updated: Fri Aug 31 14:51:11 2012<br>
Last change: Fri Aug 31 14:50:27 2012 by hacluster via crmd on toponet30<br>
Stack: openais<br>
Current DC: toponet30 - partition WITHOUT quorum<br>
Version: 1.1.6-b988976485d15cb702c9307df55512d323831a5e<br>
2 Nodes configured, 2 expected votes<br>
10 Resources configured.<br>
============<br>
<br>
Online: [ toponet30 toponet31 ]<br>
<br>
st_primary      (stonith:external/xen0):        Started toponet30<br>
st_secondary    (stonith:external/xen0):        Started toponet31<br>
  Master/Slave Set: ms_drbd_postgres<br>
      Masters: [ toponet30 ]<br>
      Slaves: [ toponet31 ]<br>
  Resource Group: postgres<br>
      pg_fs      (ocf::heartbeat:Filesystem):    Started toponet30<br>
      PGIP       (ocf::heartbeat:IPaddr2):       Started toponet30<br>
      postgresql (ocf::heartbeat:pgsql): Started toponet30<br>
monitor_cluster (ocf::heartbeat:monitor_cluster):       Started toponet30<br>
  Master/Slave Set: ms_toponet<br>
      Masters: [ toponet30 ]<br>
      Slaves: [ toponet31 ]<br>
<br>
configuration:<br>
<br>
node toponet30<br>
node toponet31<br>
primitive PGIP ocf:heartbeat:IPaddr2 \<br>
         params ip="192.168.100.3" cidr_netmask="29" \<br>
         op monitor interval="5s"<br>
primitive drbd_postgres ocf:linbit:drbd \<br>
         params drbd_resource="postgres" \<br>
         op start interval="0" timeout="240s" \<br>
         op stop interval="0" timeout="120s" \<br>
         op monitor interval="5s" role="Master" timeout="10s" \<br>
         op monitor interval="10s" role="Slave" timeout="20s"<br>
primitive monitor_cluster ocf:heartbeat:monitor_cluster \<br>
         op monitor interval="30s" \<br>
         op start interval="0" timeout="30s" \<br>
         meta target-role="Started"<br>
primitive pg_fs ocf:heartbeat:Filesystem \<br>
         params device="/dev/drbd0" directory="/var/lib/pgsql" fstype="ext3"<br>
primitive postgresql ocf:heartbeat:pgsql \<br>
         op start interval="0" timeout="80s" \<br>
         op stop interval="0" timeout="60s" \<br>
         op monitor interval="10s" timeout="10s" depth="0"<br>
primitive st_primary stonith:external/xen0 \<br>
         op start interval="0" timeout="60s" \<br>
         params hostlist="toponet31:/etc/xen/vm/toponet31"<br>
dom0="172.16.103.54"<br>
primitive st_secondary stonith:external/xen0 \<br>
         op start interval="0" timeout="60s" \<br>
         params hostlist="toponet30:/etc/xen/vm/toponet30"<br>
dom0="172.16.103.54"<br>
primitive toponet ocf:heartbeat:toponet \<br>
         op start interval="0" timeout="180s" \<br>
         op stop interval="0" timeout="60s" \<br>
         op monitor interval="10s" role="Master" timeout="20s"<br>
on-fail="standby" \<br>
         op monitor interval="20s" role="Slave" timeout="40s" \<br>
         op promote interval="0" timeout="120s" \<br>
         op demote interval="0" timeout="120s"<br>
group postgres pg_fs PGIP postgresql<br>
ms ms_drbd_postgres drbd_postgres \<br>
         meta master-max="1" master-node-max="1" clone-max="2"<br>
clone-node-max="1" notify="true" target-role="Master"<br>
ms ms_toponet toponet \<br>
         meta master-max="1" master-node-max="1" clone-max="2"<br>
clone-node-max="1" target-role="Master"<br>
location loc_st_pri st_primary -inf: toponet31<br>
location loc_st_sec st_secondary -inf: toponet30<br>
location master-prefer-node1 postgres 100: toponet30<br>
colocation pg_on_drbd inf: monitor_cluster ms_toponet:Master postgres<br>
ms_drbd_postgres:Master<br>
order o_start inf: ms_drbd_postgres:start ms_drbd_postgres:promote<br>
postgres:start ms_toponet:start ms_toponet:promote monitor_cluster:start<br>
property $id="cib-bootstrap-options" \<br>
         dc-version="1.1.6-b988976485d15cb702c9307df55512d323831a5e" \<br>
         cluster-infrastructure="openais" \<br>
         expected-quorum-votes="2" \<br>
         no-quorum-policy="ignore" \<br>
         stonith-enabled="true"<br>
rsc_defaults $id="rsc-options" \<br>
         resource-stickiness="5000"<br>
<br>
<br>
<br>
------------------------------<br>
<br>
Message: 2<br>
Date: Mon, 03 Sep 2012 10:03:28 +0300<br>
From: Vladislav Bogdanov <<a href="mailto:bubble@hoster-ok.com">bubble@hoster-ok.com</a>><br>
To: <a href="mailto:pacemaker@oss.clusterlabs.org">pacemaker@oss.clusterlabs.org</a><br>
Subject: [Pacemaker] Two c72f5ca stonithd coredumps<br>
Message-ID: <<a href="mailto:50445640.1060505@hoster-ok.com">50445640.1060505@hoster-ok.com</a>><br>
Content-Type: text/plain; charset=UTF-8<br>
<br>
Hi Andrew, all,<br>
<br>
as I wrote before, I caught two paths where stonithd (c72f5ca) dumps core.<br>
Here are gdb backtraces for them (sorry for posting them inline, I was<br>
requested to do that ASAP and I hope it is not yet too late for 1.1.8 ;)<br>
). Some vars are optimized out, but I hope that doesn't matter. If some<br>
more information is needed please just request it.<br>
<br>
First one is:<br>
...<br>
Core was generated by `/usr/libexec/pacemaker/stonithd'.<br>
Program terminated with signal 11, Segmentation fault.<br>
...<br>
(gdb) bt<br>
#0  0x00007f4aec6cdb51 in __strlen_sse2 () from /lib64/libc.so.6<br>
#1  0x00007f4aec6cd866 in strdup () from /lib64/libc.so.6<br>
#2  0x000000000040c6f6 in create_remote_stonith_op (client=0x1871120<br>
"2194f1b8-5722-49c3-bed1-c8fecc78ca02", request=0x1884840, peer=<value<br>
optimized out>)<br>
    at remote.c:313<br>
#3  0x000000000040cf40 in initiate_remote_stonith_op (client=<value<br>
optimized out>, request=0x1884840, manual_ack=0) at remote.c:336<br>
#4  0x000000000040a2be in stonith_command (client=0x1870a80, id=<value<br>
optimized out>, flags=<value optimized out>, request=0x1884840, remote=0x0)<br>
    at commands.c:1380<br>
#5  0x0000000000403252 in st_ipc_dispatch (c=0x18838d0, data=<value<br>
optimized out>, size=329) at main.c:142<br>
#6  0x00007f4aebaf8d64 in ?? () from /usr/lib64/libqb.so.0<br>
#7  0x00007f4aebaf908e in qb_ipcs_dispatch_connection_request () from<br>
/usr/lib64/libqb.so.0<br>
#8  0x00007f4aee26fda5 in gio_read_socket (gio=<value optimized out>,<br>
condition=G_IO_IN, data=0x18732f0) at mainloop.c:353<br>
#9  0x00007f4aebf8ef0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
#10 0x00007f4aebf92938 in ?? () from /lib64/libglib-2.0.so.0<br>
#11 0x00007f4aebf92d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
#12 0x0000000000403a98 in main (argc=<value optimized out>,<br>
argv=0x7fffa3443148) at main.c:890<br>
(gdb) bt full<br>
#0  0x00007f4aec6cdb51 in __strlen_sse2 () from /lib64/libc.so.6<br>
No symbol table info available.<br>
#1  0x00007f4aec6cd866 in strdup () from /lib64/libc.so.6<br>
No symbol table info available.<br>
#2  0x000000000040c6f6 in create_remote_stonith_op (client=0x1871120<br>
"2194f1b8-5722-49c3-bed1-c8fecc78ca02", request=0x1884840, peer=<value<br>
optimized out>)<br>
    at remote.c:313<br>
        nodeid = <value optimized out><br>
        node = 0x1871790<br>
        op = 0x187e2e0<br>
        dev = <value optimized out><br>
        __func__ = "create_remote_stonith_op"<br>
        __PRETTY_FUNCTION__ = "create_remote_stonith_op"<br>
#3  0x000000000040cf40 in initiate_remote_stonith_op (client=<value<br>
optimized out>, request=0x1884840, manual_ack=0) at remote.c:336<br>
        query = 0x0<br>
        client_id = 0x1871120 "2194f1b8-5722-49c3-bed1-c8fecc78ca02"<br>
        op = 0x0<br>
        __func__ = "initiate_remote_stonith_op"<br>
        __PRETTY_FUNCTION__ = "initiate_remote_stonith_op"<br>
#4  0x000000000040a2be in stonith_command (client=0x1870a80, id=<value<br>
optimized out>, flags=<value optimized out>, request=0x1884840, remote=0x0)<br>
    at commands.c:1380<br>
        alternate_host = <value optimized out><br>
        dev = <value optimized out><br>
        target = 0x1883f40 "1074005258"<br>
        call_options = 4610<br>
        rc = -95<br>
        is_reply = 0<br>
        always_reply = 0<br>
        reply = 0x0<br>
        data = 0x0<br>
        op = 0x187e550 "st_fence"<br>
        client_id = 0x1874cb0 "2194f1b8-5722-49c3-bed1-c8fecc78ca02"<br>
        __func__ = "stonith_command"<br>
        __PRETTY_FUNCTION__ = "stonith_command"<br>
        __FUNCTION__ = "stonith_command"<br>
#5  0x0000000000403252 in st_ipc_dispatch (c=0x18838d0, data=<value<br>
optimized out>, size=329) at main.c:142<br>
        id = 4<br>
        flags = 1<br>
        request = 0x1884840<br>
        client = 0x1870a80<br>
        __FUNCTION__ = "st_ipc_dispatch"<br>
        __func__ = "st_ipc_dispatch"<br>
        __PRETTY_FUNCTION__ = "st_ipc_dispatch"<br>
#6  0x00007f4aebaf8d64 in ?? () from /usr/lib64/libqb.so.0<br>
No symbol table info available.<br>
#7  0x00007f4aebaf908e in qb_ipcs_dispatch_connection_request () from<br>
/usr/lib64/libqb.so.0<br>
No symbol table info available.<br>
#8  0x00007f4aee26fda5 in gio_read_socket (gio=<value optimized out>,<br>
condition=G_IO_IN, data=0x18732f0) at mainloop.c:353<br>
        adaptor = 0x18732f0<br>
        fd = 15<br>
        __func__ = "gio_read_socket"<br>
#9  0x00007f4aebf8ef0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#10 0x00007f4aebf92938 in ?? () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#11 0x00007f4aebf92d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#12 0x0000000000403a98 in main (argc=<value optimized out>,<br>
argv=0x7fffa3443148) at main.c:890<br>
        flag = <value optimized out><br>
        lpc = 0<br>
---Type <return> to continue, or q <return> to quit---<br>
        argerr = 0<br>
        option_index = 0<br>
        cluster = {uuid = 0x176da90 "1090782474", uname = 0x176dac0<br>
"vd01-b", nodeid = 1090782474, cs_dispatch = 0x404050<br>
<stonith_peer_ais_callback>,<br>
          destroy = 0x404230 <stonith_peer_ais_destroy>}<br>
        actions = {0x40e3fb "reboot", 0x40e402 "off", 0x40ea75 "list",<br>
0x40e406 "monitor", 0x40e40e "status"}<br>
        __func__ = "main"<br>
<br>
<br>
<br>
Second is (segfault in CRM_ASSERT()):<br>
...<br>
Core was generated by `/usr/libexec/pacemaker/stonithd'.<br>
Program terminated with signal 11, Segmentation fault.<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 "vd01-d") at commands.c:1258<br>
1258    commands.c: No such file or directory.<br>
        in commands.c<br>
...<br>
(gdb) bt<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 "vd01-d") at commands.c:1258<br>
#1  0x00000000004040e4 in stonith_peer_callback (kind=<value optimized<br>
out>, from=<value optimized out>,<br>
    data=0x7fffa5327cc8 "<st-reply<br>
st_origin=\"stonith_construct_async_reply\" t=\"stonith-ng\"<br>
st_op=\"st_notify\" st_device_id=\"manual_ack\"<br>
st_remote_op=\"25917710-8972-4c40-b783-9648749396a4\"<br>
st_clientid=\"936ea671-61ba-4258-8e12-"...) at main.c:218<br>
#2  stonith_peer_ais_callback (kind=<value optimized out>, from=<value<br>
optimized out>,<br>
    data=0x7fffa5327cc8 "<st-reply<br>
st_origin=\"stonith_construct_async_reply\" t=\"stonith-ng\"<br>
st_op=\"st_notify\" st_device_id=\"manual_ack\"<br>
st_remote_op=\"25917710-8972-4c40-b783-9648749396a4\"<br>
st_clientid=\"936ea671-61ba-4258-8e12-"...) at main.c:254<br>
#3  0x00007f92ded376ca in ais_dispatch_message (handle=<value optimized<br>
out>, groupName=<value optimized out>, nodeid=<value optimized out>,<br>
    pid=<value optimized out>, msg=0x7fffa5327a78, msg_len=<value<br>
optimized out>) at corosync.c:551<br>
#4  pcmk_cpg_deliver (handle=<value optimized out>, groupName=<value<br>
optimized out>, nodeid=<value optimized out>, pid=<value optimized out>,<br>
    msg=0x7fffa5327a78, msg_len=<value optimized out>) at corosync.c:619<br>
#5  0x00007f92de91ceaf in cpg_dispatch (handle=7749363892505018368,<br>
dispatch_types=<value optimized out>) at cpg.c:412<br>
#6  0x00007f92ded34a42 in pcmk_cpg_dispatch (user_data=<value optimized<br>
out>) at corosync.c:577<br>
#7  0x00007f92def61d27 in mainloop_gio_callback (gio=<value optimized<br>
out>, condition=G_IO_IN, data=0xb2d400) at mainloop.c:535<br>
#8  0x00007f92dcc7ff0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
#9  0x00007f92dcc83938 in ?? () from /lib64/libglib-2.0.so.0<br>
#10 0x00007f92dcc83d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
#11 0x0000000000403a98 in main (argc=<value optimized out>,<br>
argv=0x7fffa5427de8) at main.c:890<br>
(gdb) bt full<br>
#0  stonith_command (client=0x0, id=0, flags=0, request=0xb342f0,<br>
remote=0xb39cf0 "vd01-d") at commands.c:1258<br>
        call_options = 4104<br>
        rc = -95<br>
        is_reply = 1<br>
        always_reply = 0<br>
        reply = 0x0<br>
        data = 0x0<br>
        op = 0xb34370 "st_notify"<br>
        client_id = 0xb3ddc0 "936ea671-61ba-4258-8e12-98542a541b23"<br>
        __func__ = "stonith_command"<br>
        __PRETTY_FUNCTION__ = "stonith_command"<br>
        __FUNCTION__ = "stonith_command"<br>
#1  0x00000000004040e4 in stonith_peer_callback (kind=<value optimized<br>
out>, from=<value optimized out>,<br>
    data=0x7fffa5327cc8 "<st-reply<br>
st_origin=\"stonith_construct_async_reply\" t=\"stonith-ng\"<br>
st_op=\"st_notify\" st_device_id=\"manual_ack\"<br>
st_remote_op=\"25917710-8972-4c40-b783-9648749396a4\"<br>
st_clientid=\"936ea671-61ba-4258-8e12-"...) at main.c:218<br>
        remote = 0xb39cf0 "vd01-d"<br>
#2  stonith_peer_ais_callback (kind=<value optimized out>, from=<value<br>
optimized out>,<br>
    data=0x7fffa5327cc8 "<st-reply<br>
st_origin=\"stonith_construct_async_reply\" t=\"stonith-ng\"<br>
st_op=\"st_notify\" st_device_id=\"manual_ack\"<br>
st_remote_op=\"25917710-8972-4c40-b783-9648749396a4\"<br>
st_clientid=\"936ea671-61ba-4258-8e12-"...) at main.c:254<br>
        xml = 0xb342f0<br>
        __func__ = "stonith_peer_ais_callback"<br>
#3  0x00007f92ded376ca in ais_dispatch_message (handle=<value optimized<br>
out>, groupName=<value optimized out>, nodeid=<value optimized out>,<br>
    pid=<value optimized out>, msg=0x7fffa5327a78, msg_len=<value<br>
optimized out>) at corosync.c:551<br>
        data = 0x7fffa5327cc8 "<st-reply<br>
st_origin=\"stonith_construct_async_reply\" t=\"stonith-ng\"<br>
st_op=\"st_notify\" st_device_id=\"manual_ack\"<br>
st_remote_op=\"25917710-8972-4c40-b783-9648749396a4\"<br>
st_clientid=\"936ea671-61ba-4258-8e12-"...<br>
        uncompressed = 0x0<br>
        xml = 0x0<br>
#4  pcmk_cpg_deliver (handle=<value optimized out>, groupName=<value<br>
optimized out>, nodeid=<value optimized out>, pid=<value optimized out>,<br>
    msg=0x7fffa5327a78, msg_len=<value optimized out>) at corosync.c:619<br>
        ais_msg = 0x7fffa5327a78<br>
        __func__ = "pcmk_cpg_deliver"<br>
#5  0x00007f92de91ceaf in cpg_dispatch (handle=7749363892505018368,<br>
dispatch_types=<value optimized out>) at cpg.c:412<br>
        timeout = 0<br>
        error = <value optimized out><br>
        cpg_inst = 0xb2cd90<br>
        res_cpg_confchg_callback = <value optimized out><br>
        res_cpg_deliver_callback = 0x7fffa53279c0<br>
        res_cpg_totem_confchg_callback = <value optimized out><br>
        cpg_inst_copy = {c = 0xb2cdf0, finalize = 0, context = 0x0,<br>
{model_data = {model = CPG_MODEL_V1}, model_v1_data = {model =<br>
CPG_MODEL_V1,<br>
              cpg_deliver_fn = 0x7f92ded37300 <pcmk_cpg_deliver>,<br>
cpg_confchg_fn = 0x7f92ded33fb0 <pcmk_cpg_membership>,<br>
cpg_totem_confchg_fn = 0,<br>
              flags = 0}}, iteration_list_head = {next = 0xb2cdd0, prev<br>
= 0xb2cdd0}}<br>
        dispatch_data = 0x7fffa53279c0<br>
        member_list = {{nodeid = 1090782474, pid = 4965, reason = 0},<br>
{nodeid = 1107559690, pid = 3544, reason = 0}, {nodeid = 1124336906, pid<br>
= 4487,<br>
            reason = 3544}, {nodeid = 0, pid = 0, reason = 0} <repeats<br>
125 times>}<br>
        left_list = {{nodeid = 0, pid = 0, reason = 0} <repeats 128 times>}<br>
        joined_list = {{nodeid = 1107559690, pid = 3544, reason = 1},<br>
{nodeid = 0, pid = 0, reason = 0} <repeats 127 times>}<br>
        group_name = {length = 11, value = "stonith-ng", '\000' <repeats<br>
117 times>}<br>
        left_list_start = <value optimized out><br>
        joined_list_start = <value optimized out><br>
        i = <value optimized out><br>
        ring_id = {nodeid = 0, seq = 0}<br>
        totem_member_list = {0 <repeats 128 times>}<br>
        errno_res = <value optimized out><br>
        dispatch_buf =<br>
"\005\000\000\000\000\000\000\000W\004\000\000\000\000\000\000\240\224\327)\204\177\000\000\v\000\000\000\000\000\000\000stonith-ng",<br>
'\000' <repeats 118 times>"\237,<br>
\003\000\000\000\000\000\000\n\005\004C\000\000\000\000\207\021\000\000\204\177\000\000\000\000\000\000\000\000\000\000\237\003\000\000\000\000\000\000\001\000\000\000\000\000\000\000\001",<br>
'\000' <repeats 19 times>, "\t", '\000' <repeats 263 times>,<br>
"\n\005\004C\207\021\000\000\000\000\000\000\t\000\000\000\006\000\000\000vd01-d",<br>
'\000' <repeats 250 times>, "O\001\000\000\000\000\000\000<st-reply<br>
st_origin=\"stonith_construct_asyn"...<br>
#6  0x00007f92ded34a42 in pcmk_cpg_dispatch (user_data=<value optimized<br>
out>) at corosync.c:577<br>
        rc = 0<br>
---Type <return> to continue, or q <return> to quit---<br>
        __func__ = "pcmk_cpg_dispatch"<br>
#7  0x00007f92def61d27 in mainloop_gio_callback (gio=<value optimized<br>
out>, condition=G_IO_IN, data=0xb2d400) at mainloop.c:535<br>
        keep = 1<br>
        client = 0xb2d400<br>
        __func__ = "mainloop_gio_callback"<br>
#8  0x00007f92dcc7ff0e in g_main_context_dispatch () from<br>
/lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#9  0x00007f92dcc83938 in ?? () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#10 0x00007f92dcc83d55 in g_main_loop_run () from /lib64/libglib-2.0.so.0<br>
No symbol table info available.<br>
#11 0x0000000000403a98 in main (argc=<value optimized out>,<br>
argv=0x7fffa5427de8) at main.c:890<br>
        flag = <value optimized out><br>
        lpc = 0<br>
        argerr = 0<br>
        option_index = 0<br>
        cluster = {uuid = 0xb2da90 "1090782474", uname = 0xb2dac0<br>
"vd01-b", nodeid = 1090782474, cs_dispatch = 0x404050<br>
<stonith_peer_ais_callback>,<br>
          destroy = 0x404230 <stonith_peer_ais_destroy>}<br>
        actions = {0x40e3fb "reboot", 0x40e402 "off", 0x40ea75 "list",<br>
0x40e406 "monitor", 0x40e40e "status"}<br>
        __func__ = "main"<br>
<br>
Best,<br>
Vladislav<br>
<br>
<br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Pacemaker mailing list<br>
<a href="mailto:Pacemaker@oss.clusterlabs.org">Pacemaker@oss.clusterlabs.org</a><br>
<a href="http://oss.clusterlabs.org/mailman/listinfo/pacemaker" target="_blank">http://oss.clusterlabs.org/mailman/listinfo/pacemaker</a><br>
<br>
<br>
End of Pacemaker Digest, Vol 58, Issue 3<br>
****************************************<br>
</blockquote></div><br>