<html xmlns:v="urn:schemas-microsoft-com:vml" xmlns:o="urn:schemas-microsoft-com:office:office" xmlns:w="urn:schemas-microsoft-com:office:word" xmlns:m="http://schemas.microsoft.com/office/2004/12/omml" xmlns="http://www.w3.org/TR/REC-html40"><head><meta http-equiv=Content-Type content="text/html; charset=us-ascii"><meta name=Generator content="Microsoft Word 14 (filtered medium)"><style><!--
/* Font Definitions */
@font-face
        {font-family:Calibri;
        panose-1:2 15 5 2 2 2 4 3 2 4;}
/* Style Definitions */
p.MsoNormal, li.MsoNormal, div.MsoNormal
        {margin:0cm;
        margin-bottom:.0001pt;
        font-size:11.0pt;
        font-family:"Calibri","sans-serif";
        mso-fareast-language:EN-US;}
a:link, span.MsoHyperlink
        {mso-style-priority:99;
        color:blue;
        text-decoration:underline;}
a:visited, span.MsoHyperlinkFollowed
        {mso-style-priority:99;
        color:purple;
        text-decoration:underline;}
span.EmailStyle17
        {mso-style-type:personal-compose;
        font-family:"Calibri","sans-serif";
        color:windowtext;}
.MsoChpDefault
        {mso-style-type:export-only;
        font-family:"Calibri","sans-serif";
        mso-fareast-language:EN-US;}
@page WordSection1
        {size:612.0pt 792.0pt;
        margin:72.0pt 72.0pt 72.0pt 72.0pt;}
div.WordSection1
        {page:WordSection1;}
--></style><!--[if gte mso 9]><xml>
<o:shapedefaults v:ext="edit" spidmax="1026" />
</xml><![endif]--><!--[if gte mso 9]><xml>
<o:shapelayout v:ext="edit">
<o:idmap v:ext="edit" data="1" />
</o:shapelayout></xml><![endif]--></head><body lang=EN-GB link=blue vlink=purple><div class=WordSection1><p class=MsoNormal>Hi,<o:p></o:p></p><p class=MsoNormal>I want to configure pacemaker to failover a group of resources and sg_persist (master/slave) when there is a problem with the storage but when I cause the iSCSI LUN to disappear simulating a failure, the cluster always gets stuck in this state:<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Last updated: Wed May 11 10:52:43 2011<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Stack: openais<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Current DC: host001.domain - partition with quorum<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Version: 1.1.2-f059ec7ced7a86f18e5490b67ebf4a0b963bccfe<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>2 Nodes configured, 2 expected votes<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>4 Resources configured.<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>============<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'><o:p> </o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Online: [ host002.domain host001.domain ]<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'><o:p> </o:p></p><p class=MsoNormal style='margin-left:36.0pt'>fence_host002.domain     (stonith:fence_ipmilan):        Started host001.domain<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>fence_host001.domain     (stonith:fence_ipmilan):        Started host001.domain<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'> Resource Group: MyApp_group<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_lvm_graph    (ocf::heartbeat:LVM):   Started host002.domain FAILED<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_lvm_landing  (ocf::heartbeat:LVM):   Started host002.domain FAILED<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_fs_graph     (ocf::heartbeat:Filesystem):    Started host002.domain<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_fs_landing   (ocf::heartbeat:Filesystem):    Started host002.domain<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_IP   (ocf::heartbeat:IPaddr):        Stopped<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     MyApp_init_script   (lsb:abworkload):              Stopped<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'> Master/Slave Set: ms_MyApp_scsi_reservation<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     Masters: [ host002.domain ]<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>     Slaves: [ host001.domain ]<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'><o:p> </o:p></p><p class=MsoNormal style='margin-left:36.0pt'>Failed actions:<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>    MyApp_lvm_graph_monitor_10000 (node=host002.domain, call=129, rc=-2, status=Timed Out): unknown exec error<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>    MyApp_lvm_landing_monitor_10000 (node=host002.domain, call=130, rc=-2, status=Timed Out): unknown exec error<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>This is printed over and over in the logs:<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:56 host002 lrmd: [2561]: info: perform_op:2884: operation stop[202] on ocf::Filesystem::MyApp_fs_graph for client 31850, its parameters: fstype=[ext4] crm_feature_set=[3.0.2] device=[/dev/VolGroupB00/abb_graph] CRM_meta_timeout=[20000] directory=[/naab1]  for rsc is already running.<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:56 host002 lrmd: [2561]: info: perform_op:2894: postponing all ops on resource MyApp_fs_graph by 1000 ms<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:57 host002 lrmd: [2561]: info: perform_op:2884: operation stop[202] on ocf::Filesystem::MyApp_fs_graph for client 31850, its parameters: fstype=[ext4] crm_feature_set=[3.0.2] device=[/dev/VolGroupB00/abb_graph] CRM_meta_timeout=[20000] directory=[/naab1]  for rsc is already running.<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:57 host002 lrmd: [2561]: info: perform_op:2894: postponing all ops on resource MyApp_fs_graph by 1000 ms<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: info: perform_op:2884: operation stop[202] on ocf::Filesystem::MyApp_fs_graph for client 31850, its parameters: fstype=[ext4] crm_feature_set=[3.0.2] device=[/dev/VolGroupB00/abb_graph] CRM_meta_timeout=[20000] directory=[/naab1]  for rsc is already running.<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: info: perform_op:2894: postponing all ops on resource MyApp_fs_graph by 1000 ms<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: WARN: MyApp_lvm_graph:monitor process (PID 1938) timed out (try 1).  Killing with signal SIGTERM (15).<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: WARN: MyApp_lvm_landing:monitor process (PID 1939) timed out (try 1).  Killing with signal SIGTERM (15).<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: WARN: operation monitor[190] on ocf::LVM::MyApp_lvm_graph for client 31850, its parameters: CRM_meta_depth=[0] depth=[0] exclusive=[yes] crm_feature_set=[3.0.2] volgrpname=[VolGroupB00] CRM_meta_on_fail=[standby] CRM_meta_name=[monitor] CRM_meta_interval=[10000] CRM_meta_timeout=[10000] : pid [1938] timed out<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 lrmd: [2561]: WARN: operation monitor[191] on ocf::LVM::MyApp_lvm_landing for client 31850, its parameters: CRM_meta_depth=[0] depth=[0] exclusive=[yes] crm_feature_set=[3.0.2] volgrpname=[VolGroupB01] CRM_meta_on_fail=[standby] CRM_meta_name=[monitor] CRM_meta_interval=[10000] CRM_meta_timeout=[10000] : pid [1939] timed out<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 crmd: [31850]: ERROR: process_lrm_event: LRM operation MyApp_lvm_graph_monitor_10000 (190) Timed Out (timeout=10000ms)<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:58 host002 crmd: [31850]: ERROR: process_lrm_event: LRM operation MyApp_lvm_landing_monitor_10000 (191) Timed Out (timeout=10000ms)<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:59 host002 lrmd: [2561]: info: perform_op:2884: operation stop[202] on ocf::Filesystem::MyApp_fs_graph for client 31850, its parameters: fstype=[ext4] crm_feature_set=[3.0.2] device=[/dev/VolGroupB00/abb_graph] CRM_meta_timeout=[20000] directory=[/naab1]  for rsc is already running.<o:p></o:p></p><p class=MsoNormal style='margin-left:36.0pt'>May 11 12:34:59 host002 lrmd: [2561]: info: perform_op:2894: postponing all ops on resource MyApp_fs_graph by 1000 ms<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>And I noticed there are about 100 vgdisplay processes running in D state.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>How can I configure Pacemaker so the other host forces sg_persist to be a master and then just takes the whole resource group without fencing?<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal> I’ve tried “on-fail=standby” or “migration-threshold=0” but it just always gets stuck in this state. If I reconnect the LUN everything resumes and it instantly fails over but this is less than ideal.<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal>Thanks,<o:p></o:p></p><p class=MsoNormal>Max<o:p></o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p><p class=MsoNormal><o:p> </o:p></p></div><BR>
________________________________________________________________________<BR>
In order to protect our email recipients, Betfair Group use SkyScan from <BR>
MessageLabs to scan all Incoming and Outgoing mail for viruses.<BR>
<BR>
________________________________________________________________________<BR>
</body></html>