<html><header></header><body><div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;">I understand, but I cannot implement the third node at the moment.</div>
<div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;">I will think about it later.</div>
<div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;"> </div>
<div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;">Thanks!<br />Gabriele</div>
<div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;"> </div>
<div id="wt-mailcard">
<div> </div>
<div><span style="font-size: 14px; font-family: Helvetica;"><strong>Sonicle S.r.l. </strong>: <a href="http://www.sonicle.com/" target="_new">http://www.sonicle.com</a></span></div>
<div><span style="font-size: 14px; font-family: Helvetica;"><strong>Music: </strong><a href="http://www.gabrielebulfon.com/" target="_new">http://www.gabrielebulfon.com</a></span></div>
<div><span style="font-size: 14px; font-family: Helvetica;"><strong>eXoplanets : </strong><a href="https://gabrielebulfon.bandcamp.com/album/exoplanets">https://gabrielebulfon.bandcamp.com/album/exoplanets</a></span></div>
<div> </div>
</div>
<div style="font-family: tahoma,arial,helvetica,sans-serif; font-size: 14px;"><tt><br /><br /><br />----------------------------------------------------------------------------------<br /><br />Da: Ulrich Windl <Ulrich.Windl@rz.uni-regensburg.de><br />A: users@clusterlabs.org <br />Data: 14 dicembre 2020 8.52.16 CET<br />Oggetto: [ClusterLabs] Antw: Re: Antw: [EXT] Recoveing from node failure<br /><br /></tt></div>
<blockquote style="border-left: #000080 2px solid; margin-left: 5px; padding-left: 5px;"><tt>>>> Gabriele Bulfon <gbulfon@sonicle.com> schrieb am 11.12.2020 um 15:51 in<br />Nachricht <1053095478.6540.1607698288628@www>:<br />> I cannot "use wait_for_all: 0", cause this would move automatically a powered <br />> off node from UNCLEAN to OFFLINE and mount the ZFS pool (total risk!): I want <br />> to manually move from UNCLEAN to OFFLINE, when I know that 2nd node is <br />> actually off!<br /><br />Personally I think when you'll have to confirm that a node is down you need no cluster, because all actions would wait until the node is no longer unclean. I wouldn't want to be alerted in the middle of the night at weekends just to confirm that there was some problem, when the cluster could handle that automatically while I sleep.<br /><br />> <br />> Actually with wait_for_all to default (1) that was the case, so node1 would <br />> wait for my intervention when booting and node2 is down.<br />> So what think I need is some way to manually override the quorum in such a <br />> case (node 2 down for maintenance, node 1 reboot), so I would manually turn <br />> OFFLINE node2 from UNCLEAN, manually override quorum and have zpool mount and <br />> NFS ip up.<br />> <br />> Any idea?<br />> <br />> <br />> Sonicle S.r.l. : http://www.sonicle.com <br />> Music: http://www.gabrielebulfon.com <br />> eXoplanets : https://gabrielebulfon.bandcamp.com/album/exoplanets <br />> <br />> <br />> <br />> <br />> <br />> ----------------------------------------------------------------------------<br />> ------<br />> <br />> Da: Ulrich Windl <Ulrich.Windl@rz.uni-regensburg.de><br />> A: users@clusterlabs.org <br />> Data: 11 dicembre 2020 11.35.44 CET<br />> Oggetto: [ClusterLabs] Antw: [EXT] Recoveing from node failure<br />> <br />> <br />> Hi!<br />> <br />> Did you take care for special "two node" settings (quorum I mean)?<br />> When I use "crm_mon -1Arfj", I see something like<br />> " * Current DC: h19 (version <br />> 2.0.4+20200616.2deceaa3a-3.3.1-2.0.4+20200616.2deceaa3a) - partition with <br />> quorum"<br />> <br />> What do you see?<br />> <br />> Regards,<br />> Ulrich<br />> <br />>>>> Gabriele Bulfon <gbulfon@sonicle.com> schrieb am 11.12.2020 um 11:23 in<br />> Nachricht <350849824.6300.1607682209284@www>:<br />>> Hi, I finally could manage stonith with IPMI in my 2 nodes XStreamOS/illumos <br />> <br />>> storage cluster.<br />>> I have NFS IPs and shared storage zpool moving from one node or the other, <br />>> and stonith controllin ipmi powering off when something is not clear.<br />>> <br />>> What happens now is that if I shutdown 2nd node, I see the OFFLINE status <br />>> from node 1 and everything is up and running, and this is ok:<br />>> <br />>> Online: [ xstha1 ]<br />>> OFFLINE: [ xstha2 ]<br />>> Full list of resources:<br />>> xstha1_san0_IP (ocf::heartbeat:IPaddr): Started xstha1<br />>> xstha2_san0_IP (ocf::heartbeat:IPaddr): Started xstha1<br />>> xstha1-stonith (stonith:external/ipmi): Started xstha1<br />>> xstha2-stonith (stonith:external/ipmi): Started xstha1<br />>> zpool_data (ocf::heartbeat:ZFS): Started xstha1<br />>> But if also reboot 1st node, it starts with the UNCLEAN state, nothing is <br />>> running, so I clearstate of node 2, but resources are not started:<br />>> <br />>> Online: [ xstha1 ]<br />>> OFFLINE: [ xstha2 ]<br />>> Full list of resources:<br />>> xstha1_san0_IP (ocf::heartbeat:IPaddr): Stopped<br />>> xstha2_san0_IP (ocf::heartbeat:IPaddr): Stopped<br />>> xstha1-stonith (stonith:external/ipmi): Stopped<br />>> xstha2-stonith (stonith:external/ipmi): Stopped<br />>> zpool_data (ocf::heartbeat:ZFS): Stopped<br />>> I tried restarting zpool_data or other resources:<br />>> # crm resource start zpool_data<br />>> but nothing happens!<br />>> How can I recover from this state? Node2 needs to stay down, but I want <br />>> node1 to work.<br />>> Thanks!<br />>> Gabriele <br />>> <br />>> <br />>> Sonicle S.r.l. : http://www.sonicle.com <br />>> Music: http://www.gabrielebulfon.com <br />>> eXoplanets : https://gabrielebulfon.bandcamp.com/album/exoplanets <br />>> <br />> <br />> <br />> <br />> <br />> _______________________________________________<br />> Manage your subscription:<br />> https://lists.clusterlabs.org/mailman/listinfo/users <br />> <br />> ClusterLabs home: https://www.clusterlabs.org/ <br /><br /><br /><br /><br />_______________________________________________<br />Manage your subscription:<br />https://lists.clusterlabs.org/mailman/listinfo/users<br /><br />ClusterLabs home: https://www.clusterlabs.org/<br /><br /><br /></tt></blockquote></body></html>