<tt><font size=2>emmanuel segura <emi2fast@gmail.com> wrote on 02/13/2017
10:55:58 AM:<br>
<br>
> From: emmanuel segura <emi2fast@gmail.com></font></tt>
<br><tt><font size=2>> To: Cluster Labs - All topics related to open-source
clustering <br>
> welcomed <users@clusterlabs.org></font></tt>
<br><tt><font size=2>> Date: 02/13/2017 10:56 AM</font></tt>
<br><tt><font size=2>> Subject: Re: [ClusterLabs] SBD with shared block
storage (and watchdog?)</font></tt>
<br><tt><font size=2>> <br>
> modprobe softdog if you don't have an external watchdog</font></tt>
<br>
<br><tt><font size=2>Thank you, that made sbd watch happy.</font></tt>
<br>
<br><tt><font size=2>I now have this running on the 2 nodes.</font></tt>
<br>
<br><tt><font size=2>11:10 AM root@node1 ~</font></tt>
<br><tt><font size=2>fc25> ps aux|grep sbd</font></tt>
<br><tt><font size=2>root     24426  0.0  0.6  97888
13848 pts/0    SL   11:00   0:00 sbd: inquisitor</font></tt>
<br><tt><font size=2>root     24427  0.0  0.6  97892
13988 pts/0    SL   11:00   0:00 sbd: watcher: /dev/sdb1
- slot: 0 - uuid: 6094f0f4-2a07-47db-b4f7-6d478464d56a</font></tt>
<br><tt><font size=2>root     24428  0.0  0.8 102476
18404 pts/0    SL   11:00   0:00 sbd: watcher: Pacemaker</font></tt>
<br><tt><font size=2>root     29442  0.0  0.0 118520
 1000 pts/0    S+   11:18   0:00 grep --color=auto
sbd</font></tt>
<br>
<br><tt><font size=2>11:18 AM root@node2 ~</font></tt>
<br><tt><font size=2>fc25> ps aux|grep sbd</font></tt>
<br><tt><font size=2>root     22784  0.0  0.6  97884
13844 pts/0    SL   11:18   0:00 sbd: inquisitor</font></tt>
<br><tt><font size=2>root     22785  0.0  0.6  97888
13984 pts/0    SL   11:18   0:00 sbd: watcher: /dev/sdb1
- slot: 1 - uuid: 6094f0f4-2a07-47db-b4f7-6d478464d56a</font></tt>
<br><tt><font size=2>root     22786  0.0  0.8 102472
18400 pts/0    SL   11:18   0:00 sbd: watcher: Pacemaker</font></tt>
<br><tt><font size=2>root     22789  0.0  0.0 118520
  952 pts/0    S+   11:18   0:00 grep --color=auto
sbd</font></tt>
<br>
<br><tt><font size=2>Is the fencing complete?</font></tt>
<br><tt><font size=2>If so, will 'pcs cluster standby' simulate node failure?</font></tt>
<br>
<br>
<br><tt><font size=2>Addressing email that has followed.</font></tt>
<br>
<br><tt><font size=2>The device sbd1 is solely for sbd.  Sounds like
you're saying it does not get mounted.</font></tt>
<br><tt><font size=2>Is that correct?  If I just unmount sbd1 will
all be ok?</font></tt>
<br><tt><font size=2>How small can I make the sbd block device?</font></tt>
<br>
<br><tt><font size=2>Thank you,</font></tt>
<br>
<br><tt><font size=2>Durwin</font></tt>
<br>
<br><tt><font size=2><br>
> <br>
> 2017-02-13 18:34 GMT+01:00  <durwin@mgtsciences.com>:<br>
> > I am working to get an active/active cluster running.<br>
> > I have Windows 10 running 2 Fedora 25 Virtualbox VMs.<br>
> > VMs named node1, and node2.<br>
> ><br>
> > I created a vdi disk and set it to shared.<br>
> > I formatted it to gfs2 with this command.<br>
> ><br>
> > mkfs.gfs2 -t msicluster:msigfs2 -j 2 /dev/sdb1<br>
> ><br>
> > After installing 'dlm' and insuring guest additions were<br>
> > installed, I was able to mount the gfs2 parition.<br>
> ><br>
> > I then followed.<br>
> ><br>
> > </font></tt><a href="https://github.com/l-mb/sbd/blob/master/man/sbd.8.pod"><tt><font size=2>https://github.com/l-mb/sbd/blob/master/man/sbd.8.pod</font></tt></a><tt><font size=2><br>
> ><br>
> > I used this command.<br>
> ><br>
> > sbd -d /dev/sdb1 create<br>
> ><br>
> > Using sbd to 'list' returns nothing, but 'dump' shows this.<br>
> ><br>
> > fc25> sbd -d /dev/sdb1 dump<br>
> > ==Dumping header on disk /dev/sdb1<br>
> > Header version     : 2.1<br>
> > UUID               : 6094f0f4-2a07-47db-b4f7-6d478464d56a<br>
> > Number of slots    : 255<br>
> > Sector size        : 512<br>
> > Timeout (watchdog) : 5<br>
> > Timeout (allocate) : 2<br>
> > Timeout (loop)     : 1<br>
> > Timeout (msgwait)  : 10<br>
> > ==Header on disk /dev/sdb1 is dumped<br>
> ><br>
> > I then tried the 'watch' command and journalctl shows error listed.<br>
> ><br>
> > sbd -d /dev/sdb1 -W -P watch<br>
> ><br>
> > Feb 13 09:54:09 node1 sbd[6908]:    error: watchdog_init:
Cannot open<br>
> > watchdog device '/dev/watchdog': No such file or directory (2)<br>
> > Feb 13 09:54:09 node1 sbd[6908]:  warning: cleanup_servant_by_pid:
Servant<br>
> > for pcmk (pid: 6910) has terminated<br>
> > Feb 13 09:54:09 node1 sbd[6908]:  warning: cleanup_servant_by_pid:
Servant<br>
> > for /dev/sdb1 (pid: 6909) has terminated<br>
> ><br>
> ><br>
> > From<br>
> ><br>
> > </font></tt><a href="http://blog.clusterlabs.org/blog/2015/sbd-fun-and-profit"><tt><font size=2>http://blog.clusterlabs.org/blog/2015/sbd-fun-and-profit</font></tt></a><tt><font size=2><br>
> ><br>
> > I installed watchdog.<br>
> ><br>
> > my /etc/sysconfig/sbd is.<br>
> ><br>
> > SBD_DELAY_START=no<br>
> > SBD_OPTS=<br>
> > SBD_PACEMAKER=yes<br>
> > SBD_STARTMODE=clean<br>
> > SBD_WATCHDOG_DEV=/dev/watchdog<br>
> > SBD_WATCHDOG_TIMEOUT=5<br>
> ><br>
> > the sbd-fun-and-profit says to use this command.<br>
> ><br>
> > virsh edit vmnode<br>
> ><br>
> > But there is no vmnode and no instructions on how to create it.<br>
> ><br>
> > Is anyone able to piece together the missing steps?<br>
> ><br>
> ><br>
> > Thank you.<br>
> ><br>
> > Durwin F. De La Rue<br>
> > Management Sciences, Inc.<br>
> > 6022 Constitution Ave. NE<br>
> > Albuquerque, NM  87110<br>
> > Phone (505) 255-8611<br>
> ><br>
> ><br>
> > This email message and any attachments are for the sole use of
the intended<br>
> > recipient(s) and may contain proprietary and/or confidential
information<br>
> > which may be privileged or otherwise protected from disclosure.
Any<br>
> > unauthorized review, use, disclosure or distribution is prohibited.
If you<br>
> > are not the intended recipient(s), please contact the sender
by reply email<br>
> > and destroy the original message and any copies of the message
as well as<br>
> > any attachments to the original message.<br>
> > _______________________________________________<br>
> > Users mailing list: Users@clusterlabs.org<br>
> > </font></tt><a href=http://lists.clusterlabs.org/mailman/listinfo/users><tt><font size=2>http://lists.clusterlabs.org/mailman/listinfo/users</font></tt></a><tt><font size=2><br>
> ><br>
> > Project Home: </font></tt><a href=http://www.clusterlabs.org/><tt><font size=2>http://www.clusterlabs.org</font></tt></a><tt><font size=2><br>
> > Getting started: </font></tt><a href=http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf><tt><font size=2>http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</font></tt></a><tt><font size=2><br>
> > Bugs: </font></tt><a href=http://bugs.clusterlabs.org/><tt><font size=2>http://bugs.clusterlabs.org</font></tt></a><tt><font size=2><br>
> ><br>
> <br>
> <br>
> <br>
> -- <br>
>   .~.<br>
>   /V\<br>
>  //  \\<br>
> /(   )\<br>
> ^`~'^<br>
> <br>
> _______________________________________________<br>
> Users mailing list: Users@clusterlabs.org<br>
> </font></tt><a href=http://lists.clusterlabs.org/mailman/listinfo/users><tt><font size=2>http://lists.clusterlabs.org/mailman/listinfo/users</font></tt></a><tt><font size=2><br>
> <br>
> Project Home: </font></tt><a href=http://www.clusterlabs.org/><tt><font size=2>http://www.clusterlabs.org</font></tt></a><tt><font size=2><br>
> Getting started: </font></tt><a href=http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf><tt><font size=2>http://www.clusterlabs.org/doc/Cluster_from_Scratch.pdf</font></tt></a><tt><font size=2><br>
> Bugs: </font></tt><a href=http://bugs.clusterlabs.org/><tt><font size=2>http://bugs.clusterlabs.org</font></tt></a><tt><font size=2><br>
</font></tt><font size=2 face="sans-serif"><br>
<br>
<br>
This email message and any attachments are for the sole use of the intended
recipient(s) and may contain proprietary and/or confidential information
which may be privileged or otherwise protected from disclosure. Any unauthorized
review, use, disclosure or distribution is prohibited. If you are not the
intended recipient(s), please contact the sender by reply email and destroy
the original message and any copies of the message as well as any attachments
to the original message.</font>