<div id="yiv2779609891"><div id="yMail_cursorElementTracker_1617686540472">Unless you clusterize your iSCSI.<div id="yiv2779609891yMail_cursorElementTracker_1617686463491">You can see https://forums.centos.org/viewtopic.php?t=65539 </div><div id="yiv2779609891yMail_cursorElementTracker_1617686503104">Keep in mind that you will need to setup another resource to block the iscsi port before and after the iscsi resources or your clients will get a I/O error.</div><div id="yMail_cursorElementTracker_1617686623116"><br></div><div id="yMail_cursorElementTracker_1617686645830"><br></div><div id="yMail_cursorElementTracker_1617686646103">Sadly I didn't have the time to refine it and it never ended into centos's wiki.</div><div id="yMail_cursorElementTracker_1617686674020"><br></div><div id="yMail_cursorElementTracker_1617686623269">Best Regards,</div><div id="yMail_cursorElementTracker_1617686626706">Strahil Nikolov<br clear="none"> <br clear="none"> <div class="yiv2779609891yqt2233495302" id="yiv2779609891yqt96091"><blockquote style="margin:0 0 20px 0;"> <div style="font-family:Roboto, sans-serif;color:#6D00F6;"> <div>On Sat, Apr 3, 2021 at 17:52, Andrei Borzenkov</div><div><arvidjaar@gmail.com> wrote:</div> </div> <div style="padding:10px 0 0 20px;margin:10px 0 0 0;border-left:1px solid #6D00F6;"> <div dir="ltr">On 03.04.2021 17:35, Jason Long wrote:<br clear="none"></div><div dir="ltr">> Hello,<br clear="none"></div><div dir="ltr">> I configure my clustering labs with three nodes.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">You have two node cluster. What is running on nodes outside of cluster<br clear="none"></div><div dir="ltr">is out of scope of pacemaker.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">> One of my nodes is iSCSI Shared Storage. Everything was OK until I restarted my iSCSI Shared Storage. On node1 I checked the status of my cluster:<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> # pcs status <br clear="none"></div><div dir="ltr">> Cluster name: mycluster<br clear="none"></div><div dir="ltr">> Cluster Summary:<br clear="none"></div><div dir="ltr">>   * Stack: corosync<br clear="none"></div><div dir="ltr">>   * Current DC: node1 (version 2.0.5-10.fc33-ba59be7122) - partition with quorum<br clear="none"></div><div dir="ltr">>   * Last updated: Sat Apr  3 18:45:49 2021<br clear="none"></div><div dir="ltr">>   * Last change:  Mon Mar 29 19:36:35 2021 by root via cibadmin on node1<br clear="none"></div><div dir="ltr">>   * 2 nodes configured<br clear="none"></div><div dir="ltr">>   * 3 resource instances configured<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Node List:<br clear="none"></div><div dir="ltr">>   * Online: [ node1 node2 ]<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Full List of Resources:<br clear="none"></div><div dir="ltr">>   * Resource Group: apache:<br clear="none"></div><div dir="ltr">>     * httpd_fs    (ocf::heartbeat:Filesystem):     Stopped<br clear="none"></div><div dir="ltr">>     * httpd_vip    (ocf::heartbeat:IPaddr2):     Stopped<br clear="none"></div><div dir="ltr">>     * httpd_ser    (ocf::heartbeat:apache):     Stopped<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Failed Resource Actions:<br clear="none"></div><div dir="ltr">>   * httpd_fs_start_0 on node1 'not installed' (5): call=14, status='complete', exitreason='Couldn't find device [/dev/mapper/vg_apache-lv_apache]. Expected /dev/??? to exist', last-rc-change='2021-04-03 18:37:04 +04:30', queued=0ms, exec=502ms<br clear="none"></div><div dir="ltr">>   * httpd_fs_start_0 on node2 'not installed' (5): call=14, status='complete', exitreason='Couldn't find device [/dev/mapper/vg_apache-lv_apache]. Expected /dev/??? to exist', last-rc-change='2021-04-03 18:37:05 +04:30', queued=0ms, exec=540ms<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Daemon Status:<br clear="none"></div><div dir="ltr">>   corosync: active/enabled<br clear="none"></div><div dir="ltr">>   pacemaker: active/enabled<br clear="none"></div><div dir="ltr">>   pcsd: active/enabled<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> And checked the iSCSI Shared Storage. It showed me below error:<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> [<a rel="nofollow noopener noreferrer" shape="rect" ymailto="mailto:root@node3" target="_blank" href="mailto:root@node3">root@node3</a> ~]# systemctl status iscsi.service <br clear="none"></div><div dir="ltr">> ● iscsi.service - Login and scanning of iSCSI devices<br clear="none"></div><div dir="ltr">>      Loaded: loaded (/usr/lib/systemd/system/iscsi.service; enabled; vendor preset: enabled)<br clear="none"></div><div dir="ltr">>      Active: inactive (dead)<br clear="none"></div><div dir="ltr">>   Condition: start condition failed at Sat 2021-04-03 18:49:08 +0430; 2s ago<br clear="none"></div><div dir="ltr">>              └─ ConditionDirectoryNotEmpty=/var/lib/iscsi/nodes was not met<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">It seems to tell you why it was not started.<br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">>        Docs: man:iscsiadm(8)<br clear="none"></div><div dir="ltr">>              man:iscsid(8)<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Apr 03 18:39:17 node3.localhost.localdomain systemd[1]: Condition check resulted in Login and scanning of iSCSI devices being skipped.<br clear="none"></div><div dir="ltr">> Apr 03 18:39:17 node3.localhost.localdomain systemd[1]: iscsi.service: Unit cannot be reloaded because it is inactive.<br clear="none"></div><div dir="ltr">> Apr 03 18:39:17 node3.localhost.localdomain systemd[1]: iscsi.service: Unit cannot be reloaded because it is inactive.<br clear="none"></div><div dir="ltr">> Apr 03 18:49:08 node3.localhost.localdomain systemd[1]: Condition check resulted in Login and scanning of iSCSI devices being skipped.<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr">> Why "iscsi.service" is inactive? I tried to restart it, but it couldn't start!<br clear="none"></div><div dir="ltr">> How to solve it?<br clear="none"></div><div dir="ltr">> <br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">Did you try asking on support list/forum dedicated to Linux iSCSI?<br clear="none"></div><div dir="ltr">_______________________________________________<br clear="none"></div><div dir="ltr">Manage your subscription:<br clear="none"></div><div dir="ltr"><a rel="nofollow noopener noreferrer" shape="rect" target="_blank" href="https://lists.clusterlabs.org/mailman/listinfo/users">https://lists.clusterlabs.org/mailman/listinfo/users</a><br clear="none"></div><div dir="ltr"><br clear="none"></div><div dir="ltr">ClusterLabs home: <a rel="nofollow noopener noreferrer" shape="rect" target="_blank" href="https://www.clusterlabs.org/">https://www.clusterlabs.org/</a><br clear="none"></div> </div> </blockquote></div></div></div></div>