<div dir="ltr"><div><div><div>Hello,<br></div><div><br></div><div>I've got 2 public IP's and 2 Hosts.</div><div><br></div><div>Each IP is assigned to one host. The interfaces are not configured by the system, I am using pacemaker to do this.</div><div></div><div><br></div><div>fw-managed-01: <a href="http://100.200.123.166/29">100.200.123.166/29</a><br></div><div>fw-managed-02: <a href="http://100.200.123.165/29">100.200.123.165/29</a></div><div><br></div><div>gateway: 100.200.123.161</div><div><br></div><div>I am trying to get some form of active/passive cluster. fw-managed-01 is the active node. If it fails, fw-managed-02 has to take over the VIP and change it's IPsrcaddr. This works so far. But if fw-managed-01 comes back online, the default Gateway isn't set again on the node fw-managed-02.</div><div><br></div><div>I'm quite new to this topic. The Cluster would work that way, but the passive Node can never reach the internet cause of the missing default gateway.</div><div><br></div><div>Can anyone explain to what I am missing or doing wrong here?<br></div><br>Output<br><br><span style="font-family:monospace,monospace"># crm configure show<br>node 1: fw-managed-01<br>node 2: fw-managed-02<br>primitive default_gw Route \<br>        op monitor interval=10s \<br>        params destination=default device=bad gateway=100.200.123.161<br>primitive src_address IPsrcaddr \<br>        op monitor interval=10s \<br>        params ipaddress=100.200.123.166<br>primitive vip_bad IPaddr2 \<br>        op monitor interval=10s \<br>        params nic=bad ip=100.200.123.166 cidr_netmask=29<br>primitive vip_bad_2 IPaddr2 \<br>        op monitor interval=10s \<br>        params nic=bad ip=100.200.123.165 cidr_netmask=29<br>primitive vip_managed IPaddr2 \<br>        op monitor interval=10s \<br>        params ip=172.30.40.254 cidr_netmask=24<br>clone default_gw_clone default_gw \<br>        meta clone-max=2 target-role=Started<br>location cli-prefer-default_gw default_gw_clone role=Started inf: fw-managed-01<br>location src_address_location src_address inf: fw-managed-01<br>location vip_bad_2_location vip_bad_2 inf: fw-managed-02<br>location vip_bad_location vip_bad inf: fw-managed-01<br>order vip_before_default_gw inf: vip_bad:start src_address:start symmetrical=true<br>location vip_managed_location vip_managed inf: fw-managed-01<br>property cib-bootstrap-options: \<br>        have-watchdog=false \<br>        dc-version=1.1.14-70404b0 \<br>        cluster-infrastructure=corosync \<br>        cluster-name=debian \<br>        stonith-enabled=false \<br>        no-quorum-policy=ignore \<br>        last-lrm-refresh=1516362207 \<br>        start-failure-is-fatal=false<br><br># crm status<br>Last updated: Mon Jan 22 18:47:12 2018          Last change: Fri Jan 19 17:04:12 2018 by root via cibadmin on fw-managed-01<br>Stack: corosync<br>Current DC: fw-managed-01 (version 1.1.14-70404b0) - partition with quorum<br>2 nodes and 6 resources configured<br><br>Online: [ fw-managed-01 fw-managed-02 ]<br><br>Full list of resources:<br><br> vip_managed    (ocf::heartbeat:IPaddr2):       Started fw-managed-01<br> vip_bad        (ocf::heartbeat:IPaddr2):       Started fw-managed-01<br> Clone Set: default_gw_clone [default_gw]<br>     default_gw (ocf::heartbeat:Route): FAILED fw-managed-02 (unmanaged)<br>     Started: [ fw-managed-01 ]<br> src_address    (ocf::heartbeat:IPsrcaddr):     Started fw-managed-01<br> vip_bad_2      (ocf::heartbeat:IPaddr2):       Started fw-managed-02<br><br>Failed Actions:<br>* default_gw_stop_0 on fw-managed-02 'not installed' (5): call=26, status=complete, exitreason='Gateway address 100.200.123.161 is unreachable.',<br>    last-rc-change='Fri Jan 19 17:10:43 2018', queued=0ms, exec=31ms<br>* src_address_monitor_0 on fw-managed-02 'unknown error' (1): call=18, status=complete, exitreason='[/usr/lib/heartbeat/findif -C] failed',<br>    last-rc-change='Fri Jan 19 17:10:43 2018', queued=0ms, exec=75ms</span><br><br><br></div>best regards,<br></div>Tobias<br><div><div><div><br><div><br></div><div><br></div></div></div></div></div>