This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

How to make sure my HA is working

Hello Friends !

I have setup a HA cluster and i "think "its working because when i reboot slave or master node i am able to browse the internet uninterrupted .

my adsl router>>normal 8 ports switch>>asg 1 and asg 2 wan port connected.
HA is crossover. 
 lan asg1 and asg2 >>another 8 port switch 

pls check log of full reboot proces or slave node 

  2011:04:11-20:20:11 asg-2 ha_daemon[5379]: id="38A0" severity="info" sys="System" sub="ha" name="Initial synchronization finished!"

2011:04:11-20:20:12 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Node 2 changed state: SYNCING -> ACTIVE"
2011:04:11-20:20:27 asg-1 slon_control[5657]: Initial synchronization for node 2 finished!
2011:04:11-20:20:27 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Deactivating sync process for database on node 2"
2011:04:11-21:26:11 asg-2 ha_daemon[5379]: id="38A0" severity="info" sys="System" sub="ha" name="Received command to reboot!"
2011:04:11-21:26:12 asg-2 ha_daemon[5379]: id="38A0" severity="info" sys="System" sub="ha" name="--- Node is disabled ---"
2011:04:11-21:26:12 asg-2 ha_daemon[5379]: id="38A0" severity="info" sys="System" sub="ha" name="HA daemon shutting down"
2011:04:11-21:26:12 asg-2 slon_control[5542]: Exiting...
2011:04:11-21:26:12 asg-2 slon_control[5542]: Killing slon reporting [7054]
2011:04:11-21:26:14 asg-1 ha_daemon[5610]: id="38C1" severity="info" sys="System" sub="ha" name="Node 2 is dead, received no heart beats!"
2011:04:11-21:26:14 asg-1 slon_control[5657]: Killing slon reporting [13171]
2011:04:11-21:26:15 asg-2 slon_control[5542]: Killing slon pop3 [7055]
2011:04:11-21:26:17 asg-1 slon_control[5657]: Killing slon pop3 [13172]
2011:04:11-21:26:39 asg-1 conntrack-tools[6325]: no dedicated links available!
2011:04:11-21:26:39 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Lost link beat on eth1!"
2011:04:11-21:26:42 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth1 again!"
2011:04:11-21:26:43 asg-1 conntrack-tools[6325]: no dedicated links available!
2011:04:11-21:26:43 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Lost link beat on eth1!"
2011:04:11-21:26:44 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth1 again!"
2011:04:11-21:26:59 asg-1 conntrack-tools[6325]: no dedicated links available!
2011:04:11-21:26:59 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Lost link beat on eth1!"
2011:04:11-21:27:01 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth1 again!"
2011:04:11-21:27:21 asg-1 conntrack-tools[6325]: no dedicated links available!
2011:04:11-21:27:21 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Lost link beat on eth1!"
2011:04:11-21:27:22 asg-1 ha_daemon[5610]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth1 again!"
2011:04:11-21:27:31 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Access granted to remote node 2!"
2011:04:11-21:27:33 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Node 2 joined with version 8.162"
2011:04:11-21:27:33 asg-1 ha_daemon[5610]: id="38C0" severity="info" sys="System" sub="ha" name="Node 2 is alive!"
2011:04:11-21:27:33 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Node 2 changed state: DEAD -> SYNCING"
2011:04:11-21:27:33 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Node 2 changed mode: WORKER -> SLAVE"
2011:04:11-21:27:33 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Activating sync process for database on node 2"
2011:04:11-21:27:38 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Activating sync process for config on node 2"
2011:04:11-21:27:39 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Deactivating sync process for config on node 2"
2011:04:11-21:27:43 asg-2 slon_control[5398]: Set mode to SLAVE
2011:04:11-21:27:43 asg-2 slon_control[5398]: Slonik error, process exited with value 255
2011:04:11-21:27:43 asg-2 slon_control[5398]: Starting replication from Node 1 to 2
2011:04:11-21:27:43 asg-2 slon_control[5398]: Found following tables in reporting: mailsec pfilter websec_visits websec_searches websec_categories endpoint_users imp2p endpoint_lookup ips mailanon_addrs waf accounting waf_events vpn_options websec_reqcat websec_sessions auth webanon_clients ipscount webanon_users mailanon_domains vpn websecurity
2011:04:11-21:27:43 asg-2 slon_control[5398]: Found following sequences in reporting: endpoint_users_id_seq webanon_clients__rowno_seq webanon_users__rowno_seq mailanon_domains__rowno_seq mailanon_addrs__rowno_seq accounting__rowno_seq auth__rowno_seq vpn__rowno_seq vpn_options__rowno_seq ipscount__rowno_seq ips__rowno_seq imp2p__rowno_seq mailsec__rowno_seq pfilter__rowno_seq websec_reqcat__rowno_seq websecurity__rowno_seq websec_sessions__rowno_seq websec_visits__rowno_seq websec_searches__rowno_seq waf__rowno_seq waf_events__rowno_seq
2011:04:11-21:27:44 asg-2 ha_daemon[5241]: id="38A0" severity="info" sys="System" sub="ha" name="Reading cluster configuration"
2011:04:11-21:27:44 asg-2 ha_daemon[5241]: id="38A0" severity="info" sys="System" sub="ha" name="Reading cluster configuration"
2011:04:11-21:27:44 asg-2 conntrack-tools[6279]: using user-space event filtering
2011:04:11-21:27:44 asg-2 conntrack-tools[6279]: netlink event socket buffer size has been set to 4194304 bytes
2011:04:11-21:27:44 asg-2 conntrack-tools[6279]: initialization completed
2011:04:11-21:27:44 asg-2 conntrack-tools[6280]: -- starting in daemon mode --
2011:04:11-21:27:44 asg-2 conntrack-tools[6280]: flushing conntrack table in 60 secs
2011:04:11-21:27:44 asg-2 conntrack-tools[6280]: request resync
2011:04:11-21:27:48 asg-1 slon_control[5657]: Started slon process 23644 for reporting
2011:04:11-21:27:48 asg-1 slon_control[5657]: Started slon process 23645 for pop3
2011:04:11-21:27:45 asg-2 ha_daemon[5241]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth2 again!"
2011:04:11-21:27:49 asg-2 slon_control[5398]: Found following tables in pop3: serveraddress confd_whitelist confd_accounts confd_users messages confd_blacklist accounts modified_headers servers quarantine
2011:04:11-21:27:50 asg-2 ha_daemon[5241]: id="38A0" severity="info" sys="System" sub="ha" name="Monitoring interfaces for link beat: eth0 eth2 "
2011:04:11-21:27:50 asg-2 ha_daemon[5241]: id="38A3" severity="debug" sys="System" sub="ha" name="Netlink: Found link beat on eth0 again!"
2011:04:11-21:27:52 asg-2 slon_control[5398]: Started slon process 7072 for reporting
2011:04:11-21:27:52 asg-2 slon_control[5398]: Started slon process 7073 for pop3
2011:04:11-21:28:44 asg-2 conntrack-tools[6280]: flushing kernel conntrack table (scheduled)
2011:04:11-21:32:49 asg-1 slon_control[5657]: Initial synchronization for node 2 finished!
2011:04:11-21:32:49 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Deactivating sync process for database on node 2"
2011:04:11-21:33:03 asg-2 ha_daemon[5241]: id="38A0" severity="info" sys="System" sub="ha" name="Initial synchronization finished!"
2011:04:11-21:33:04 asg-1 ha_daemon[5610]: id="38A0" severity="info" sys="System" sub="ha" name="Node 2 changed state: SYNCING -> ACTIVE" 


thanks


This thread was automatically locked due to age.
Parents
  • Hello Friends !

    i "think "its working because when i reboot slave or master node i am able to browse the internet uninterrupted .

    thanks


    The easiest way is to check via webadmin or command line. Here is an example for an failover cluster:

     ASG1:/var/log # ha_utils
    - Status -----------------------------------------------------------------------
    Current mode: HA MASTER with id 1 in state ACTIVE
    -- Nodes -----------------------------------------------------------------------
    MASTER: 1 ASG1 198.19.250.1 8.102 ACTIVE since Tue Feb  8 10:36:25 2011
    SLAVE: 2 ASG2 198.19.250.2 8.102 ACTIVE since Tue Feb  8 10:43:12 2011
    -- Load ---------------------------------------------------------------------
    Both devices are up and running, while ASG is currently Master.

    Cheers,
    ciscoman
  • Thanks Ciscoman ,

    same result here also :

    ha_utils
    - Status -----------------------------------------------------------------------
    Current mode: CLUSTER MASTER with id 1 in state ACTIVE
    -- Nodes -----------------------------------------------------------------------
    MASTER: 1 c2dhigh 198.19.250.1 8.162 ACTIVE since Tue Apr 12 11:19:15 2011
    SLAVE: 2 d2cdualcore 198.19.250.2 8.162 ACTIVE since Tue Apr 12 11:26:41 2011
    -- Load ------------------------------------------------------------------------
    Node  1: [1m] 0.00  [5m] 0.02  [15m] 0.06
    Node  2: [1m] 0.01  [5m] 0.05  [15m] 0.06
    -- Cluster distribution ------------------
Reply
  • Thanks Ciscoman ,

    same result here also :

    ha_utils
    - Status -----------------------------------------------------------------------
    Current mode: CLUSTER MASTER with id 1 in state ACTIVE
    -- Nodes -----------------------------------------------------------------------
    MASTER: 1 c2dhigh 198.19.250.1 8.162 ACTIVE since Tue Apr 12 11:19:15 2011
    SLAVE: 2 d2cdualcore 198.19.250.2 8.162 ACTIVE since Tue Apr 12 11:26:41 2011
    -- Load ------------------------------------------------------------------------
    Node  1: [1m] 0.00  [5m] 0.02  [15m] 0.06
    Node  2: [1m] 0.01  [5m] 0.05  [15m] 0.06
    -- Cluster distribution ------------------
Children
  • if i want to use ha_utils ssh do i have to use fix ssh port (22) ,can i use port 22222 ?
    another thing if i am configure ipv6 on HA cluster after reboot slave or master node is ipv6 tunnel suppose to be on always or IPV6  tunnel is not support by HA