Guest User!

You are not Sophos Staff.

This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

2 node cluster shows no WORKER

I would appreciate any suggestions on following problem:

I have a 2 node HA pair of UTM 220s running UTM 9.

I have configured them as a closer but the status shows that I have 1 MASTER & 1 SLAVE.

Surely I should see 1 master and 1 worker, otherwise it is effectively simply an active-passive configuration.

The configuration "works" correctly, i.e. will fail over correctly, but since I second node is always a slave I am not getting any benefit of a "cluster" which is annoying as a cluster license is almost 2x the price...

Any suggestions...

Ben


This thread was automatically locked due to age.
  • Hi Benkatz


    This is normal. first 2 Nodes (independent if HA or Cluster) always shows up as Master/Slave. Every additional Node will show up as Worker.

    No panic - if it runs configured as Cluster, it's also distributing load...

    /Sascha

    Wer Schreibfehler findet, darf sie behalten. Wenn ich via IPad poste, sind Verschreiber und grammatikalische Aussetzer irgendwie an der Tagesordnung.
  • Thanks for the info, I am reassured !

    I set up the cluster because since going to UTM 9 my (1gb) UTM 220 is showing 40% swap, and throughput has dropped to the floor, hopefully the cluster will help, otherwise...
  • Hi benkatz,

    You really need to look into replacing that 220 if it only has 1GB RAM. 2GB is considered the minimum for v9 and is standard on the current appliances. The v9 upgrade should have blocked you from upgrading as it checks the RAM before proceeding.

    That 40% swap is the killer and I'm not sure if a cluster will help. Cluster's usually benefit situations where there are a lot of CPU bound processes running, things like IPS, VPN tunnels, etc.

    I'm assuming this is a commercial installation so you will want to get your Sophos partner involved in determining proper sizing.
  • Yes I agree that the Cluster isn't the right fix for the swapping, and likely isn't the final fix, but id like it to work [:)]

    As for the 220 the 1GB issue is very annoying, the devices were purchased brand-new in May 2012, and are now effectively obsolete.  From a conversation I had with Astaro and things I saw on the web, it seemed there is no cost effective way to upgrade, so I didn't even speak to my reseller, as I assumed it wouldn't help.  So instead I spent $30 per box to purchase RAM to upgrade them to 4GB each.  I installed it on one node last night, booted up fine, assuming all runs ok, I will upgrade the other one tonight.

    I think that ought to do the trick...

    Ben
  • Okay. You've been bit by the same problem we did back in 2010 with our 120's. Bought them a few months before the spec changed.[:$]

    4GB per unit ought to help. Just be aware tho that upgrading the unit without Astaro's official blessing may give you troubles down the road if you have to warranty the unit. Keep the old RAM sticks just in case.
  • Another point I'd make --- I've seen issues in V9, with HA enabled, if both systems were not multi-core units ... I had a couple of boxes (identical) that I had installed UTM 9 on in "classic" mode (long story as to why), which disables SMP ... had a ton of trouble getting the active/passive cluster to stay up.  Reloaded with SMP enabled, no troubles at all. -- so.. make sure your units are multi-core ... easy enough to check from SSH / Console, login as root and issue a "lscpu" command.  The number of CPUs listed should be 2 or more (the number counting the multiple cores, they are detected as individual CPUs).  If you bought your ASG220s in May 2012, they are likely Rev. 4 units, which are definitely multi-core.

    Also, Ben, do contact your reseller -- there is an official hardware refresh program in effect right now that can save you some money, though it is not as cheap as just adding RAM to an existing device (which, as another poster pointed out, can void your support and warranty).