This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Evaluation of virtualised Astaro 8 on VMWare vSphere 4.1 poor throughput (RESOLVED)

I am currently reviewing the firewalls that protect our corporate infrastructure. As part of this evaluation I am investigating the possibility of virtualising firewalls to take advantage of the various benefits that virtualisation has shown. To this end as part of our review process virtualised instances of Astaro Security Gateway 8 are to be reviewed.

We currently run VMware ESX 4.1 Enterprise across multiple Dell R810 servers in HA\DRS clusters across 2 very well connected PoPs .  We are also planning to add a third ESX Cluster in a PoP for DR\Test-Development purposes.

We also plan on adding two server ESX 4.1 Standard clusters in 4 to 6 Branch offices.

The ESX servers have 12 gigabit network interfaces, with 4 vSwitches set up with 3 teamed network interfaces each, for the Service Console, Internal, External, and iSCSI. We are not using Jumbo frames on these systems.

Throughput performance is very high on our list of requirements, with each site connected at least at 1Gbps.

In my evaluations of virtualised instances of Astaro I have been unable to achieve throughput higher than 60Mbps.

Other virtual machines, Windows and Linux based, running on the same ESX clusters achieve near line speed of 1GBps throughput. 

I have used both the ESX ovf template and performed fresh installs of Astaro 8.001 (32bit and 64bit). I use only the e1000 network interfaces when performing fresh installs.

The installation is very basic, with all outbound traffic allowed, and all AV, IPS services are turned off. CPU load on the Astaro VM is light, as is memory.

Any advice as to where I am going wrong with this evaluation, with the aim to improve network performance, would be greatly appreciated.

Kind Regards


George Coburn


This thread was automatically locked due to age.
Parents
  • Hi

    Thanks for your many replies. Answers below to the various questions.

    “George, how are you measuring the throughput?”

    A number of ways, client side tools (DUMeter), vSphere reports, iperf results, Asatro Dashboard

    Regarding MTU mismatch, I’ve gone through and checked MTU, and all appears to be correct. We are using 1500 on vSwitches, the physical switches, and pc’s. This is for various reasons, but mainly because some of our devices (printers, IP phones, etc) don’t do jumbo frames.

    “what VM NIC type have you got set?”

    I had tried both the Flexible and e1000 network adapters.

    I have now had some success now with further testing. I am able to achieve line speed throughput during iperf testing.

    What changed? Not sure. I did another fresh install, and it started to perform as expected.

    What my testing has shown however is the performance hit that enabling IPS has. It goes from 980Mbps to around 200Mbps. CPU load goes to around 35% to 45% on a dual cpu x64 setup. So my next questions are going to be related to the scaling of the UTM\IPS performance when throwing more CPUs at it. Any comments?

    Thanks again to all for your assistance.

    George
Reply
  • Hi

    Thanks for your many replies. Answers below to the various questions.

    “George, how are you measuring the throughput?”

    A number of ways, client side tools (DUMeter), vSphere reports, iperf results, Asatro Dashboard

    Regarding MTU mismatch, I’ve gone through and checked MTU, and all appears to be correct. We are using 1500 on vSwitches, the physical switches, and pc’s. This is for various reasons, but mainly because some of our devices (printers, IP phones, etc) don’t do jumbo frames.

    “what VM NIC type have you got set?”

    I had tried both the Flexible and e1000 network adapters.

    I have now had some success now with further testing. I am able to achieve line speed throughput during iperf testing.

    What changed? Not sure. I did another fresh install, and it started to perform as expected.

    What my testing has shown however is the performance hit that enabling IPS has. It goes from 980Mbps to around 200Mbps. CPU load goes to around 35% to 45% on a dual cpu x64 setup. So my next questions are going to be related to the scaling of the UTM\IPS performance when throwing more CPUs at it. Any comments?

    Thanks again to all for your assistance.

    George
Children
No Data