This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Evaluation of virtualised Astaro 8 on VMWare vSphere 4.1 poor throughput (RESOLVED)

I am currently reviewing the firewalls that protect our corporate infrastructure. As part of this evaluation I am investigating the possibility of virtualising firewalls to take advantage of the various benefits that virtualisation has shown. To this end as part of our review process virtualised instances of Astaro Security Gateway 8 are to be reviewed.

We currently run VMware ESX 4.1 Enterprise across multiple Dell R810 servers in HA\DRS clusters across 2 very well connected PoPs .  We are also planning to add a third ESX Cluster in a PoP for DR\Test-Development purposes.

We also plan on adding two server ESX 4.1 Standard clusters in 4 to 6 Branch offices.

The ESX servers have 12 gigabit network interfaces, with 4 vSwitches set up with 3 teamed network interfaces each, for the Service Console, Internal, External, and iSCSI. We are not using Jumbo frames on these systems.

Throughput performance is very high on our list of requirements, with each site connected at least at 1Gbps.

In my evaluations of virtualised instances of Astaro I have been unable to achieve throughput higher than 60Mbps.

Other virtual machines, Windows and Linux based, running on the same ESX clusters achieve near line speed of 1GBps throughput. 

I have used both the ESX ovf template and performed fresh installs of Astaro 8.001 (32bit and 64bit). I use only the e1000 network interfaces when performing fresh installs.

The installation is very basic, with all outbound traffic allowed, and all AV, IPS services are turned off. CPU load on the Astaro VM is light, as is memory.

Any advice as to where I am going wrong with this evaluation, with the aim to improve network performance, would be greatly appreciated.

Kind Regards


George Coburn


This thread was automatically locked due to age.
Parents
  • Glad to see your problem is resolved. I was curious however, after making the suggested changes, can you share any sort of performance numbers? We always are interested in what customers can achieve with Virtualization and some tinkering in their own environments.
  • I had similar issue as well.  I had 8 NICs.  Some VMXNET3 and some e1000.

    Copying files between VMs connected to the e1000 NICs was quick.  Slow for VMs connected to the VMXNET3 NIC interfaces.

    1. Snapshot virtual firewall (as well as backup config)
    2. shutdown the virtual firewall
    3. remove all NICs
    4. re-add all NICs of type e1000 in the same order to the same ESX virtual switches
    5. restart the firewall

    speeds are now increased [:)]
Reply
  • I had similar issue as well.  I had 8 NICs.  Some VMXNET3 and some e1000.

    Copying files between VMs connected to the e1000 NICs was quick.  Slow for VMs connected to the VMXNET3 NIC interfaces.

    1. Snapshot virtual firewall (as well as backup config)
    2. shutdown the virtual firewall
    3. remove all NICs
    4. re-add all NICs of type e1000 in the same order to the same ESX virtual switches
    5. restart the firewall

    speeds are now increased [:)]
Children
  • Interesting results.  I've added vSphere on my machine (iso install) and have migrated my ASG install over to vSphere.  According to VMware and numerous partners, VMXNET3 should provide outstanding performance over E1000, however, this doesn't seem to play out according to real world testing posted in this thread.

    So, what is the best NIC to use in vSphere with ASG? E1000 or VMXNET3?