Guest User!

You are not Sophos Staff.

[9.000][ANSWERED] vmware - Suggested settings?

We run ESXi 5

What CPU allocation, (Sockets/Cores) and RAM would you suggest for a Full Guard licence, (most stuff in use), 40mbit internet connection and around 250 users?

(For UTM 9)

FYI: Underlying host is 2 x Xeon E5506 @ 2.13GHz - 72GB RAM
  • It really depends on the actual usage, and if you're concerned about performance, I'd suggest to go bare metal anyway...

    That said, I'd give the v9 all CPUs and start with 8GB of RAM and increase it, if necessary.

    Cheers,
    Kai
  • Hmmm, don't know that I agree with that.  Giving more than one vCPU to a guest can cause all kinds of scheduling anomalies (according to the vmware engineers I know, not just my opinion.)  You're better off with either a single core/thread on a faster CPU or go bare metal.  Preferably a xeon 1230 or somesuch.
  • DSwartz,
    Performance will be poor with a single CPU with all features and a lot of users.

    If VMWare has such a serious problem, I'd like to see any documentation about it.

    Barry
  • DSwartz,
    Performance will be poor with a single CPU with all features and a lot of users.

    If VMWare has such a serious problem, I'd like to see any documentation about it.

    Barry


    From what I've seem at work, this is only a really issue if you are seriously overcomming yout CPU

    If you got like 8 cores, give 4 to astaro, 2 to a vm and 2 to another vm there is no issue.

    giving all 8 to all vm's is problematic if one starts doing a lot of work, shit does tend to go wrong, like out of sync timers and such.

    But that is just most from seeing the vmware engineers at work mess around.
  • Hmmm, don't know that I agree with that.  Giving more than one vCPU to a guest can cause all kinds of scheduling anomalies (according to the vmware engineers I know, not just my opinion.)  You're better off with either a single core/thread on a faster CPU or go bare metal.  Preferably a xeon 1230 or somesuch.


    Yeah, I've read once a whitepaper concernig SMP operation in ESXi in the past too. If I remember right it has something to do with the fact, that the scheduler for some reason has to lock the physical resources for all vCPUs in a SMP VM in the same timeslot, which can lead to delays, until the required resources are available at the same time. But as long as the host system is performant enough, it shouldn't affect operation too much unless your (shared) VM hostsystem has high load.

    I've seen many SMP ASGs/SophosUTMs on VMWare/ESXi shared with other VMs (and I'm running my own ASGs since years this way) and have never personally experienced or heard about an real impact with SMP operation of a virtualized ASG. So I guess this is a overrated, theoretical issue. 

    I also have seen virtualized SMP ASGs easily handling 200...300MBit throughput with FullUTM without issues, So I assume virtualized ASGs can be scaled in real life up to a few hundred MBit throughput through the ASG (which is usually sufficient for many SMB enviroments) beyond that I'd recommend Hardware Appliances or Software on bare metal...

    I absolutely agree with the recommendation to go with bare metal if possible for performance reasons, but virtualization can be a good way to work around the ASG HCL restrictions....

    Wer Schreibfehler findet, darf sie behalten. Wenn ich via IPad poste, sind Verschreiber und grammatikalische Aussetzer irgendwie an der Tagesordnung.
  • So... in short nobody knows.  I am more interested in optimum processor/core numbers and ratios.  I was thinking 2 x processor, each with 2 core.  I am unsure how the UTM balances across processors and cores.  (IE would I be better with 4 x single core processor instead of  2 x dual core processor).
  • It really depends on the actual usage, and if you're concerned about performance, I'd suggest to go bare metal anyway...

    That said, I'd give the v9 all CPUs and start with 8GB of RAM and increase it, if necessary.

    Cheers,
    Kai


    That's more than I give our Exchange servers CPU wise...
    (8 CPUs).
  • Well, I'm just going by what a vmware support engineer has told me.  Not saying it doesn't work, so it isnt' 'a serious bug', it's just that if you request N cores, the vscheduler has to get N idle cores before you can get any timeslices.  From what I've seen and been told, any more than 2 is asking for trouble.
  • Ok, I have done some more research on this.

    VMware have created CPU and core settings primarily so various operating systems and software complies with Licencing.  Ie 1 CPU licence SQL Server.
    It makes no difference performance wise between 1 vCPU with 4 cores vs 4 vCPU.

    It is a bad idea as already posted to over allocate vCPUs or the scheduler will struggle to allocate slots to VMs.

    So, the end result is 1 or 2 vCPU, then monitor performance stats before adding more only if you need to.

    (For instance, Microsoft recommend 2 vCPU for medium Exchange servers).
  • Thanks, Simon.  I should correct my sloppy use of 'core', when I in fact meant 'vcpus'.  They are not the same, and the concern raised in a vmware forum I hang out on referred to vcpus.
Share Feedback
×

Submitted a Tech Support Case lately from the Support Portal?