Guest User!

You are not Sophos Staff.

This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Installing UTM Home on ESXi 5.5

Looking to install UTM Home Edition on ESXi 5.5.  Wondering if there is any documentation on what settings to use when creating the VM as well as during the install process of the software itself.


This thread was automatically locked due to age.
  • Use the VMXNET3 drivers for your virtual interfaces, otherwise everything is pretty straight forward.  I would assign 2 cores to the machine and 4-8gb of memory, maybe more if you have a lot of users (probably not for home).  I use 2 cores/4gb of memory of mine with most features except for email enabled with a 150/20 internet connection.
  • Use the VMXNET3 drivers for your virtual interfaces, otherwise everything is pretty straight forward.  I would assign 2 cores to the machine and 4-8gb of memory, maybe more if you have a lot of users (probably not for home).  I use 2 cores/4gb of memory of mine with most features except for email enabled with a 150/20 internet connection.


    Thanks for the reply.  Do you use VPN at all?  I need 75Mbps site-to-site VPN.
  • Hi Jim,

    There aren't any specific guides to how to setup a UTM on ESXi but I can give you a few pointers. What hardware do you have for the host machine by chance?

    Firstly, don't use the prebuilt vmware vm's. They are built to be as compatible with ESX as possible so use extremely conservative defaults. Best is to create your own VM and install from the software ISO (not the appliance/SSI one).

    Guest wise, use either the Generic Linux 64 bit guest or the SUSE Enterprise 10 (SLES) profile. Either one works. For hardware I always use the SAS option for the vdisk typically 40 GB thick provisioned, and VMXNET3 hardware for the vNIC's. For home use I normally suggest 2 vCPU w/ 6GB RAM.

    That config on my Intel i7-9x0 host machine handles two people (one heavy, one light user) on a 100Mbps connection no problem. Have IPS, Web Filtering, Single Scan A/V, etc and it runs fine.
  • Hi Jim,

    There aren't any specific guides to how to setup a UTM on ESXi but I can give you a few pointers. What hardware do you have for the host machine by chance?

    Firstly, don't use the prebuilt vmware vm's. They are built to be as compatible with ESX as possible so use extremely conservative defaults. Best is to create your own VM and install from the software ISO (not the appliance/SSI one).

    Guest wise, use either the Generic Linux 64 bit guest or the SUSE Enterprise 10 (SLES) profile. Either one works. For hardware I always use the SAS option for the vdisk typically 40 GB thick provisioned, and VMXNET3 hardware for the vNIC's. For home use I normally suggest 2 vCPU w/ 6GB RAM.

    That config on my Intel i7-9x0 host machine handles two people (one heavy, one light user) on a 100Mbps connection no problem. Have IPS, Web Filtering, Single Scan A/V, etc and it runs fine.


    Thanks for the reply.  My hardware is as follows:

    Intel Xeon E3-1245 3.4Ghz CPU
    SuperMicro X9SCM-F-O
    24GB ECC RAM
    500GB SSD for VMs
    4 Intel NICS

    However this is shared with a Media server that is running 6 vCPU's and 8GB of RAM.
  • That's some serious CPU allocation man. [:)] I'm assuming that guest does transcoding?

    One thing to watch out for when using multi vCPU configs in ESXi, scheduling contention can become a performance issue. Back in the 4.x days VMware did some studies which found on hosts running mixed single vCPU, dual vCPU & quad vCPU guests, the dual vCPU guests often outperformed the quad guests in a lot of benchmarks. Reason was ESXi schedules CPU time slices for all vCPU cores simultaneously which means it has to have four physical cores free to schedule a 4 vCPU guest whereas a 1 or 2 vCPU guest only need 1 or 2 physical cores. Long and short was that single & dual core guests had less contention for CPU time meaning they got a better slice of the pie, resulting in better performance then their quad brethern.

    And given your allocating 6 vCPU into a 4 core Xeon (8 w/ HT but not true cores), you'll want to look at CPU ready values. This site has a good way to analyze the data from the CPU graphs: CPU Ready Revisted - Quick Reference Charts - VMtoday
  • That's some serious CPU allocation man. [:)] I'm assuming that guest does transcoding?

    One thing to watch out for when using multi vCPU configs in ESXi, scheduling contention can become a performance issue. Back in the 4.x days VMware did some studies which found on hosts running mixed single vCPU, dual vCPU & quad vCPU guests, the dual vCPU guests often outperformed the quad guests in a lot of benchmarks. Reason was ESXi schedules CPU time slices for all vCPU cores simultaneously which means it has to have four physical cores free to schedule a 4 vCPU guest whereas a 1 or 2 vCPU guest only need 1 or 2 physical cores. Long and short was that single & dual core guests had less contention for CPU time meaning they got a better slice of the pie, resulting in better performance then their quad brethern.

    And given your allocating 6 vCPU into a 4 core Xeon (8 w/ HT but not true cores), you'll want to look at CPU ready values. This site has a good way to analyze the data from the CPU graphs: CPU Ready Revisted - Quick Reference Charts - VMtoday



    Interesting, that's not something I was aware of.  Yes my server does a lot of transcoding, sometimes 3-4 files simultaneously.  I wonder what would be the best way for me to test the performance of allocating 2 vs 4 vs 6 vCPU.
  • Interesting, that's not something I was aware of.  Yes my server does a lot of transcoding, sometimes 3-4 files simultaneously.  I wonder what would be the best way for me to test the performance of allocating 2 vs 4 vs 6 vCPU.


    If that's the only VM on the machine, there's really no contention. It's when you toss more VMs on the same box that contention arises. Only way to know if contention will be a problem is turn on several big transcoding jobs (get all the cores hopping), then fire up a large download through the UTM with IPS & Dualscan A/V on. If contention is an issue, you'll see it in those ready numbers.
  • You can check out my new HCL Post.

    Here
  • I have UTM running on a ESXi 5.5 with the following configuration.

    1/. e3-1275 v2
    2/. 24gb ecc ram
    3/. 6 Intel NICs
    4/. 5.5tb of disk
    5/. Asus server mb P88-M series

    The UTM is assigned 2vcpu, 8gb ram, 120gb disk and 3 NICs

    The SUM is assigned 1vcpu, 2.5gb ram, 120gb disk and 1 NIC

    The MS small server 2012, 2vcpu, 10gb ram, 1 NIC and lots of disk. It is the photography and video storage. Also has a sql development environment, hence the cpu and memory.
    Then there is one NIC for admin/iscsi to a NAS. Needs another NIC for improved NAS performance.

    In summary all works well, but need to do more work with sql to see what affect that has on the UTM performance.

    Ian
  • It is easy to setup UTM on vmware workstation