This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Slow Throughput with Fast Cable

I was hoping some users who are far more experienced than I, could provide recommendations for improved throughput for a home license with 3concurrent users maximum and a cable modem connection of 180 down/30 up Mb/sec. 

Speed was measured with a computer directly connected to the cable modem for a baseline. A variety of speed test sites were used, as well as uploading and downloading large files to servers with timed comparisons and performance monitoring in Windows.

I tried the current software UTM version 9 on a Core 2 Duo at 1.8 GHz with 2GB RAM and a 7200 rpm HD and found that with everything off (but the firewall/NAT) that throughput was good. However, after activating IPS for Windows system/Office/Malware, download speed dropped to the 50s. Adding Web filtering and single AV, dropped it to the 40s. The latency of speed tests jumped from the 10-20 msec range to 160-170 msec range as well.

I then repeated the test on different hardware with an i7 Ivy Bridge 3770K with 32 GB RAM and a 7200 rpm HD and found a good baseline with everything off, a drop to the 90s with IPS (as above), and further drop to the 80s with Web filtering and single AV. On this system, CPU utilization peaked at 


This thread was automatically locked due to age.
Parents
  • What can be done to significantly improve throughput with full services engaged?

    Two biggest things are CPU & RAM. More RAM means more stuff can be cached off disk which improves performance. Faster CPU's with more MHz are also a big help.

    Why was a greater improvement not observed between the 2 very different hardware systems?

    My read of your D/L speeds showed a pretty significant margin between the two. 50Mbps vs 90Mbps is a pretty substantial difference.

    Why was there not higher CPU utilization present?

    The graph in webadmin shows the aggregate of all cores so if several cores are idling, you'll see lower numbers. The individual processes within the system aren't really multi-threaded so don't take advantage of the extra cores as much as they could (in theory).

    Firewalling also isn't exactly the most CPU intensive task either. Basically the system performs a lookup on a table of rules for every packet that passes by and matches against the list. First hit wins.

    Does this software use multiple physical cores and take advantage of hyper-threading?

    The core OS does take advantage of multiple cores. As each process within the firewall is a separate program, the underlying OS will schedule each one among the available cores as it sees fit. Hyper-threading is essentially  "multi-core light" so doesn't really benefit the system as much as extra real cores would.

    What is a reasonable expectation for this product with minimal users and a single high speed connection?

    There is no one single right answer to that unfortunately.

    Would anything improve the jump in latency?

    The latency is a combination of the IPS & Web Proxy scanning. IPS can be improved somewhat through throwing more MHz at the problem. Multiple cores only really help when you have more users. The Web Proxy is going to keep those higher latencies no matter when you try (excepting below). The proxy goes to the Sophos cloud for classifying it's data which means there will always be some lag.

    Would a local content filter database help, and how exactly would this be accomplished and updated on an ongoing basis?

    The is a unsupported 'easter egg' in the UTM that does this. Search this forums for "Local Content Filter Database"

    Would an SSD have a meaningful impact in this setting?

    I haven't tested it but the gains would be minor as most of the delays in the UTM are primarily CPU, RAM & Network. Even if you swap a lot it still won't give you major gains.

    Is different hardware needed (I was hoping a higher end system would not be needed for so few users)?

    Again, the answer depends on what tradeoffs you're willing to make.

    Is there any way to make more effective use of RAM vs HD or SSD?

    The Local Content Filter Database does have a memory setting which has shown some improvements vs the disk mode. v9, for reference, is very memory hungry so 4 gigs or better will help.
Reply
  • What can be done to significantly improve throughput with full services engaged?

    Two biggest things are CPU & RAM. More RAM means more stuff can be cached off disk which improves performance. Faster CPU's with more MHz are also a big help.

    Why was a greater improvement not observed between the 2 very different hardware systems?

    My read of your D/L speeds showed a pretty significant margin between the two. 50Mbps vs 90Mbps is a pretty substantial difference.

    Why was there not higher CPU utilization present?

    The graph in webadmin shows the aggregate of all cores so if several cores are idling, you'll see lower numbers. The individual processes within the system aren't really multi-threaded so don't take advantage of the extra cores as much as they could (in theory).

    Firewalling also isn't exactly the most CPU intensive task either. Basically the system performs a lookup on a table of rules for every packet that passes by and matches against the list. First hit wins.

    Does this software use multiple physical cores and take advantage of hyper-threading?

    The core OS does take advantage of multiple cores. As each process within the firewall is a separate program, the underlying OS will schedule each one among the available cores as it sees fit. Hyper-threading is essentially  "multi-core light" so doesn't really benefit the system as much as extra real cores would.

    What is a reasonable expectation for this product with minimal users and a single high speed connection?

    There is no one single right answer to that unfortunately.

    Would anything improve the jump in latency?

    The latency is a combination of the IPS & Web Proxy scanning. IPS can be improved somewhat through throwing more MHz at the problem. Multiple cores only really help when you have more users. The Web Proxy is going to keep those higher latencies no matter when you try (excepting below). The proxy goes to the Sophos cloud for classifying it's data which means there will always be some lag.

    Would a local content filter database help, and how exactly would this be accomplished and updated on an ongoing basis?

    The is a unsupported 'easter egg' in the UTM that does this. Search this forums for "Local Content Filter Database"

    Would an SSD have a meaningful impact in this setting?

    I haven't tested it but the gains would be minor as most of the delays in the UTM are primarily CPU, RAM & Network. Even if you swap a lot it still won't give you major gains.

    Is different hardware needed (I was hoping a higher end system would not be needed for so few users)?

    Again, the answer depends on what tradeoffs you're willing to make.

    Is there any way to make more effective use of RAM vs HD or SSD?

    The Local Content Filter Database does have a memory setting which has shown some improvements vs the disk mode. v9, for reference, is very memory hungry so 4 gigs or better will help.
Children
No Data