This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Using 2 interfaces to double bandwidth to internal subnet?

I have an ASG 220 running UTM 9.103-5. I have uplink balancing configured with our External T1's and an Airband service. On the Internal eth0 subnet I have a database server that gets a lot of traffic from the External RDP users and also from a subnet on eth3. The DMZ interface on eth2 is unused.

What is the best way to provide more bandwidth to the Internal subnet? Do I use LAG to combine etho and eth2? Do I then need to have 2 switches linked together or can I plug both interfaces into the same switch? Do the switches have to be multipath aware?


This thread was automatically locked due to age.
  • Hi, use LAG with a compatible switch.

    Note that the IPS may be limiting the bandwidth.

    Barry
  • One caveat about Link Aggregation (LAG, LACP, 802.3ad, EtherChannel, NIC Teaming, etc) is that while it increases the aggregate bandwidth of the link, it will not speed up individual transfers across the link.

    For example, if you have a cluster of servers on one switch and a cluster of clients on the other, with a two port gigabit LAG between them, you will see up to 2Gbps between switches, however Server A and Client B will never see more then 1Gbps as they can only use one of the two links in the LAG.
  • When using a LAG also the switchports must be setup as a LAG. Usually this means (and must be) on the same switch, but if you have a Stacked setup it may be possible to create a LAG over 2 different switches.
  • Thanks for all of the clarification. I am off to our AZ office to set up a new server next week, but when I return I am going to try to set this up with the new Dell 6224 switch that's on order.
  • Setting up a LAG is unlikely to bring you a benefit in this scenario.

    The LAG usually uses some combination of L2 or L3 hashing to balance the links.  If you are dealing with routed traffic, all the traffic to the server in the DMZ is going to be between a single L2 or L3 pair (server and router).  Since that hash will always be the same, that load won't spread across multiple active links.

    If the switch supports a L4 hashing algorithm it might provide some benefit, but that isn't too likely.  You will still need the UTM to do something other than L2/L3 hashing (not sure what it does), and the server to do the same.

    Your throughput problem is more likely to be the UTM 220 than a gigabit link, unless you are currently hitting more than 70% link utilization on that interface (assuming gigabit of course).  If you really are maxing out a gigabit link, there are always shiny new SG units with 10GB interface options.