Guest User!

You are not Sophos Staff.

[7.350] Link Aggregation broken ?

Hi

just did a new install for astaro 7.350 onto vmware with 4 bridged interface to the same vmnet0 interface (which is bridged with eth0 on my linux server)...

I then choosed eth2 for the admin iface with ip 192.168.99.100/24

I set 192.168.99.2/24 for eth0:0 onto my linux vmware server

so initialy I can access https://192.168.99.100:4444/ and add eth1 into astaro to be my external network with ip 192.168.1.100/24 with default gateway 192.168.1.1

all is working fine...

then I go to Link Aggregation page to make aggregation between eth2 and eth3 which results into lag0... but I've no more access to the astaro ui even ping does not work... even after reboot...

and when connecting onto the console everything seems to be fine.. lag0 with the right ip and eth2/eth3 up and in /proc/net/bonding/lag0 everything seems to be fine except that MII Status for lag0 itself is down... other statuses for eth2/eth3 are up
Parents
  • Hi

    just did a new install for astaro 7.350 onto vmware with 4 bridged interface to the same vmnet0 interface (which is bridged with eth0 on my linux server)...

    I then choosed eth2 for the admin iface with ip 192.168.99.100/24

    I set 192.168.99.2/24 for eth0:0 onto my linux vmware server

    so initialy I can access https://192.168.99.100:4444/ and add eth1 into astaro to be my external network with ip 192.168.1.100/24 with default gateway 192.168.1.1

    all is working fine...

    then I go to Link Aggregation page to make aggregation between eth2 and eth3 which results into lag0... but I've no more access to the astaro ui even ping does not work... even after reboot...

    and when connecting onto the console everything seems to be fine.. lag0 with the right ip and eth2/eth3 up and in /proc/net/bonding/lag0 everything seems to be fine except that MII Status for lag0 itself is down... other statuses for eth2/eth3 are up



    I have the same issue  when I tired to use link aggregation in a similar manner... has anyone responded to you? I would be interested to know what the issue is.
  • AFAIK, Link Aggregation is the same thing as Port Trunking. It is to use two ports on each side to double available bandwidth of one physical link. You need a Switch on the other side that supports Port Trunking / Link Aggregation to use that function.
  • AFAIK, Link Aggregation is the same thing as Port Trunking. It is to use two ports on each side to double available bandwidth of one physical link. You need a Switch on the other side that supports Port Trunking / Link Aggregation to use that function.


    yes I understood that some times ago... I did confusion because was used to use bonding as active-backup mode ! [:(] sorry about that one..

    so is there any plan for bonding active-backup... this is not that far than lag u integrated... so pleeeassssee can u had that as FEATURE REQUEST ? [:)]
  • I don't get what you mean exactly. Isn't that what the new feature of 7.400 "WAN Link Balancing" is all about? If one link goes down, the other takes over the full load.

    For realizing redundant "normal" links, you may bridge two ports on ASG and activate STP (Spanning Tree Protocol). Then connect the two ports on ASG, each with its own cable to the switch. One port will go in designated mode to prevent broadcast storms. If there is a cable fail, the designated port should come up and take over.
  • I don't get what you mean exactly. Isn't that what the new feature of 7.400 "WAN Link Balancing" is all about? If one link goes down, the other takes over the full load.

    For realizing redundant "normal" links, you may bridge two ports on ASG and activate STP (Spanning Tree Protocol). Then connect the two ports on ASG, each with its own cable to the switch. One port will go in designated mode to prevent broadcast storms. If there is a cable fail, the designated port should come up and take over.


    this is not really WAN Link Balancing... the ip on the bond interface is uniq and 2 (or N) cables are connected on different switches... (also a simple Layer-II switch is enough)...

    this is a different mode for the bonding kernel module you also are using for LAG..
    Actually, I'm using on all of my servers the active-backup mode for the bonding device like is described there:

    IpFailoverChannelBonding: Linux HA

    and I've bond0 iface like you have lag0 but this is link failover...

    hope I'm enough clear [:)] else let me know..
Reply
  • I don't get what you mean exactly. Isn't that what the new feature of 7.400 "WAN Link Balancing" is all about? If one link goes down, the other takes over the full load.

    For realizing redundant "normal" links, you may bridge two ports on ASG and activate STP (Spanning Tree Protocol). Then connect the two ports on ASG, each with its own cable to the switch. One port will go in designated mode to prevent broadcast storms. If there is a cable fail, the designated port should come up and take over.


    this is not really WAN Link Balancing... the ip on the bond interface is uniq and 2 (or N) cables are connected on different switches... (also a simple Layer-II switch is enough)...

    this is a different mode for the bonding kernel module you also are using for LAG..
    Actually, I'm using on all of my servers the active-backup mode for the bonding device like is described there:

    IpFailoverChannelBonding: Linux HA

    and I've bond0 iface like you have lag0 but this is link failover...

    hope I'm enough clear [:)] else let me know..
Children
No Data