This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

HA Cluster Zeigt Active / Active

Hallo zusammen,

ich habe ein kleines Phänomen, unser SG430 HA Cluster zeigt auf dem Status im Display an das beide Nodes Active wären.

Im Webinterface sieht alles OK aus das irritiert mich ein bisschen

Das Live Log sagt mir auch das Master und Slave Active wären.

Hat jemand von Euch eine Idee dazu?

Danke im Voraus
Marco

2017:02:07-14:32:06 sg430-proxy-105-2 repctl[8734]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:32:27 sg430-proxy-105-1 repctl[4264]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:34:37 sg430-proxy-105-1 ha_daemon[4216]: id="38A0" severity="info" sys="System" sub="ha" seq="M: 70 37.556" name="Executing (wait) /usr/local/bin/confd-setha mode master master_ip 198.19.250.1 slave_ip 198.19.250.2"
2017:02:07-14:34:37 sg430-proxy-105-1 ha_daemon[4216]: id="38A0" severity="info" sys="System" sub="ha" seq="M: 71 37.621" name="Executing (nowait) /etc/init.d/ha_mode check"
2017:02:07-14:34:37 sg430-proxy-105-1 ha_mode[27838]: calling check
2017:02:07-14:34:37 sg430-proxy-105-1 ha_mode[27838]: check: waiting for last ha_mode done
2017:02:07-14:34:37 sg430-proxy-105-1 ha_mode[27838]: check_ha() role=MASTER, status=ACTIVE
2017:02:07-14:34:37 sg430-proxy-105-1 ha_mode[27838]: check done (started at 14:34:37)
2017:02:07-14:37:06 sg430-proxy-105-2 repctl[8734]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:37:27 sg430-proxy-105-1 repctl[4264]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:42:06 sg430-proxy-105-2 repctl[8734]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:42:27 sg430-proxy-105-1 repctl[4264]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:44:38 sg430-proxy-105-2 ha_daemon[4216]: id="38A0" severity="info" sys="System" sub="ha" seq="S: 248 38.359" name="Executing (wait) /usr/local/bin/confd-setha mode slave"
2017:02:07-14:44:38 sg430-proxy-105-2 ha_daemon[4216]: id="38A0" severity="info" sys="System" sub="ha" seq="S: 249 38.422" name="Executing (nowait) /etc/init.d/ha_mode check"
2017:02:07-14:44:38 sg430-proxy-105-2 ha_mode[20679]: calling check
2017:02:07-14:44:38 sg430-proxy-105-2 ha_mode[20679]: check: waiting for last ha_mode done
2017:02:07-14:44:38 sg430-proxy-105-2 ha_mode[20679]: check_ha() role=SLAVE, status=ACTIVE
2017:02:07-14:44:38 sg430-proxy-105-2 ha_mode[20679]: check done (started at 14:44:38)
2017:02:07-14:47:06 sg430-proxy-105-2 repctl[8734]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1
2017:02:07-14:47:27 sg430-proxy-105-1 repctl[4264]: [i] recheck(1022): got ALRM: replication recheck triggered Setup_replication_done = 1


This thread was automatically locked due to age.
Parents
  • Hallo Marco,

     

    hier ein Auszug aus dem Handbuch, der denke ich die Frage klären sollte.

     

    Cluster (aktiv-aktiv): (nicht verfügbar mit BasicGuard-Abonnement) Um der steigenden

    Nachfrage nach der Verarbeitung von großen Mengen an Internetverkehr in Echtzeit gerecht

    zu werden, kann Sophos UTM als Cluster konfiguriert werden. Ein Cluster besteht aus mehreren

    Knoten, auf die rechenintensive Aufgaben wie z. B. Inhaltsfilterung, Virenscans, Angriffsschutz

    und Entschlüsselung gleichmäßig verteilt werden können. So kann ohne ein spezielles

    Loadbalancer-Gerät die Gesamtleistung des Gateways deutlich erhöht werden.

  • Hi Phil,

    danke für die Antwort. HA ist allerdings explizit als Aktiv / Passiv Cluster bei uns konfiguriert.

     

    Grüße Marco

Reply Children
  • Hallo Marco,

    exakt die gleiche Frage hatte ich auch vor kurzem, hier dazu die Antwort vom Support:


     

    Sehr geehrter Herr Busch,

    dies ist soweit normal und der Status Ready ist lediglich im Webadmin genutzt für den Slave. Das Display zeigt hier die Ausgabe, wie diese auch über die Shell per "hs" Command ersichtlich ist.

    <M> sophos:/home/login # hs
    Current mode: HA MASTER with id 1 in state ACTIVE
    -- Nodes -----------------------------------------------------------------------
    MASTER: 1 Node1 192.168.0.1 9.409009 ACTIVE since Tue Jan 10 12:52:08 2017
    SLAVE: 2 Node2 192.168.0.2 9.409009 ACTIVE since Tue Jan 10 13:01:58 2017
    -- Load ------------------------------------------------------------------------
    Node  1: [1m] 1.26  [5m] 1.14  [15m] 1.07
    Node  2: [1m] 0.57  [5m] 0.30  [15m] 0.26

    --> hier ebenfalls ein Active/Passive System mit dem Status Ready des Slaves im Webadmin. In der Shell wird dieser jedoch als Active geführt, da der Slave im eigentlichen Sinne auch Active ist, um seinen Dienst im Falle eines Ausfalls auszuführen. Haben Sie diesbezüglich noch weitere Fragen oder kann der Case damit abgeschlossen werden?


    Beste Grüße

     

    Alex

  • Beste Dank, das hilft mir weiter :)

    Grüße Marco