This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

7.402 filling up the logs

Yesterday my firewall (7.401) saw the new release (7.402), and I authorized it to take it because it is supposed to fix some e1000 driver issues with my Intel NIC.

Now I notice my ha log is filling up like crazy. Every second, it puts 10 lines like below:

2009:04:24-09:29:17 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE
2009:04:24-09:29:17 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE
2009:04:24-09:29:17 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE

fw-2 is the node 2 (slave). Anybody else seeing that?


This thread was automatically locked due to age.
Parents
  • Liug, what's the status on this problem?  What did Support tell you?
     
    Sophos UTM Community Moderator
    Sophos Certified Architect - UTM
    Sophos Certified Engineer - XG
    Gold Solution Partner since 2005
    MediaSoft, Inc. USA
  • They are not sure and need to ssh to the box to do some more research. We will arrange for that and see.
  • They are not sure and need to ssh to the box to do some more research. We will arrange for that and see.


    We are seeing the same thing plus a few other issues since the upgrade, like:

    FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[3811]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[3810]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5604]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5604]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5605]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5605]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[3811]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[3810]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5611]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5611]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5610]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5610]: [3-1] FATAL main: Node is not initialized properly - sleep 10s 


    let me know if support is able to help you out, we've seen this on every HA pair we upgraded to 7.402 so far.
Reply
  • They are not sure and need to ssh to the box to do some more research. We will arrange for that and see.


    We are seeing the same thing plus a few other issues since the upgrade, like:

    FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[3811]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[3810]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5604]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5604]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5605]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:48 dtg1212dtg1208k12cluster-2 slon[5605]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[3811]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[3810]: [1-1] CONFIG main: slon version 1.2.15 starting up
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5611]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5611]: [3-1] FATAL main: Node is not initialized properly - sleep 10s
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5610]: [2-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2009:04:25-01:35:58 dtg1212dtg1208k12cluster-2 slon[5610]: [3-1] FATAL main: Node is not initialized properly - sleep 10s 


    let me know if support is able to help you out, we've seen this on every HA pair we upgraded to 7.402 so far.
Children
  • [FONT=Verdana]I have 2 x ASG320 v.7.402
    My problem with HA Cluster is the same.

    HA log:
    [/FONT][FONT=monospace][FONT=Arial]2009:04:25-09:35:43 iti-vv-2 ctsyncd: Got SIGUSR1, set status to SLAVE [/FONT][/FONT]
    [FONT=monospace][FONT=Arial]2009:04:25-09:35:44 iti-vv-2 ctsyncd: Got SIGUSR1, set status to SLAVE [/FONT][/FONT]
    [FONT=monospace][FONT=Arial]2009:04:25-09:35:45 iti-vv-2 ctsyncd: Got SIGUSR1, set status to SLAVE [/FONT][/FONT]
    [FONT=monospace][FONT=Verdana][FONT=Arial]2009:04:25-09:35:47 iti-vv-2 ctsyncd: Got SIGUSR1, set status to SLAVE[/FONT]

    Slave unit not updating patterns.
    Up2Date log:
    [/FONT][FONT=Arial]2009:04:25-00:01:01 iti-vv-2 auisys[18503]: Starting Up2Date Package Installer (Version 1.65)
    2009:04:25-00:01:01 iti-vv-2 auisys[18503]: Searching for available up2date packages for type 'ips'
    2009:04:25-00:01:01 iti-vv-2 auisys[18503]: id="371D" severity="info" sys="system" sub="up2date" name="No up2date packages available for installation" status="failed" action="preinst_check" package="ips"
    2009:04:25-00:01:06 iti-vv-2 auisys[18503]: Searching for available up2date packages for type 'avira'
    2009:04:25-00:01:06 iti-vv-2 auisys[18503]: Installing up2date package file '/var/up2date//avira/u2d-avira-7.617-639.patch.tgz.gpg'
    2009:04:25-00:01:06 iti-vv-2 auisys[18503]: Verifying up2date package signature
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Unpacking installation instructions
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Unpacking up2date package container
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Running pre-installation checks
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Starting up2date package installation
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: >=========================================================================
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Failed testing RPM installation (command: 'rpm --test -U /var/up2date//avira-install/u2d-avira-7.639/rpms/u2d-avira-7.617-639.patch.rpm')
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: 
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  1. Internal::Systemstep::real_installation:2292() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  2. main:[:P]erform_work:919() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  3. main::auisys_prepare_and_work:496() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  4. main::top-level:33() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: |=========================================================================
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: Error details:
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  (stdout):$VAR1 = [];
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  (stderr):$VAR1 = [
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:           'error: Failed dependencies:
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: ',
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:           '    u2d-avira = 7-617 | u2d-avira = 7-618 | u2d-avira = 7-619 | u2d-avira = 7-620 | u2d-avira = 7-621 | u2d-avira = 7-622 | u2d-avira = 7-623 | u2d-avira = 7-624 | u2d-avira = 7-625 | u2d-avira = 7-626 | u2d-avira = 7-627 | u2d-avira = 7-628 | u2d-avira = 7-629 | u2d-avira = 7-630 | u2d-avira = 7-631 | u2d-avira = 7-632 | u2d-avira = 7-633 | u2d-avira = 7-634 | u2d-avira = 7-635 | u2d-avira = 7-636 | u2d-avira = 7-637 | u2d-avira = 7-638 is needed by u2d-avira-7-639
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: '
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:         ];
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: 
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  1. Internal::Systemstep::real_installation:2293() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  2. main:[:P]erform_work:919() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  3. main::auisys_prepare_and_work:496() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  4. main::top-level:33() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: |=========================================================================
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: id="371O" severity="error" sys="system" sub="up2date" name="Fatal: Up2Date package installation failed: An error occured during the RPM pre-installation test (1)" status="failed" action="install" code="1" package="avira"
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]: 
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  1. main::alf:71() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  2. main:[:P]erform_work:965() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  3. main::auisys_prepare_and_work:496() auisys.pl
    2009:04:25-00:01:07 iti-vv-2 auisys[18503]:  4. main::top-level:33() auisys.pl
    2009:04:25-00:02:02 iti-vv-2 audld[18536]: >=========================================================================
    2009:04:25-00:02:02 iti-vv-2 audld[18536]: running on HA slave system or cluster node, exiting
    [/FONT][FONT=Arial]
    [/FONT][FONT=Arial]
    [/FONT][/FONT]
  • [FONT=Verdana]I have 2 x ASG320 and yesterday upgrade to v.7.402
    My problem with HA Cluster is the same.[/FONT]
    2009:04:25-00:21:35 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE2009:04:25-00:21:36 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE2009:04:25-00:21:36 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVE2009:04:25-00:21:37 fw-2 ctsyncd: Got SIGUSR1, set status to SLAVERegards,
    WaMaR
  • Please ask support for a fix of ctsyncd (Mantis ID #10323). This will be fixed in v7.403.