This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

up2date failed [8.002]

I tried to update Astaro to the most recent version but an error occurred, now it looks like some updates have been installed but my dashboard still says there is an update available [[:(]]


2010:10:01-06:46:23 firewall-2 auisys[20288]: Failed testing RPM installation (command: 'rpm --test -U /var/up2date//ohelpng-install/u2d-ohelpng-7.24/rpms/u2d-ohelpng-7.23-24.patch.rpm')
2010:10:01-06:46:23 firewall-2 auisys[20288]: 
2010:10:01-06:46:23 firewall-2 auisys[20288]:  1. Internal::Systemstep::real_installation:2398() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  2. main:[:P]erform_work:1030() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  3. main::auisys_prepare_and_work:554() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  4. main::top-level:30() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]: |=========================================================================
2010:10:01-06:46:23 firewall-2 auisys[20288]: Error details:
2010:10:01-06:46:23 firewall-2 auisys[20288]:  (stdout):$VAR1 = [];
2010:10:01-06:46:23 firewall-2 auisys[20288]:  (stderr):$VAR1 = [
2010:10:01-06:46:23 firewall-2 auisys[20288]:           'error: Failed dependencies:
2010:10:01-06:46:23 firewall-2 auisys[20288]: ',
2010:10:01-06:46:23 firewall-2 auisys[20288]:           ' u2d-ohelpng = 7-23 is needed by u2d-ohelpng-7-24
2010:10:01-06:46:23 firewall-2 auisys[20288]: '
2010:10:01-06:46:23 firewall-2 auisys[20288]:         ];
2010:10:01-06:46:23 firewall-2 auisys[20288]: 
2010:10:01-06:46:23 firewall-2 auisys[20288]:  1. Internal::Systemstep::real_installation:2399() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  2. main:[:P]erform_work:1030() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  3. main::auisys_prepare_and_work:554() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  4. main::top-level:30() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]: |=========================================================================
2010:10:01-06:46:23 firewall-2 auisys[20288]: id="371O" severity="error" sys="system" sub="up2date" name="Fatal: Up2Date package installation failed: An error occured during the RPM pre-installation test (1)" status="failed" action="install" code="1" package="ohelpng"
2010:10:01-06:46:23 firewall-2 auisys[20288]: 
2010:10:01-06:46:23 firewall-2 auisys[20288]:  1. main::alf:68() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  2. main:[:P]erform_work:1076() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  3. main::auisys_prepare_and_work:554() auisys.pl
2010:10:01-06:46:23 firewall-2 auisys[20288]:  4. main::top-level:30() auisys.pl
2010:10:01-06:57:02 firewall-1 audld[3534]: Starting Up2Date Package Downloader
2010:10:01-06:57:02 firewall-1 audld[3534]: disabling patch up2dates (confd hint)
2010:10:01-06:57:13 firewall-1 audld[3534]: id="3701" severity="info" sys="system" sub="up2date" name="Authentication successful"
2010:10:01-06:57:18 firewall-1 audld[3534]: id="3707" severity="info" sys="system" sub="up2date" name="Successfully synchronized fileset" status="success" action="download" package="sys"


I tried manually uploading the up2date file:

2010:10:01-11:44:34 firewall-1 auisys[10504]: Starting Up2Date Package Installer
2010:10:01-11:44:35 firewall-1 auisys[10504]: Searching for available up2date packages for type 'sys'
2010:10:01-11:44:35 firewall-1 auisys[10504]: Installing up2date package file '/var/up2date//sys/u2d-sys-8.002.tgz.gpg'
2010:10:01-11:44:35 firewall-1 auisys[10504]: Verifying up2date package signature
2010:10:01-11:44:38 firewall-1 auisys[10504]: Unpacking installation instructions
2010:10:01-11:44:40 firewall-1 auisys[10504]: New Firmware Up2Date is ready for installation
2010:10:01-11:44:40 firewall-1 auisys[10504]: Stopping package processing, unpack only selected
2010:10:01-11:44:43 firewall-1 auisys[10504]: id="3720" severity="info" sys="system" sub="up2date" name="Successfully triggered up2date sync" status="success" action="sync"
2010:10:01-11:44:48 firewall-1 auisys[10504]: id="3716" severity="info" sys="system" sub="up2date" name="Up2date Package Installer finished, exiting"


When I click on install from the webinterface I get a message "Firmware installation has been started. This may take a while. The system will reboot if an installed update requires it." but when Iclick the "Watch Up2Date Progress in new window" I just see a blank window.

I suspect this has something to do with the High availability configuration, when I look at the HA config I see:

1  MASTER  main   ACTIVE      8.001  Fri Oct 1 11:14:58 2010 
2  WORKER   spare   UP2DATE 8.001  Fri Oct 1 11:14:56 2010

How can I get things back in sync again? I am thinking of making a backup of the configuration and completely wiping these firewall... start from scratch again [[:(]]


This thread was automatically locked due to age.
  • I tried rebooting the slave but this resulted in the following error showing up again:


    2010:10:01-13:07:36 firewall-1 slon[19440]: [60-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:07:47 firewall-1 slon[19440]: [61-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:07:47 firewall-1 slon[19440]: [62-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:07:57 firewall-1 slon[19440]: [63-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:07:57 firewall-1 slon[19440]: [64-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:07:59 firewall-2 ha_daemon[4419]: id="38A0" severity="info" sys="System" sub="ha" name="Deactivating sync process for config on node 1"
    2010:10:01-13:08:00 firewall-1 ha_daemon[4384]: id="38A0" severity="info" sys="System" sub="ha" name="Deactivating sync process for config on node 2"
    2010:10:01-13:08:07 firewall-1 slon[19440]: [65-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:08:07 firewall-1 slon[19440]: [66-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:08:17 firewall-1 slon[19440]: [67-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:08:17 firewall-1 slon[19440]: [68-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:08:27 firewall-1 slon[19440]: [69-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:08:27 firewall-1 slon[19440]: [70-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist 


    I think reinstalling the cluster might be the best option... [:(]
  • Hmm.... it looks like the whole cluster just went down.... not quite what I had in mind when I installed a "High Availability" solution [:(]
  • Hmm... it looks like one update just succeeded, the backup node became the master and says it's version 8.002 now!

    The master has become unavailable...
  • After the master rebooted it looks like the up2date worked, but when I look at the High Availability log I see the following repeating over and over again:


    2010:10:01-13:24:10 firewall-1 slon[6347]: [61-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:24:10 firewall-1 slon[6347]: [62-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:24:19 firewall-2 slon[8538]: [4-1] CONFIG slon: child terminated status: 0; pid: 9293, current worker pid: 9293
    2010:10:01-13:24:19 firewall-2 slon[8538]: [5-1] CONFIG slon: restart of worker
    2010:10:01-13:24:19 firewall-2 slon[8538]: [1-1] CONFIG main: slon version 2.0.3 starting up
    2010:10:01-13:24:19 firewall-2 slon[8538]: [2-1] CONFIG slon: watchdog ready - pid = 8538
    2010:10:01-13:24:19 firewall-2 slon[8538]: [3-1] CONFIG slon: worker process created - pid = 9297
    2010:10:01-13:24:19 firewall-2 slon[9297]: [3-1] CONFIG main: Integer option vac_frequency = 3
    2010:10:01-13:24:19 firewall-2 slon[9297]: [4-1] CONFIG main: Integer option log_level = -1
    2010:10:01-13:24:19 firewall-2 slon[9297]: [5-1] CONFIG main: Integer option sync_interval = 2000
    2010:10:01-13:24:19 firewall-2 slon[9297]: [6-1] CONFIG main: Integer option sync_interval_timeout = 10000
    2010:10:01-13:24:19 firewall-2 slon[9297]: [7-1] CONFIG main: Integer option sync_group_maxsize = 20
    2010:10:01-13:24:19 firewall-2 slon[9297]: [8-1] CONFIG main: Integer option desired_sync_time = 60000
    2010:10:01-13:24:19 firewall-2 slon[9297]: [9-1] CONFIG main: Integer option syslog = 2
    2010:10:01-13:24:19 firewall-2 slon[9297]: [10-1] CONFIG main: Integer option quit_sync_provider = 0
    2010:10:01-13:24:19 firewall-2 slon[9297]: [11-1] CONFIG main: Integer option quit_sync_finalsync = 0
    2010:10:01-13:24:19 firewall-2 slon[9297]: [12-1] CONFIG main: Integer option sync_max_rowsize = 8192
    2010:10:01-13:24:19 firewall-2 slon[9297]: [13-1] CONFIG main: Integer option sync_max_largemem = 5242880
    2010:10:01-13:24:19 firewall-2 slon[9297]: [14-1] CONFIG main: Integer option remote_listen_timeout = 300
    2010:10:01-13:24:19 firewall-2 slon[9297]: [15-1] CONFIG main: Boolean option log_pid = 0
    2010:10:01-13:24:19 firewall-2 slon[9297]: [16-1] CONFIG main: Boolean option log_timestamp = 0
    2010:10:01-13:24:19 firewall-2 slon[9297]: [17-1] CONFIG main: Boolean option cleanup_deletelogs = 0
    2010:10:01-13:24:19 firewall-2 slon[9297]: [18-1] CONFIG main: Real option real_placeholder = 0.000000
    2010:10:01-13:24:19 firewall-2 slon[9297]: [19-1] CONFIG main: String option cluster_name = asg_cluster
    2010:10:01-13:24:19 firewall-2 slon[9297]: [20-1] CONFIG main: String option conn_info = dbname=pop3 user=ha_sync
    2010:10:01-13:24:19 firewall-2 slon[9297]: [21-1] CONFIG main: String option pid_file = [NULL]
    2010:10:01-13:24:19 firewall-2 slon[9297]: [22-1] CONFIG main: String option log_timestamp_format = %Y-%m-%d %H:%M:%S %Z
    2010:10:01-13:24:19 firewall-2 slon[9297]: [23-1] CONFIG main: String option archive_dir = [NULL]
    2010:10:01-13:24:19 firewall-2 slon[9297]: [24-1] CONFIG main: String option sql_on_connection = [NULL]
    2010:10:01-13:24:19 firewall-2 slon[9297]: [25-1] CONFIG main: String option lag_interval = [NULL]
    2010:10:01-13:24:19 firewall-2 slon[9297]: [26-1] CONFIG main: String option command_on_logarchive = [NULL]
    2010:10:01-13:24:19 firewall-2 slon[9297]: [27-1] CONFIG main: String option syslog_facility = LOG_DAEMON
    2010:10:01-13:24:19 firewall-2 slon[9297]: [28-1] CONFIG main: String option syslog_ident = slon
    2010:10:01-13:24:19 firewall-2 slon[9297]: [29-1] CONFIG main: String option cleanup_interval = 10 minutes
    2010:10:01-13:24:19 firewall-2 slon[9297]: [30-1] ERROR cannot get sl_local_node_id - ERROR: schema "_asg_cluster" does not exist
    2010:10:01-13:24:19 firewall-2 slon[9297]: [30-2] LINE 1: select last_value::int4 from "_asg_cluster".sl_local_node_id
    2010:10:01-13:24:19 firewall-2 slon[9297]: [30-3] ^
    2010:10:01-13:24:19 firewall-2 slon[9297]: [31-1] FATAL main: Node is not initialized properly - sleep 10s
    2010:10:01-13:24:20 firewall-1 slon[6347]: [63-1] CONFIG version for "dbname=pop3 host=198.19.250.2 user=ha_sync password=slony" is 80404
    2010:10:01-13:24:20 firewall-1 slon[6347]: [64-1] ERROR remoteListenThread_2: "select "_asg_cluster".registerNodeConnection(1); " - ERROR: schema "_asg_cluster" does not exist
  • I tried rebooting the slave, but this has no effect... the message above just keeps on repeating [:(]