This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Upgrade to v9 failed during 8.310 update

Hello!

I have an active/passive ha setup with two 220 UTMs that I decided this morning to upgrade to version 9 (was in version 8.309).

The slave node was successfully updated to version 8.310 and became master. The update failed on the new-slave/old-master node that is now in status UP2DATE-FAILED. I was able to reboot it through the web gui but the update fails again at startup (I tried twice).

If I look at the up2date log file on the node, I have the following:

2013:08:07-08:47:46 gw-1 auisys[8532]: Starting Up2Date Package Installer
2013:08:07-08:47:46 gw-1 auisys[8532]: Searching for available up2date packages for type 'sys'
2013:08:07-08:47:46 gw-1 auisys[8532]: id="371C" severity="info" sys="system" sub="up2date" name="up2date package is excluded by command line(version: 9004 min_version: 0.000 max_version: 8.310" status="failed" file="/var/up2date//sys/u2d-sys-8.309-004.tgz.gpg" action="preinst_check" package="sys"
2013:08:07-08:47:46 gw-1 auisys[8532]: id="371D" severity="info" sys="system" sub="up2date" name="No up2date packages available for installation" status="failed" action="preinst_check" package="sys"
2013:08:07-08:47:47 gw-1 auisys[8532]: id="3724" severity="info" sys="system" sub="up2date" name="Successfully called ha up2date_failed" status="success" action="ha-up2date-failed"
2013:08:07-08:47:52 gw-1 auisys[8532]: id="3716" severity="info" sys="system" sub="up2date" name="Up2date Package Installer finished, exiting"


Does anybody have an idea of what is happening and how to recover?

Thank you!


This thread was automatically locked due to age.
Parents Reply Children
  • OK, then you might try this:

    1:
    Disconnect the "old-master", reinstall it with v9 and then apply a backup from v8. Then switch the 2 units (do not connect the "new-master") and check if the "old-master" runs smoothly. If yes, reinstall the "new-master" with v9 and reconnect it to the "old-master" so it can sync by HA. If no, you can switch back to the "new-master".

    2:
    Break the cluster and try to upgrade the "new-master" with v9 (you will loose connectivity for up to 1 hour). If ok, reinstall the "old-master" with v9 and then reconnect it to get your ha config.


    I would prefer solution 1 (it's the cleaner one and you don't have that much outage).