This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Upgrade to v9 failed during 8.310 update

Hello!

I have an active/passive ha setup with two 220 UTMs that I decided this morning to upgrade to version 9 (was in version 8.309).

The slave node was successfully updated to version 8.310 and became master. The update failed on the new-slave/old-master node that is now in status UP2DATE-FAILED. I was able to reboot it through the web gui but the update fails again at startup (I tried twice).

If I look at the up2date log file on the node, I have the following:

2013:08:07-08:47:46 gw-1 auisys[8532]: Starting Up2Date Package Installer
2013:08:07-08:47:46 gw-1 auisys[8532]: Searching for available up2date packages for type 'sys'
2013:08:07-08:47:46 gw-1 auisys[8532]: id="371C" severity="info" sys="system" sub="up2date" name="up2date package is excluded by command line(version: 9004 min_version: 0.000 max_version: 8.310" status="failed" file="/var/up2date//sys/u2d-sys-8.309-004.tgz.gpg" action="preinst_check" package="sys"
2013:08:07-08:47:46 gw-1 auisys[8532]: id="371D" severity="info" sys="system" sub="up2date" name="No up2date packages available for installation" status="failed" action="preinst_check" package="sys"
2013:08:07-08:47:47 gw-1 auisys[8532]: id="3724" severity="info" sys="system" sub="up2date" name="Successfully called ha up2date_failed" status="success" action="ha-up2date-failed"
2013:08:07-08:47:52 gw-1 auisys[8532]: id="3716" severity="info" sys="system" sub="up2date" name="Up2date Package Installer finished, exiting"


Does anybody have an idea of what is happening and how to recover?

Thank you!


This thread was automatically locked due to age.
  • Somethings seems to have gone wrong on the "old-master" during the upgrade. Now the "old-master" tries to install a v9 Up2Date package while it is still on v8.

    I recommend breaking the cluster and install the "old-master" from scratch with v9 (from ISO).
    Then reconnect it to the "new-master" and it should automatically get its config.

    edit: Wait! The "new-master" is still on v8?
  • Yes, the new master is in version 8.310 [:(]
  • OK, then you might try this:

    1:
    Disconnect the "old-master", reinstall it with v9 and then apply a backup from v8. Then switch the 2 units (do not connect the "new-master") and check if the "old-master" runs smoothly. If yes, reinstall the "new-master" with v9 and reconnect it to the "old-master" so it can sync by HA. If no, you can switch back to the "new-master".

    2:
    Break the cluster and try to upgrade the "new-master" with v9 (you will loose connectivity for up to 1 hour). If ok, reinstall the "old-master" with v9 and then reconnect it to get your ha config.


    I would prefer solution 1 (it's the cleaner one and you don't have that much outage).
  • I applied solution 1 and everything went well this time. My UTMs are now in version 9.104-17.

    Thank you for your help scorpionking !