Guest User!

You are not Sophos Staff.

This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Data Disk is filling up - please check. Current usage: 83%

A client of ours have two ASG220s in a HA cluster active active. Just recently they have been getting email notifications saying the following ...

-- 
HA Status          : CLUSTER SLAVE (node id: 2)
System Uptime      : 10 days 20 hours 57 minutes
System Load        : 0.11
System Version     : Astaro Security Gateway 7.202

Please refer to the manual for detailed instructions.

Logged onto the ASG and the dashboard shows
CPU 13%
RAM 84%
SWAP 15%
Log disk 1%
Data Disk 3%

Logged onto the ASG at the command line via ssh
Master Node1 /var/storage 3% used
Slave Node2 /var/storage 86% used

There is 22GB in /var/storage/chroot-http/tmp.

In the short term can I delete these files?

The official reply from ASG support is to perform a "Factory Reset" on the slave. This is the second time this happened now.

We have other clients that also have HA cluster active active - ASG220 / ASG320s etc with no such issues.

Anyone else out there had any similar problems?


This thread was automatically locked due to age.
  • I'm getting these messages today for the first time myself.  Not sure what to do...
  • you will need to identify what node the message relates to. Then logon at the command promt using ssh to loginuser and su to root.

    To find what is taking the space type

    df -h

    Now compare this on the other node.

    I deleted the files that were taking up the space - log files mainly. Not too important. then carried out a factory reset at the ASG front panel. this did resolve the issue.

    But I have a feeling it will happen again! I am will monitor theis ASG cluster close indeed.
  • df will only tell you how full the disk is.

    du will tell you what files/folders are using the most space.

    I'd recommend:
    cd /var/storage
    du -sh *

    find the offending directories, repeat...

    Barry

  • I deleted the files that were taking up the space - log files mainly.

    What are your setting for log rotation at Logging >> Settings >> Local logging? Here you can say how long to keep log files, or what to do if disk space is getting low.
  • Hi,
    Just checked these and it was set to delete logs after a year. I have now changed this down to 20 days. But this issue with the data disk filling up only started after the upgrade to v.7.300. Prior to that the ASG had been running for about 18months, then we added another ASG as a HA cluster Active active, a few months after that the v7.300 it all went to hell in a nad cart!!!
  • Hi there all, 

    the data-disk filling up problem is know and has been fixed with the up2date released today.

    The problem was the database switch.
    In installations where the accounting database has grown very big, the new database used up the space. 

    The new database is located on the data-partition and the old database was located in the logging/reporting-partition.

    With the up2date 7.301 we move the reporting database part back to the storage partition. After that, everything should be as before.

    regards
    Gert
  • Aha!

    Thank you for your reply. I will be applying this update later today / this evening and then will monitor the ASG over the weekend. If it does indeed resolve this issue and the other problems, I will roll it out to my other clients.

  • With the up2date 7.301 we move the reporting database part back to the storage partition. After that, everything should be as before.


    I applied 7.301, but my syslog still shows this:

    2008:09:05-07:40:01 (none) /usr/sbin/cron[5282]: (root) CMD ( /usr/local/bin/reportcontrol.sh)
    2008:09:05-07:40:02 (none) ulogd[2816]: pg1: unable to connect: could not connect to server: No such file or directory Is the server running locally and accepting connections on Unix domain socket "/var/run/postgresql/.s.PGSQL.5432"?

    Already having a 100% full data disk seems to be thwarting all ability to "fix" this through the webadmin.

    Danita
  • I have never been able to use the webadmin to solve this problem, it has always been at the command line. The first time this happened I was advised to do a factory reset on the offending slave node. I really do not want to be doing a factory reset every time this happens.

    I will see if the ne update 7.301 will resolve things and let you all know.
  • I've been getting the 75% data disk warning on my ASG320 for a couple of days now.

    I checked the hardware logs/graphs and noticed that the data partition started filling up constantly since august 2008. before that it kept it's level at about 20%...

    Anything I can do about it?
    Running 7.306