This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Memory Useage increase over a few days time

Hi I am running the latest ASG 7.501 pattern version  11169, and i have noticed that memory usage reported on the dashboard increases drastically over a 3 day time period. I only have 2 packet filter rules specified and the output of top does not indicate anything out of the ordinary.  Is this an issue that i should be worried about. I am running ASG on an Intel socket 775 3.0Ghz 2mb L2 cache with hyper-threading, i have 3 GB of ram installed and currently the dashboard shows i am using 70% of my ram..i am not sure why this is so high but my reporting indicates this increase is constantly going up


This thread was automatically locked due to age.
  • ok folks...try disabling the ips and the im/p2p controls and see if that helps things.

    Owner:  Emmanuel Technology Consulting

    http://etc-md.com

    Former Sophos SG(Astaro) advocate/researcher/Silver Partner

    PfSense w/Suricata, ntopng, 

    Other addons to follow

  • Still not convinced that hyperthreading works well on the atom 330 boxes.

    I will admit I haven't fired mine up for a while seeing it is the backup box if something goes badly wrong with the v8b box.


    Ian M
  • Quick update.  Mine has been up almost 8 days, and with 4GB RAM (I didn't pull a stick yet), hyper-threading enabled, and it seems to have leveled off with about 150 MB of RAM free.. it's swaping VERY little (1172k used).  Performance seems to be fine.  I'm going to let it keep runnning and see what happens.  If it stays like this, it's certainly acceptable.  BTW, I also have P2P/IM, IPS, SNMP, POP, FTP, and HTTP running.
  • Hi,
    It probably has more that 150MB free... try running
    free
    on the console and look at the middle line.

    Barry
  • loginuser@astaro:/home/login > free
                 total       used       free     shared    buffers     cached
    Mem:       3617348    3445372     171976          0     380236     736484
    -/+ buffers/cache:    2328652    1288696
    Swap:      1052248       1184    1051064
  • That didn't work too well did it.  I'll try it once more and see if it will keep the formatting...

    loginuser@astaro:/home/login > free
                    total         used          free     shared      buffers     cached

    Mem:       3617348    3445372     171976          0     380236     736484
    -/+ buffers/cache:    2328652    1288696
    Swap:      1052248       1184    1051064
  • ok... 2.3GB used, 1.3GB free.

    can you run 'top', and hit SHIFT-M, and post the top processes and their VIRT and RES sizes?

    Barry
  • btw, I had asked earlier, but does anyone know what's causing the two zombie processes?  They are always there, even right after a reboot.

    top - 07:40:31 up 8 days, 22:47,  1 user,  load average: 0.00, 0.08, 0.05
    Tasks: 139 total,   1 running, 136 sleeping,   0 stopped,   2 zombie
    Cpu(s):  0.1%us,  0.1%sy,  0.0%ni, 99.8%id,  0.0%wa,  0.0%hi,  0.0%si,  0.0%st
    Mem:   3617348k total,  3425788k used,   191560k free,   388432k buffers
    Swap:  1052248k total,     1192k used,  1051056k free,   732880k cached

      PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND
    15985 root      14  -1  199m 172m 1968 S    0  4.9   1:26.35 snort_inline
    15979 root      14  -1  199m 172m 1960 S    0  4.9   1:23.54 snort_inline
    15972 root      14  -1  199m 172m 1960 S    0  4.9   1:19.04 snort_inline
     4879 chroot    16   0 98.4m  80m 1140 S    0  2.3   2:19.75 clamd
     4562 chroot    16   0  191m  78m 3976 S    0  2.2   0:26.45 httpproxy
     4591 root      16   0  105m  74m 2688 S    0  2.1   0:25.05 cssd
     3308 root      15   0 53680  48m 3580 S    0  1.4   0:19.03 mdw_daemon.plx
    24621 root      16   0 34216  18m 2400 S    0  0.5   0:00.26 confd.plx
     3012 root      15   0 31452  17m 3784 S    0  0.5   0:10.00 confd.plx
     4413 root      15   0 24256  16m 2420 S    0  0.5   7:54.23 smtpd.bin
     4606 root      16   0 23968  16m 1936 S    0  0.5   0:00.50 smtpd.bin
     9288 wwwrun    16   0 22384  15m 3224 S    0  0.5   0:00.92 index.plx
     3078 root      16   0 30664  14m 1428 S    0  0.4   0:08.40 confd.plx
     3255 postgres  15   0 48968  13m  13m S    0  0.4   0:04.40 postgres
     3110 root      15   0 20128  13m 3408 S    0  0.4   0:04.29 notifier.plx
     3992 postgres  17   0 49656  13m  12m S    0  0.4   0:04.77 postgres
     3083 root      15   0 16764  10m 1816 S    0  0.3   0:00.09 aua.bin
     3015 root      16   0 13792  10m 2096 S    0  0.3   2:17.25 dns-resolver.pl
     3632 root      15   0 13292  10m 1708 S    0  0.3   1:02.61 named
     4454 root      19   0 44304  10m 7244 S    0  0.3   1:49.59 ctasd
     3333 root      16   0 14844 9612 2588 S    1  0.3  62:10.41 selfmonng.plx
    25823 root      15   0 11836 9356 2924 S    0  0.3   0:01.82 ips-reporter.pl
    25824 root      16   0 11708 9152 2796 S    0  0.3   0:01.44 pfilter-reporte
    25826 root      15   0 10484 8760 2524 S    0  0.2   0:01.23 admin-reporter.
    25819 root      17   0 11232 8660 2736 S    0  0.2   0:08.91 websec-reporter
     4128 afcd      14  -1 11052 8480 1088 S    0  0.2   7:40.44 afcd
    25821 root      16   0 10576 8024 2736 S    0  0.2   0:00.79 mailsec-reporte
     3369 root      16   0 14588 7312  540 S    0  0.2   0:00.00 selfmonng.plx
     4882 postgres  16   0 50016 5836 4764 S    0  0.2   0:00.87 postgres
     3248 postgres  15   0 48832 5336 5004 S    0  0.1   0:06.06 postgres
     9291 postgres  16   0 50056 5228 3988 S    0  0.1   0:00.53 postgres
     3048 root      16   0  8168 5224 1528 S    0  0.1   0:06.88 sysmond
    25822 root      15   0  7588 5164 2052 S    0  0.1   0:00.38 vpn-reporter.pl
     4756 root      34  19  9420 5144 1716 S    0  0.1   0:00.49 snmpd
     8977 postgres  16   0 50044 4768 3596 S    0  0.1   0:00.25 postgres
    24629 postgres  16   0 50120 4476 3280 S    0  0.1   0:00.38 postgres
     4065 postgres  16   0 50008 3984 2988 S    0  0.1   0:00.44 postgres
     2958 root      16   0  5300 3884 1424 S    0  0.1   0:00.39 hald