This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

HTTP proxy not block blkted URLs in Surf Protectio

Hi, just upgraded from v4 to v5.001, and have the following problem:

I have the Surf Protection license, and I have a profile which I have some URLs as Blacklisted. In version 4, each time any user tried to access the blacklisted sites, or when accessing a site with a hyperlink to the blacklisted sites,he/she was presented to a image sent by the HTTP proxy, telling something like "Access blocked by Blacklist".

I have installed v5 today from scratch (no upgrade, isn't it?), and I have restored the last configuration backup I had (yesterday's), so my setup is as it was supposed to be.

Bu now, the URLs aren't blocked at all, and the site content is shown without control!

For examples, I have "doubleclick.net" and "doubleclick.com" as blaclisted URLs (the entries are written as you can read here, without the quotes).

If you visit www.eBay.com, in the main page there are some doubleclick.net images, that were blocked in v4, but now, the are shown....

Any advices...?


This thread was automatically locked due to age.
  • Over here surf protecttion works fine
  • Well, I am not sure what you are asking me for, but:
    -I have a license for the Content Filter.
    -I have a profile, called "Spammers", with 0 entries in White, 5 in Black (doubleclick.net and doubleclick.com, and some others), no surf protection category, and not content removal entries.
    -In Profile Assignment, the profile isn't assigned to any user, and has "Any" as "Assigned Network Blocks".

    This is how the restoring of the v4 backup let things when restored over v5.001.

    I am not sure about the domain grammar (I have "doubleclic.net", without quotes), or if something else is needed...
  • mode of the HTTP proxy (transparent, standard, user auth)?
  • I have the HTTP proxy in Transparent mode. I am even trying the example told in the v5 manual (adding a rule with Information_and_Communication category *should* block ww.astaro.org)  but, as I am replying this message, looks like isn't working :-)

    In Global settings, I have "Internal_Network__" as the allowed  network... No more clues.

    Ah, the HTTP Log is "empty": just messages about the daemon start, not a single trace of anything being cached..