This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

How to handle sites that won't tolerate any filtering?

FormerMember
FormerMember
Since we've had the Astaro (now Sophos) solution for about 3 years, we've unfortunately built up a pretty big list of websites that simply *would not tolerate* working through the proxy. Some of these sites would not respond quickly, would fail to load pages or just throw random errors, even when we created an exception group and removed ALL filtering. We simply had to create an exception in the PAC file and a rule in our ASA and send the traffic out directly. It's now infuriating my network admin that he has to keep this laundry list of about 200 firewall rules for which to bypass the proxy, and he considers the whole effort a waste of his time. He can't believe the product has to have so many sites become an *exception* and have to create yet another firewall rule; mucking up his pristine configuration.
I can't believe others haven't had this same issue, or is everyone just living with the fact that some sites need to have a workaround? Thanks.


This thread was automatically locked due to age.
  • Dont worry its not just you but we have to do the same. We are running the latest version 9 with the certificate installed and everything as it should be and we add sites to the bypass proxy area because of the exact same issue.

    Some sites we just get timeout and will not load (even if we but it as a website exclusion that dosent have sacnning or authentication,etc) - it will only work if we have added it to the bypass proxy area.

    We find alot are https sites that have trouble. Our financial controller had so many issues with sites that we just excluded her whole pc ip from any filtering which sort of defeats the purpose to protect against malware or security threats.

    I thought this issues was just us. Also the problem is time as well - because alot of these sites we use are crtical to the business (ie banking websites) so I dont have time to go through 1000 lines of logs which I don't understand to sort of see what is the cause. And I cant wait a few days for sophos to check it out as we need the site working now.
  • Yea, I just don't get it. I have seen a  lot of posts about this, and I am having an issue too. My daughters Tumblr sites just won't work and a couple of sites wouldn't load and got the time out server warning. The last thing I want to do is PASS all the Tumblr traffic because Astaro's filter system is sub-par. I think Sophos needs to do a complete re-write of their web filter/AV. 


    My Untangle just works flawlessly, but lacks a good AV and  IDS.

    I have no idea how enterprise or a small to mid business could stand for this flaky filter issue. I wanted to switch from Untangle to Astaro and get the place where I work to switch over to  Astaro too. But it is WAY too flaky in the Webfilter/AV area. What a shame.
    .
  • FWIW, I've found 2 sites recently which won't work with a generic SQUID proxy:
    NetworkSolutions.com - click on Manage and try to login
    CoyotePoint.com - support login gets password and/or CAPTCHA errors

    Both of these sites worked fine with Squid until recently; istm that the sites are doing something which rejects proxies, but that is just a guess so far.
    I do have a support ticket open with CoyotePoint about it.

    Barry
  • It is not just Sophos UTM that has this issue, we get it with 2 major banks on an open network (behind a managed firewall), they write very poor code and use free software. Then expect the local IT Team to figure out how to make it work.

    Ian
  • FormerMember
    0 FormerMember
    Well, thanks for all your input! It's good to know it's not just our configuration that's experiencing this issue. Probably an inevitable thing with some sites. I found the same as stealthmatt, our purchasing manager was a PIA and would complain so much about speed and performance that we eventually gave her her own subnet for her group and sent them directly out the network.