[5.001] Web still not working

I am running the web proxy in transparent mode, didn't bother to test other modes since the issues in transparent mode have not been resovled.

Basically this doesn't work at all.  I can load web pages for a couple of minutes after truning it on then everything gets can't connect or just hangs.

When running an apt-get update I got the following messages:

Failed to fetch http://security.debian.org/dists/stable/updates/main/binary-i386/Packages  Could not connect to security.debian.org:80 (194.109.137.218). - connect (111 Connection refused)
Failed to fetch http://security.debian.org/dists/stable/updates/main/binary-i386/Release  Could not connect to security.debian.org:80 (194.109.137.218). - connect (111 Connection refused)

I turned off the proxy and apt-get update worked fine.

This issue has been there since i started testing the 4.770 version with no change.  I have also noticed it is not on the known issue list even though it appears to be well documented in this forum.
Parents
  • Hi there, 

    plz let me shade some light into the HTTP-Proxy issue.

    As you might have recognized that astaro has added a content filter framework 
    to handle different Sercure Content Management methods, one of the is Virus Scanning.
    But all those content scanners have one drawback, they can only work on files, not on streams.
    Therefore we need to download the whole file prior beeing able to scan it.

    On the other hand it is not satisfactionary for customers to wait 10 minutes 
    while the browser is doing nothing until the firewall has downloaded and scannned the file, 
    without having any progress bar or feeddback about the status.
    We addressed this by serving an HTML Progress bar.
    This is only done, if the downloaded file exceeds a certain file size.  (appr. 1MB)

    In order to not break any non browser HTTP clients, we also return a certain error code 
    'Content temporarily not available', which should tell them to wait a little bit and try again. 
    But no all clients behave that way. I assume apt-get is one of them.
    If you disable the content filter it will work as before, but without virus scanning.

    We are working on more sophisticated detection mechanism so we know if the client supports an HTML status page or not.

    I hope this helps to understand the problem, 

    Regards
    Gert
  • Hi Gert

    I experiece the same problem with the proxy in transparent mode. If I switch of the HTTP Proxy completly i am able to connect to the Internet. If it is running I get a timeout. With my license I should be able to use the content filter from cobian. But even when switching off content filtering, i am unable to browse the net! I am not doing any sophisticated stuff, just using the browser (Mozilla) to join this forum...;-)
  • Hi thaab,

    seems to be a misunderstanding.
    Gert talked about the new HTTP Virus-Scanning feature and not the well-known HTTP content filter.
    So if enabled you should try to disable the HTTP Virus-Scanning feature.

    Karsten
  • No i did not misunderstand the problem. The transparent proxy is not working correctly. I can try to switch off virus scanning or content filtering but it does not make any difference. Web Access only works if I switch of the proxy completly.
  • He help clarify my post, I have tried the web proxy in transparent mode with no other features and it just doesn't work.

    I have tried it iwth features on as well. I have tried restarting it manually and have tested from Mozilla, IE, Opera and Netscape.  Three of these browsers I have used on Linux as well.

    The basic proxy will also not work with our Debian apt which mans none of our servers can update.  Right now we have disabled the proxy so we can wait for a fix.
Reply
  • He help clarify my post, I have tried the web proxy in transparent mode with no other features and it just doesn't work.

    I have tried it iwth features on as well. I have tried restarting it manually and have tested from Mozilla, IE, Opera and Netscape.  Three of these browsers I have used on Linux as well.

    The basic proxy will also not work with our Debian apt which mans none of our servers can update.  Right now we have disabled the proxy so we can wait for a fix.
Children
  • I did a bunch more testing on this issue by changing the configurations for the http proxy and no matter what options i have tried on this the http proxy keeps restarting.  I watched the logs and the proxy just stops and starts as indicated in the logs included in one of the other posts here.

    If I am very patient and can get the page to start loading in some cases it will load parts adn not load others.  It all depends on when the proxy shuts down.
  • Hi there, 

    if the biggest problem ist that the http proxy is constantly restarting, 
    i also can explain that.

    As you might all know we use the definition networks in nearly every other configuration option.

    Now if one network definition changes, it could theoretically be the onr that is used inside the HTTP proxy.
    therefore the HTTP proxy gets restarted in order to reflect the changed network.

    In V4 we had the same behavior, with the slight difference that the networks only change if the admin make some configuration or a dynamic interface changed his ip address.
    In V5 we introduced many new dynamic network types like, IPSec user, PPTP user, DNS hostname and so on. 
    Now the problem is that the granularity level we have inside the midddleware that takes care of configuring squid and the restarting it is not enough anymore.

    We are currently working on improving this, so only if the configuration of squid changes somehow, the system gets restarted.

    Also keep in mind that we have a new content filter framework (CFF), so many proxies can share the same  Content Filter mechanism like Virus Scanning.
    now if you configure something at the SMTP content filter and the system needs to reload its configuration, there might be certain downtime also for the other proxies.

    If there are no other problems than the restarting of squid and the CFF, i  am happy to tell that we are working currectly to improve this behavior.

    But if you recognize other problems, plz post them.

    Thx Gert