This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

Astaro eating my bandwidth

Hi

I am sitting in South Africa where bandwidth is expensive, slow and limited.
I get 5GB a month, if that is finished I'm capped and have to buy more bandwidth.

In the last 30 days, Astaro blew 7.1GB of my precious bandwidth...
5.1GB went to ec2-175-41-169-159.ap-southeast-1.compute.amazonaws.com
2GB went to several mailshell.net servers.

Note: This is not traffic from my internal network, this is my Astaro box alone, wasting my bandwidth.

How do I stop mailshell and what is being done about the amazon thing (I know some other people is also experiencing this)

Thank is advance



This thread was automatically locked due to age.
Parents
  • I'm sorry that I confused the situation by mentioning the other problem first.  The additional information you've supplied confirms that Alan's prescription is correct.  You can confirm that by creating an 'Exception' for "Antivirus" for a network 74.125.109.128/25.  If that solves the problem, you'll want to change the exception from a match of fixed IPs to a match of URLs:

    Search in the 'Content Filter (HTTP/S)' log for 74.125.109 to see what URLs are associated with those IPs.  If you reread what Alan wrote, you'll see that he found pack.code.google.com, but you likely will find something different.

    Please let us know if this resolves your issue.

    Cheers - Bob
     
    Sophos UTM Community Moderator
    Sophos Certified Architect - UTM
    Sophos Certified Engineer - XG
    Gold Solution Partner since 2005
    MediaSoft, Inc. USA
Reply
  • I'm sorry that I confused the situation by mentioning the other problem first.  The additional information you've supplied confirms that Alan's prescription is correct.  You can confirm that by creating an 'Exception' for "Antivirus" for a network 74.125.109.128/25.  If that solves the problem, you'll want to change the exception from a match of fixed IPs to a match of URLs:

    Search in the 'Content Filter (HTTP/S)' log for 74.125.109 to see what URLs are associated with those IPs.  If you reread what Alan wrote, you'll see that he found pack.code.google.com, but you likely will find something different.

    Please let us know if this resolves your issue.

    Cheers - Bob
     
    Sophos UTM Community Moderator
    Sophos Certified Architect - UTM
    Sophos Certified Engineer - XG
    Gold Solution Partner since 2005
    MediaSoft, Inc. USA
Children
  • Bob,
    Searching the logs for any of the subnets over the past 30 days found nothing but in looking through the logs I searched for google and found "tools.google.com/.../update2" scattered throughout the daily logs.
    I have now set an antivirus exception for tools.google.com to see if this has any effect.
    Interestingly if tools.google.com is entered in a browser you end up at "pack.google.com/.../pack_installer.html" So hopefully I am onto something here finally. (with your help of course)

    -Lew
  • genau so ein Ding will ich da auch draufsetzen.... fahre gleich noch zum Elektronikladen, vielleicht haben die nen flachen samt Poti (für Drehzahl) oder gar direkt minimal begrenzten da... inklusive Schutzgitter, dann Dremel ich nachher noch fix das Loch in die Seitenwand.
  • Thanks Bob the solution you posted from Alan Toews is exactly what was happening. An exception for "pack.code.google.com" solved the problem. Bandwidth was running daily at 1.5-2.0GB a day and is now down to the more realistic 80-120MB a day.
    Basically it appears that the ASGs reporting is a bit lacking in not reporting what is happening. It would be better if a there was a report for failed downloads to identify that an amount of data was downloaded but not completed and sent to the requesting PC.
    Thanks again for your help
  • Hi all. 

    I found this thread in searching for a solution to my traffic. One of my firewalls is at a place I only visit each couple of weeks and yet it was showing upto 8 gig (I suspect its not completing the download and trying again) a day http traffic from the wan interface and it had me stumped. I couldnt work it out.

    So are we saying we need to whitelist the places where the uptodate comes from etc? I temporily have blocked this and it seems to have reduce the traffic dramatically so I am assuming thats the problem.... [:O]

    Thanks heaps guys...