This discussion has been locked.
You can no longer post new replies to this discussion. If you have a question you can start a new discussion

pop3 proxy not running restarted

Hello, today I update to latest version firmware 9-206-35
And after this I still getting error mails with popš proxy not runnig restart.
If I open pop3 live log I see here this error:
Fatal: Can't bind on port 8110: Address already in use

I am not using this port in nat or in webfiltering Misc.

How can I solve this problem.
Thank for any advice


This thread was automatically locked due to age.
  • It seems that all logging data will be lost that are not archived. Take a look to my log and data partition (screenshots).

    On a ha System, the data is just lost at the master node. I'll try to sync data after restart of the master.


    Hi mod2402,

    thank you for your quick answer. I only get error messages from the slave. My master is OK. When the postgres rebuild only works on the actual master node what's the best way to probably keep the log data? Switch master to the slave node (i. e. by shutting down master), rebuild postgres database on the slave node which is the temporary master node and then start the master node again? What do you think?

    Kind Regards

    TheExpert

    Kind Regards

    TheExpert

  • Yes, that's the way how I done it. You should create a backup first [;)]
  • You mean a configuration backup? I make a automatic backup each day. But there are no log data.

    So you didn't lose your log and reporting data with this way?

    Kind Regards

    TheExpert

  • I've created a snapshot because my ha is virtuall [;)]

    I didn't lose my log and reporting data with this way [:)]
  • Yes, great idea. My both nodes are virtual too [:)]. So I also made a snapshot of the systems. Then I've done the following steps:

    1. Stop Master node (configured as preferred master)
    2. Do Postgres rebuild on the Slave node which is temporarily the master
    3. Start Master node (preferred master) so it became the active node again after syncing

    This way didn't save logging data which is not archived. Looking on the start page of management it says "No data is available for this report" [:(].

    I think I lost only the data for this day so my executive report for today isn't correct, right?

    Or should I go back to the snapshots of the two nodes before doing the Postgres rebuild?

    Did you had any Postgres errors since rebuilding the database today?

    Kind Regards

    TheExpert

  • The Postgres rebuild didn't help. I still get the error messages from the slave [:@].

    Did you get any error messages or log entries since rebuilding the database?

    I think the HA cluster doesn't work very good. I often get timeouts when going to internet. Today I had a complete interruption. In the same time there were 3 messages of portscan warnings. I never had this when running the UTM as single system for over 3 years.

    It probably would the best to break the HA cluster and run two single systems with the same settings. Thanks to having virtual machines I can shut down the network connections by VI client.

    Kind Regards

    TheExpert

  • Yes, the problem is back [:(]

    My HA is running on a Hyper-V host. I've no other issues at the moment.
  • In evening and night hours the error occurs nearly every two hours. On daytime the error occurs unregularly.

    And since yesterday I get the error that the slave node can't reach antispam database servers.

    The download of the Up2Date pattern works fine on both nodes.

    My master node is running on Vmware ESXi 5.1, my slave node on VMware ESXi 5.5. A year ago I had some network problems when running ESXi 5.5. Before clustering the both nodes I tested my network connections with a single node on ESXi 5.5 and all was fine. Especially VoIP was OK (in the past when running ESXi 5.5 VoIP was not OK). The heartbeat is connected to internal network where the vmkernel is connected to. The backup heartbeat is connected to LAN (same IP network).

    I don't know what to do for repairing the issue.

    Kind Regards

    TheExpert

  • With 9.207-18 same issue [:@]
  • I updated my HA cluster too but left the master node on 9.206. So for nearly 6 hours the slave node has 9.207 and is now the master.

    I didn't get any error messages but also I didn't get Up2Date messages. Looking at the Up2Date option the pattern is on the latest release.

    When logging on the web UI or the console I get the info message that there were successful logins.

    So why doesn't the system send info or error messages about Up2Date and POP3 proxy anymore but about login per web UI or console?

    I think I will now update the second node to 9.207 and have a look what happens.

    Kind Regards

    TheExpert