<div dir="ltr"><div>Hi guys</div><div><br></div><div>Need you hints on some weird behaviors of PGPool 4.2. <br><br></div><div>1. I have 2 pgpool instances that watch each other and handling pgpool VIP. <br></div><div>I see that when a current pgpool leader comes down, the role switched and VIP moved with significant delay. In logs I see a this picture:<br><br><span style="font-family:monospace">2024-12-02 14:40:12: pid 1286: LOG:  watchdog node state changed from [INITIALIZING] to [LEADER]<br>2024-12-02 14:40:12: pid 1286: LOG:  Setting failover command timeout to 1<br>2024-12-02 14:40:12: pid 1286: LOG:  I am announcing my self as leader/coordinator watchdog node<br>2024-12-02 14:40:16: pid 1286: LOG:  I am the cluster leader node<br>2024-12-02 14:40:16: pid 1286: DETAIL:  our declare coordinator message is accepted by all nodes<br>2024-12-02 14:40:16: pid 1286: LOG:  setting the local node "<a href="http://10.65.188.56:9999">10.65.188.56:9999</a> Linux pg-mgrdb2" as watchdog cluster leader<br>2024-12-02 14:40:16: pid 1286: LOG:  signal_user1_to_parent_with_reason(1)<br>2024-12-02 14:40:16: pid 1286: LOG:  I am the cluster leader node. Starting escalation process<br>2024-12-02 14:40:16: pid 1281: LOG:  Pgpool-II parent process received SIGUSR1<br>2024-12-02 14:40:16: pid 1281: LOG:  Pgpool-II parent process received watchdog state change signal from watchdog<br>2024-12-02 14:40:16: pid 1286: LOG:  escalation process started with PID:4855<br>2024-12-02 14:40:16: pid 4855: LOG:  watchdog: escalation started<br>2024-12-02 14:40:20: pid 4855: LOG:  successfully acquired the delegate IP:"10.65.188.59"<br>2024-12-02 14:40:20: pid 4855: DETAIL:  'if_up_cmd' returned with success<br>2024-12-02 14:40:20: pid 1286: LOG:  watchdog escalation process with pid: 4855 exit with SUCCESS.</span><br></div><div><br></div><div>It has siginficant delays at 14:40:12 and on acquiring the VIP at 14:40:16. The quorum settings in gpgool.conf are: <br></div><div><br></div><div><span style="font-family:monospace">failover_when_quorum_exists=off<br>failover_require_consensus=on<br>allow_multiple_failover_requests_from_node=off<br></span></div><div><span style="font-family:monospace"><br></span></div><div><span style="font-family:monospace">So I nave no idea why it happens. <br><br clear="all"></span></div><div><div dir="ltr" class="gmail_signature" data-smartmail="gmail_signature"><div dir="ltr"><div>2. The second question is about a health check logics. I get right that if a backend comes to down state, his health check gets stopped?<br></div><div>If yes, how can I ensure that a failed backend comes back (after hardware issue for example), and should be recovered? <br>Or it's impossible within pgpool and I should use third-party gears for tracking backends and triggering the recovering? <br></div><div><br>BR</div><div>Igor Yurchenko<br></div></div></div></div></div>