<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Apr 16, 2019 at 7:55 AM Tatsuo Ishii &lt;<a href="mailto:ishii@sraoss.co.jp">ishii@sraoss.co.jp</a>&gt; wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">Hi Usama,<br>
<br>
&gt; Hi  TAKATSUKA Haruka,<br>
&gt; <br>
&gt; Thanks for the patch, But your patch effectively disables the node<br>
&gt; quarantine, which does&#39;t seems a right way.<br>
&gt; Since the backend node that was quarantined because of absence of quorum<br>
&gt; and/or consensus is already un-reachable<br>
&gt; form the Pgpool-II node, and we don&#39;t want to select it as load-balance<br>
&gt; node ( in case the node was secondary) or consider it<br>
&gt; as available when it is not by not marking it as quarantine.<br>
&gt; <br>
&gt; In my opinion the right way to tackle the issue is  by keep setting the<br>
&gt; quarantine state as it is done currently  but<br>
&gt; also keep the health check working on quarantine nodes. So that as soon as<br>
&gt; the connectivity to the<br>
&gt; quarantined node resumes, it becomes the part of cluster automatically.<br>
<br>
What if the connection failure between the primary PostgreSQL and one<br>
of Pgpool-II servers is permanent? Doesn&#39;t health checking continues<br>
forever?<br></blockquote><div><br></div><div>Yes, only for the quarantined PostgreSQL nodes. But I don&#39;t think there is a problem</div><div>in that. As conceptually the quarantine nodes are not failed node (they are just unusable at that moment)</div><div>and taking the node out of quarantine zone shouldn&#39;t require the manual intervention. So I think its the correct</div><div>way to continue the health checking on quarantined nodes.</div><div><br></div><div>Do you see an issue with the approach ?</div><div><br></div><div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">
<br>
&gt; Can you please try out the attached patch, to see if the solution works for<br>
&gt; the situation?<br>
&gt; The patch is generated against current master branch.<br>
&gt; <br>
&gt; Thanks<br>
&gt; Best Regards<br>
&gt; Muhammad Usama<br>
&gt; <br>
&gt; On Wed, Apr 10, 2019 at 2:04 PM TAKATSUKA Haruka &lt;<a href="mailto:harukat@sraoss.co.jp" target="_blank">harukat@sraoss.co.jp</a>&gt;<br>
&gt; wrote:<br>
&gt; <br>
&gt;&gt; Hello, Pgpool developers<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; I found Pgpool-II watchdog is too strict for duplicate failover request<br>
&gt;&gt; with allow_multiple_failover_requests_from_node=off setting.<br>
&gt;&gt;<br>
&gt;&gt; For example, A watchdog cluster with 3 pgpool instances is here.<br>
&gt;&gt; Their backends are PostgreSQL servers using streaming replication.<br>
&gt;&gt;<br>
&gt;&gt; When the communication between master/coordinator pgpool and<br>
&gt;&gt; primary PostgreSQL node is down during a short period<br>
&gt;&gt; (or pgpool do any false-positive judgement by various reasons),<br>
&gt;&gt; and then the pgpool tries to failover but cannot get the consensus,<br>
&gt;&gt; so it makes the primary node into quarantine status. It cannot<br>
&gt;&gt; be reset automatically. As a result, the service becomes unavailable.<br>
&gt;&gt;<br>
&gt;&gt; This case generates logs like the following:<br>
&gt;&gt;<br>
&gt;&gt; pid 1234: LOG:  new IPC connection received<br>
&gt;&gt; pid 1234: LOG:  watchdog received the failover command from local<br>
&gt;&gt; pgpool-II on IPC interface<br>
&gt;&gt; pid 1234: LOG:  watchdog is processing the failover command<br>
&gt;&gt; [DEGENERATE_BACKEND_REQUEST] received from local pgpool-II on IPC interface<br>
&gt;&gt; pid 1234: LOG:  Duplicate failover request from &quot;pg1:5432 Linux pg1&quot; node<br>
&gt;&gt; pid 1234: DETAIL:  request ignored<br>
&gt;&gt; pid 1234: LOG:  failover requires the majority vote, waiting for consensus<br>
&gt;&gt; pid 1234: DETAIL:  failover request noted<br>
&gt;&gt; pid 4321: LOG:  degenerate backend request for 1 node(s) from pid [4321],<br>
&gt;&gt; is changed to quarantine node request by watchdog<br>
&gt;&gt; pid 4321: DETAIL:  watchdog is taking time to build consensus<br>
&gt;&gt;<br>
&gt;&gt; Note that this case dosen&#39;t have any communication truouble among<br>
&gt;&gt; the Pgpool watchdog nodes.<br>
&gt;&gt; You can reproduce it by changing one PostgreSQL&#39;s pg_hba.conf to<br>
&gt;&gt; reject the helth check access from one pgpool node in short period.<br>
&gt;&gt;<br>
&gt;&gt; The document don&#39;t say that duplicate failover requests make the node<br>
&gt;&gt; quarantine immediately. I think it should be just igunoring the request.<br>
&gt;&gt;<br>
&gt;&gt; A patch file for head of V3_7_STABLE is attached.<br>
&gt;&gt; Pgpool with this patch also disturbs failover by single pgpool&#39;s repeated<br>
&gt;&gt; failover requests. But it can recover when the connection trouble is gone.<br>
&gt;&gt;<br>
&gt;&gt; Does this change have any problem?<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; with best regards,<br>
&gt;&gt; TAKATSUKA Haruka &lt;<a href="mailto:harukat@sraoss.co.jp" target="_blank">harukat@sraoss.co.jp</a>&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; pgpool-hackers mailing list<br>
&gt;&gt; <a href="mailto:pgpool-hackers@pgpool.net" target="_blank">pgpool-hackers@pgpool.net</a><br>
&gt;&gt; <a href="http://www.pgpool.net/mailman/listinfo/pgpool-hackers" rel="noreferrer" target="_blank">http://www.pgpool.net/mailman/listinfo/pgpool-hackers</a><br>
&gt;&gt;<br>
</blockquote></div></div>