<div dir="rtl"><div dir="ltr">someone ?</div></div><br><div class="gmail_quote"><div dir="rtl">‫בתאריך יום א׳, 9 בדצמ׳ 2018 ב-15:00 מאת ‪Mariel Cherkassky‬‏ &lt;‪<a href="mailto:mariel.cherkassky@gmail.com">mariel.cherkassky@gmail.com</a>‬‏&gt;:‬<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="rtl"><div dir="ltr">Hi,</div><div dir="ltr">I&#39;m trying to implement pgpool2 in our environment but in our performance tests it seems that when we use pgpool the performance are worse. Therefore, I wanted to check if pgpool is the right solution based on the next info that I read : </div><div dir="ltr">&quot;<span style="color:rgb(37,37,37);font-family:sans-serif;font-size:14px"> </span><span style="color:rgb(37,37,37);font-family:sans-serif;font-size:14px">process opens a new backend connection only if the requested [user,database] pair is not already in the cache. So if the application uses only one user to connect to only one database, say [pguser1,pgdb1], then each child will continue to reuse the first connection and will never open a second connection, so in effect pgpool will open no more than 100 backend connections even though max_pool is set to 3.&quot;</span></div><div dir="ltr"><br></div><div dir="ltr">In my case, I have 3 databases and for every database I have a dedicated user. The application access each of those databases with a dedicated user. Now basicaly, if my max_connections is set to 500, pgpool max_pool set to 3 and the num_of_init_children is set to 100 it means that at every moment I can have at most 100 sessions to each one of the  databases (with pgpool..).</div><div dir="ltr"><br></div><div dir="ltr">Thanks , Mariel.</div></div>
</blockquote></div>