| От | Tom Lane |
|---|---|
| Тема | Re: hash join hashtable size and work_mem |
| Дата | |
| Msg-id | 26289.1173894524@sss.pgh.pa.us обсуждение исходный текст |
| Ответ на | Re: hash join hashtable size and work_mem ("Timothy J. Kordas" <tkordas@greenplum.com>) |
| Список | pgsql-hackers |
"Timothy J. Kordas" <tkordas@greenplum.com> writes:
> I would expect for the same data a hash-join with a work_mem of 256MB to run
> faster than one run with 32MB; even if the inner relation is only 30MB.
Once you get to the point where each tuple is in a different bucket, it
is clearly impossible for further increases in hashtable size to improve
matters. All you can do is waste RAM and cache lines.
Now if we set NTUP_PER_BUCKET = 1 we would not be exactly at that critical
point because of uneven bucket loading and other factors ... but I
question whether there's enough incremental improvement available to
justify making the hashtable much larger than that.
regards, tom lane
В списке pgsql-hackers по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера