| От | Tom Lane |
|---|---|
| Тема | Re: hash join hashtable size and work_mem |
| Дата | |
| Msg-id | 23656.1173891061@sss.pgh.pa.us обсуждение исходный текст |
| Ответ на | hash join hashtable size and work_mem ("Timothy J. Kordas" <tkordas@greenplum.com>) |
| Ответы |
Re: hash join hashtable size and work_mem
|
| Список | pgsql-hackers |
"Timothy J. Kordas" <tkordas@greenplum.com> writes:
> Am I missing something about the current implementation ?
If the planner has correctly predicted the number of rows, the table
loading should be about NTUP_PER_BUCKET in either regime. Are you
sure you aren't just wishing that NTUP_PER_BUCKET were smaller?
I don't see that making the hashtable much larger than ntuples
is a good idea --- that just spreads out the live entries over more
cache lines, resulting in more cache thrashing.
regards, tom lane
В списке pgsql-hackers по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера