| От | Tom Lane |
|---|---|
| Тема | Re: Huge Data sets, simple queries |
| Дата | |
| Msg-id | 11814.1138463702@sss.pgh.pa.us обсуждение |
| Ответ на | Huge Data sets, simple queries ("Mike Biamonte" <mike@dbeat.com>) |
| Ответы |
Re: Huge Data sets, simple queries
|
| Список | pgsql-performance |
"Mike Biamonte" <mike@dbeat.com> writes:
> The queries I need to run on my 200 million transactions are relatively
> simple:
> select month, count(distinct(cardnum)) count(*), sum(amount) from
> transactions group by month;
count(distinct) is not "relatively simple", and the current
implementation isn't especially efficient. Can you avoid that
construct?
Assuming that "month" means what it sounds like, the above would result
in running twelve parallel sort/uniq operations, one for each month
grouping, to eliminate duplicates before counting. You've got sortmem
set high enough to blow out RAM in that scenario ...
regards, tom lane
В списке pgsql-performance по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера