Re: Getting even more insert performance (250m+rows/day)
В списке pgsql-performance по дате отправления:
| От | Mark Lewis |
|---|---|
| Тема | Re: Getting even more insert performance (250m+rows/day) |
| Дата | |
| Msg-id | 1148501913.28095.70.camel@archimedes обсуждение исходный текст |
| Ответ на | Re: Getting even more insert performance (250m+rows/day) ("Daniel J. Luke" <dluke@geeklair.net>) |
| Список | pgsql-performance |
> The data gets inserted in batches every 5 minutes and I potentially > have people querying it constantly, so I can't remove and re-create > the index. How live does your data need to be? One possibility would be to use a separate table for each batch instead of a separate table per day, create the indexes after the import and only after the indexes have been created make the table available for user queries. You'd be trading latency for throughput in that case. Also, you mentioned that you're CPU-bound, but that you have multiple CPU's. In that case, performing N concurrent imports (where N is the number of processor cores available) might be a win over a single- threaded import. -- Mark Lewis
В списке pgsql-performance по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера