How do I bulk insert to a table without affecting read performance on that table?
В списке pgsql-performance по дате отправления:
| От | growse |
|---|---|
| Тема | How do I bulk insert to a table without affecting read performance on that table? |
| Дата | |
| Msg-id | 15099164.post@talk.nabble.com обсуждение исходный текст |
| Ответы |
Re: How do I bulk insert to a table without affecting read performance on that table?
|
| Список | pgsql-performance |
Hi, I've got a pg database, and a batch process that generates some metadata to be inserted into one of the tables. Every 15 minutes or so, the batch script re-calculates the meta data (600,000 rows), dumps it to file, and then does a TRUNCATE table followed by a COPY to import that file into the table. The problem is, that whilst this process is happening, other queries against this table time out. I've tried to copy into a temp table before doing an "INSERT INTO table (SELECT * FROM temp)", but the second statement still takes a lot of time and causes a loss of performance. So, what's the best way to import my metadata without it affecting the performance of other queries? Thanks, Andrew -- View this message in context: http://www.nabble.com/How-do-I-bulk-insert-to-a-table-without-affecting-read-performance-on-that-table--tp15099164p15099164.html Sent from the PostgreSQL - performance mailing list archive at Nabble.com.
В списке pgsql-performance по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера