Re: Using Postgres to store high volume streams of sensor readings
В списке pgsql-general по дате отправления:
| От | Tom Lane |
|---|---|
| Тема | Re: Using Postgres to store high volume streams of sensor readings |
| Дата | |
| Msg-id | 1581.1227283580@sss.pgh.pa.us обсуждение исходный текст |
| Ответ на | Re: Using Postgres to store high volume streams of sensor readings ("Ciprian Dorin Craciun" <ciprian.craciun@gmail.com>) |
| Ответы |
Re: Using Postgres to store high volume streams of sensor readings
Re: Using Postgres to store high volume streams of sensor readings |
| Список | pgsql-general |
"Ciprian Dorin Craciun" <ciprian.craciun@gmail.com> writes:
> In short the data is inserted by using COPY sds_benchmark_data
> from STDIN, in batches of 500 thousand data points.
Not sure if it applies to your real use-case, but if you can try doing
the COPY from a local file instead of across the network link, it
might go faster. Also, as already noted, drop the redundant index.
regards, tom lane
В списке pgsql-general по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера