Re: Using Postgres to store high volume streams of sensor readings
В списке pgsql-general по дате отправления:
| От | Scott Marlowe |
|---|---|
| Тема | Re: Using Postgres to store high volume streams of sensor readings |
| Дата | |
| Msg-id | dcc563d10811221709s38d4e65ex8c821ef65491cf5e@mail.gmail.com обсуждение исходный текст |
| Ответ на | Re: Using Postgres to store high volume streams of sensor readings (Scara Maccai <m_lists@yahoo.it>) |
| Ответы |
Re: Using Postgres to store high volume streams of sensor readings
|
| Список | pgsql-general |
On Sat, Nov 22, 2008 at 5:54 PM, Scara Maccai <m_lists@yahoo.it> wrote: > Since you always need the timestamp in your selects, have you tried indexing only the timestamp field? > Your selects would be slower, but since client and sensor don't have that many distinct values compared to the number ofrows you are inserting maybe the difference in selects would not be that huge. Even better might be partitioning on the timestamp. IF all access is in a certain timestamp range it's usually a big win, especially because he can move to a new table every hour / day / week or whatever and merge the old one into a big "old data" table.
В списке pgsql-general по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера