| От | Dan Browning |
|---|---|
| Тема | Re: Large database help |
| Дата | |
| Msg-id | 9c35de$1l4p$1@news.tht.net обсуждение |
| Ответ на | Large database help (xbdelacour@yahoo.com) |
| Список | pgsql-admin |
> and dropped into a single table, which will become ~20GB. Analysis happens > on a Windows client (over a network) that queries the data in chunks across > parallel connections. I'm running the DB on a dual gig p3 w/ 512 memory > under Redhat 6 (.0 I think). A single index exists that gives the best case > for lookups, and the table is clustered against this index. Sorry for my ignorant question, but I think I'll learn if I ask it: Wouldn't one *expect* lots of heavy disk activity if one were querying a 20GB database on a system with only 512MB of RAM? Does the same thing happen on, say, 300MB of data? -Clueless in Seattle, Dan B.
В списке pgsql-admin по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера