| От | Oliver Jowett |
|---|---|
| Тема | Re: JDBC and processing large numbers of rows |
| Дата | |
| Msg-id | 40A22544.8000206@opencloud.com обсуждение исходный текст |
| Ответ на | Re: JDBC and processing large numbers of rows (Guido Fiala <guido.fiala@dka-gmbh.de>) |
| Список | pgsql-jdbc |
Guido Fiala wrote: > Am Mittwoch, 12. Mai 2004 12:00 schrieb Kris Jurka: > >>The backend spools to a file when a materialized cursor uses more than >>sort_mem amount of memory. This is not quite the same as swapping as it >>will consume disk bandwidth, but it won't hog memory from other >>applications. > > > Well thats good on one side, but from the side of the user its worse: > > He will see a large drop in performance (factor 1000) ASAP the database starts > using disk for such things. Ok - once the database is to large to be hold in > memory it is disk-bandwith-limited anyway... What about the kernel cache? I doubt you'll see a *sudden* drop in performance .. it'll just degrade gradually towards disk speeds as your resultset gets larger. -O
В списке pgsql-jdbc по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера