| От | Volkan YAZICI |
|---|---|
| Тема | Re: bigger blob rows? |
| Дата | |
| Msg-id | 20060118181029.GF578@alamut обсуждение исходный текст |
| Ответ на | bigger blob rows? (Eric Davies <Eric@barrodale.com>) |
| Список | pgsql-general |
On Jan 18 09:00, Eric Davies wrote: > Back in the days of 7.4.2, we tried storing large blobs (1GB+) in > postgres but found them too slow because the blob was being chopped > into 2K rows stored in some other table. > However, it has occurred to us that if it was possible to configure > the server to split blobs into bigger pieces, say 32K, our speed > problems might diminish correspondingly. > Is there a compile time constant or a run time configuration entry > that accomplish this? include/storage/large_object.h:64: #define LOBLKSIZE (BLCKSZ / 4) include/pg_config_manual.h:26: #define BLCKSZ 8192 HTH. Regards.
В списке pgsql-general по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера