| От | Joseph Shraibman |
|---|---|
| Тема | Re: Backups WAS: 2 gig file size limit |
| Дата | |
| Msg-id | 3B4A42D9.C448D456@selectacast.net обсуждение исходный текст |
| Ответ на | 2 gig file size limit (Naomi Walker <nwalker@eldocomp.com>) |
| Список | pgsql-hackers |
Lamar Owen wrote: > > On Friday 06 July 2001 18:51, Naomi Walker wrote: > > If PostgreSQL is run on a system that has a file size limit (2 gig?), where > > might cause us to hit the limit? > > Since PostgreSQL automatically segments its internal data files to get around > such limits, the only place you will hit this limit will be when making > backups using pg_dump or pg_dumpall. You may need to pipe the output of Speaking of which. Doing a dumpall for a backup is taking a long time, the a restore from the dump files doesn't leave the database in its original state. Could a command be added that locks all the files, quickly tars them up, then releases the lock? -- Joseph Shraibman jks@selectacast.net Increase signal to noise ratio. http://www.targabot.com
В списке pgsql-hackers по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера