| От | Andrew Dunstan |
|---|---|
| Тема | Re: Updating large postgresql database with blobs |
| Дата | |
| Msg-id | 45F5907A.90609@dunslane.net обсуждение исходный текст |
| Ответ на | Re: Updating large postgresql database with blobs ("CAJ CAJ" <pguser@gmail.com>) |
| Список | pgsql-hackers |
CAJ CAJ wrote: > > > Thanks for the response. This'd be wonderful if I can get my process > right. My assumptions (probably incorrect) are that pgdump has to be > excuted twice on a database with blobs. Once to get the data and once > to get the blob (using the -b flag). > > Why do you assume that? The pg_dump manual says: -b --blobs Include large objects in the dump. This is the default behavior except when --schema, --table, or --schema-only is specified,so the -b switch is only useful to add large objects to selective dumps. IOW, in most cases you will just get the large objects for free, and don't even need to use this flag to get them. No need to run twice. cheers andrew
В списке pgsql-hackers по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера