dump of 700 GB database

Поиск
Список
Период
Сортировка
От karsten vennemann
Тема dump of 700 GB database
Дата
Msg-id AC5865D2B70748F9A9F7F2F5B85821D1@snuggie
обсуждение исходный текст
Ответы Re: dump of 700 GB database  (Pavel Stehule <pavel.stehule@gmail.com>)
Список pgsql-general

I have to write a 700 GB large database to a dump to clean out a lot of dead records on an Ubuntu server with postgres 8.3.8. What is the proper procedure to succeed with this - last time the dump stopped at 3.8 GB size I guess. Should I combine the -Fc option of pg_dump and and the split command ?
I thought something like
"pg_dump -Fc test | split -b 1000m - testdb.dump"
might work ?
Karsten
Terra GIS LTD
Seattle, WA, USA 
 

В списке pgsql-general по дате отправления:

Предыдущее
От: Steve Atkins
Дата:
Сообщение: Re: more than 2GB data string save
Следующее
От: Scott Marlowe
Дата:
Сообщение: Re: more than 2GB data string save