Re: dump of 700 GB database

Поиск
Список
Период
Сортировка
От John R Pierce
Тема Re: dump of 700 GB database
Дата
Msg-id 4B7261CF.4070202@hogranch.com
обсуждение исходный текст
Ответ на dump of 700 GB database  ("karsten vennemann" <karsten@terragis.net>)
Список pgsql-general
karsten vennemann wrote:
> I have to write a 700 GB large database to a dump to clean out a lot
> of dead records on an Ubuntu server with postgres 8.3.8. What is the
> proper procedure to succeed with this - last time the dump stopped at
> 3.8 GB size I guess. Should I combine the -Fc option of pg_dump and
> and the split command ?

vacuum should clean out the dead tuples, then cluster on any large
tables that are bloated will sort them out without needing too much
temporary space.





В списке pgsql-general по дате отправления:

Предыдущее
От: Allan Kamau
Дата:
Сообщение: Re: more than 2GB data string save
Следующее
От: Martijn van Oosterhout
Дата:
Сообщение: Re: Memory Usage and OpenBSD