| От | Egor Duda |
|---|---|
| Тема | deduplicating backup of multiple pg_dump dumps |
| Дата | |
| Msg-id | 5f4d2bdd-e0b6-35e7-501d-e37e5e41a92f@gmail.com обсуждение исходный текст |
| Ответы |
Re: deduplicating backup of multiple pg_dump dumps
|
| Список | pgsql-admin |
Hello! I've recently tried to use borg backup (https://borgbackup.readthedocs.io/) to store multiple PostgreSQL database dumps, and encountered a problem. Due to nondeterministic nature of pg_dump it reorders data tables rows on each invocation, which breaks borg backup chunking and deduplication algorithm. This means that each next dump in backup almost never reuses data from previous dumps, and so it's not possible to store multiple database dumps as efficiently as possible. I wonder if there's any way to force pg_dump use some predictable ordering of data rows (for example, by primary key, where possible) to make dumps more uniform, similar to mysqldump --order-by-primary option? Egor.
В списке pgsql-admin по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера