Re: Issue with Running VACUUM on Database with Large Tables
В списке pgsql-bugs по дате отправления:
| От | Tom Lane |
|---|---|
| Тема | Re: Issue with Running VACUUM on Database with Large Tables |
| Дата | |
| Msg-id | 1843284.1703516005@sss.pgh.pa.us обсуждение исходный текст |
| Ответ на | Issue with Running VACUUM on Database with Large Tables (Nagaraj Raj <nagaraj.sf@yahoo.com>) |
| Список | pgsql-bugs |
Nagaraj Raj <nagaraj.sf@yahoo.com> writes:
> While executing a vacuum analyze on our database containing large tables (approximately 200k), I encountered an
issue.If a table gets dropped during the vacuum process, the vacuum job fails at that point with an error message
stating"OID relation is not found" and exits.
I can't replicate that. I get either
ERROR: relation "foo" does not exist
if you specifically name a nonexistent table, or
WARNING: skipping vacuum of "foo" --- relation no longer exists
if the table existed at the start but doesn't exist by the time
vacuum gets to it. There may be some code path that results in
the error you cite, but you'll need to provide more detail about
how to duplicate it.
regards, tom lane
В списке pgsql-bugs по дате отправления:
Сайт использует файлы cookie для корректной работы и повышения удобства. Нажимая кнопку «Принять» или продолжая пользоваться сайтом, вы соглашаетесь на их использование в соответствии с Политикой в отношении обработки cookie ООО «ППГ», в том числе на передачу данных из файлов cookie сторонним статистическим и рекламным службам. Вы можете управлять настройками cookie через параметры вашего браузера